Académique Documents
Professionnel Documents
Culture Documents
Secrétariat :
Mme Christine DRIGUZZI
Bibliothèque :
Mme Patricia BARTOLO Signature du candidat
Manel Kacem
3
Résumé
Abstract
In this work, we are interested by the calibration of the equity-risk under Solvency-II. We
consider portfolio composition in assessing of the equity-shock. We begin by calculating the
composition of our portfolio under yield constraint according to several optimization criteria
which are: the mean-variance criterion, the criterion with moments of order greater than
two and the criterion CVaR. Subsequently the equity-shock under Solvency-II is calculated
after modeling the series of returns by the use of conditional variance models combined with
a GPD modeling for extreme values. We are also interested by the notion of symmetric ad-
justment of the standard formula for equity-risk. In fact, we propose a model that quantifies
the probability of having a symmetric adjustment of a given level.
Remerciement
Enfin, je remercie toutes les personnes qui m’ont aidé à la réalisation de ce mémoire.
Contents
Synthèse 13
Synthesis 16
Introduction 22
I Partie Théorique 23
1 Notions utiles 25
1.3.3 Monte-Carlo-Simulation . . . . . . . . . . . . . . . . . . . . . . . . . 31
7
8 CONTENTS
1.5.1 ARCH(q) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
1.5.2 GARCH(p,q) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
1.5.3 EGARCH(p,q) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
1.5.4 GJR-GARCH . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.3.1 Notations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.4.2 Méthode de résolution des problèmes avec des moments d’ordre supérieur
à 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
5 Optimisation de Portefeuille 74
5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
5.2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
5.4.2 Résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
6.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
6.2.1 Estimation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
6.2.2 Validation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
6.4.4 Risque de base par rapport à une estimation normale et historique . . 108
Appendix 137
Bibliographie 144
Synthèse
12
13
Dans notre étude, le choc action sera évalué pour différentes pondérations des indices
composant le portefeuille optimisé selon plusieurs critères d’optimisation qui sont : le critère
moyenne-variance, les critères avec des moments d’ordre supérieur à deux et le critère CVaR.
Cela nous permet d’une part, d’analyser l’impact des méthodes d’optimisation sur la com-
position du portefeuille et d’autre part d’évaluer la sensibilité du choc action par rapport à
différentes pondérations des indices.
A l’issue des résultats trouvés dans ce mémoire, on note que le choc action calculé pour
notre portefeuille d’indice n’est pas couvert par le choc standard calibré par L’EIOPA (Eu-
ropean Insurance and Occupational Pensions Authority). On remarque aussi que même le
choc standard ajusté au maximum n’est pas suffisant pour se couvrir contre une probabilité
de ruine de 0.5%.
Notons que dans le cadre d’une modélisation par la méthode standard, le choc action est
complété par un mécanisme d’ajustement appelé le le dampener. Cet ajustement est calculé
sur la base d’un panier d’indices actions proposé par l’EIOPA et est défini de manière à
représenter le plus possible les investissements en actions des compagnies concernées par
Solvabilité-II. Cet ajustement est fonction de la position dans le cycle et permet d’éviter les
comportements pro-cycliques des investisseurs. On s’intéresse dans ce mémoire à l’évaluation
14 SYNTHÈSE
de la probabilité que l’ajustement, durant la période suivante, dépasse un niveau donné. Ceci
permet à l’assureur d’estimer à l’avance la probabilité que son choc sera réduit ou au contraire
sera amplifié. Pour cela on propose deux estimateurs de cette probabilité qui prennent en
compte la dépendance qui peut exister entre les évolutions passées du dampener. Notons que
l’un de ces modèles a été présenté et étudié dans Kacem et al. (2016).
Synthesis
15
16 SYNTHESIS
In this work we are interested by the calibration of the equity-risk under the Solvency II
regulation. This new reform imposes a Solvency Capital Requirement (SCR) that covers all
the risks that effectively affect an european insurance companies. The SCR corresponds to
a one year Value-At-Risk at level 99.5% : this is the minimum amount of capital that the
insurer must have to absorb the potential losses within one year with a probability of 99.5 %.
In our study, the equity shock will be valued for different weights of the indices accor-
ding to several optimization criteria which are : the mean-variance criterion, the criterion
with moments of order greater than two and the CVaR criterion. This allows us to analyze
the impact of optimization methods on the composition of the portfolio and to assess the
sensitivity of the equity shock to different weights of indices.
On the basis of the results found in this work, we note that the equity shock calculated
for our portfolio is not covered by the standard equity shock calibrated by the EIOPA (Eu-
ropean Insurance and Occupational Pensions Authority).
It should be noted that in the case of a modeling by the standard method, the equity
shock is adjusted by a mechanism known by the dampener. This adjustment is calculated on
the basis of a basket of equity indices proposed by the EIOPA. This adjustment is a function
of the position in the cycle and allow to avoid pro-cyclical behavior of investors. We are
interested in this work by the evaluation of the probability that the adjustment during the
following period will exceed a given level. This allows the insurer to estimate in advance the
probability that its shock will be reduced or, on the contrary, will be amplified. We propose
two estimators of this probability that take into account the dependence which may exist
between the past evolutions of the dampener. Note that one of these two estimators was
presented in Kacem et al. (2016).
Introduction
17
18 INTRODUCTION
Dans ce travail de mémoire on s’intéresse au calibrage du choc action, pour les actions
type 1, sous Solvabilité-II. En effet, l’évaluation du capital de solvabilité action selon la
formule standard néglige l’impact de la composition du portefeuille sur la valeur du choc
action. Pour cela, on commence dans un premier temps par calculer la composition d’un
portefeuille efficient sous contrainte de rendement selon plusieurs méthodes d’optimisation
de portefeuille. Par la suite, le choc action sous Solvabilité II est calculé pour une allocation
déterminée du portefeuille. On s’intéresse également à la notion de l’ajustement symétrique
de la formule standard pour le risque action.
Optimisation de Portefeuille
sélection de portefeuille lorsque les distributions des rendements sont asymétriques (skewed
distributions) et admettent des queues épaisses. En effet, la mesure de risque écart-type ne
permet de tenir compte que des dispersions des rendements autour de la moyenne, sans
pour autant prendre en considération l’asymétrie des distributions et la présence des valeurs
extrêmes.
Dans la première partie de ce mémoire on commence par présenter les critères de sélection
de portefeuille, en particulier on met l’accent sur les critères incorporant les moments d’ordre
élevé, et ce afin d’essayer de tenir compte des asymétries et des queues épaisses des distri-
butions des rendements. Ces moments feront référence aux deux indices de forme appelés
skewness et kurtosis, qui peuvent apporter une information plus complète sur les distributions
des rendements. En effet, le skewness permet de renseigner sur l’asymétrie des distributions ;
de plus, le kurtosis, qui correspond à un cœfficient d’aplatissement, permet de renseigner sur
l’épaisseur des queues des distributions des rendements.
Notre objectif est donc de déceler l’effet de l’inclusion de moments d’ordre élevé, où la
notion d’ordre élevé fait référence aux moments d’ordre supérieur à deux, sur le choix de
portefeuille et ceci sous l’hypothèse de la non normalité des distributions des rendements des
indices boursiers. En plus de l’optimisation de portefeuille selon le modèle de Markowitz ou
tout simplement moyenne-variance, nous considérons le critère moyenne-variance-skewness et
moyenne-variance-skewness-kurtosis. Plusieurs auteurs tel que Jondeau & Rockinger (2006)
ont porté intérêt à l’optimisation de portefeuille en incorporant les moments d’ordre élevés.
Un autre outil récent, qui sera utilisé dans ce travail pour la sélection de portefeuille,
est connu sous le nom d’optimisation CVaR. Cette méthode est fondée sur l’utilisation de la
Conditional Value at Risk comme mesure de risque. La frontière efficiente sera donc composée
des couples rendement-CVaR et ceci pour un seuil de risque donné.
L’optimisation de portefeuille est effectuée pour des rendements journaliers logarithmiques
en appliquant les quatre critères ci-dessous de sélection de portefeuille pour deux portefeuilles
(ou fonds) différents :
— Moyenne-Variance (Markowitz)
— Moyenne-Variance-Skewness
— Moyenne-Variance-Skewness-Kurtosis
— Optimisation CVaR.
On note que l’optimisation avec les moments d’ordre élevé est obtenue en maximisant
l’espérance de l’utilité de la richesse finale.
Des études empiriques ont montré que la distribution des rendements des actifs finan-
ciers a une forme dite leptokurtique, (c’est à dire avec un plus grand nombre d’observations
20 INTRODUCTION
extrêmes qu’une loi gaussienne) et cela d’autant plus que la fréquence des données est im-
portante. En effet, le caractère leptokurtique intervient peu pour les données annuelles en
comparaison avec les données journalières. Le but de considérer les deux fréquences jour-
nalière et annuelle et de faire une comparaison de l’effet de l’incorporation des moments
d’ordre supérieur à deux sur la sélection de portefeuille en fonction de la fréquence des
données. Dans l’implémentation des modèles de sélection de portefeuille, on a considéré les
hypothèses suivantes : aucune vente ou achat des titres à découvert n’est possible, c’est à
dire la proportion xi investie dans un titre i est telle que 0 ≤ xi ≤ 1, et un taux de rentabilité
minimum est fixé pour le portefeuille. De plus, on ne met pas de contrainte sur les propor-
tions maximales et minimales investies dans chaque titre. On note que cette contrainte serait
nécessaire lorsqu’il s’agit d’un portefeuille composé par exemple d’obligations et d’actions
dont les limites de détentions peuvent être définies par la réglementation prudentielle pour
obtenir un portefeuille équilibré.
Dans notre étude empirique nous avons constaté que l’incorporation des moments d’ordre
élevé a un effet sur la composition des portefeuilles actions considérés et ceci pour des
fréquences journalières de rendements. Toutefois, elle est sans effet dans le cas où les ren-
dements sont annuels. En effet, les rendements annuels des indices sont caractérisés par un
Kurtosis qui est considérablement moins élevé que celui des rendements journaliers et s’ap-
proche du Kurtosis de la loi gaussienne.
Une fois la composition optimale du portefeuille est déterminée, selon chacun des critères
d’optimisation de portefeuille énumérés précédemment, notre objectif sera de mesurer la
Value-At-Risk du rendement global du portefeuille pour les différentes pondérations obte-
nues selon chaque modèle d’optimisation de portefeuille.
Notons que tirer des conclusions à partir de la série historique des rendements ne semble
pas raisonnable. Pour cela on propose de modéliser les séries des rendements journaliers
afin d’évaluer la Value-At-Risk paramétrique du portefeuille. Cette évaluation rentre dans
le cadre de notre problématique d’estimation du choc action d’un portefeuille d’indice fictif
sous Solvabilité-II.
Le SCR couvre tous les risques auxquels est exposée la compagnie d’assurance : le risque
de marché, mais aussi le risque de contrepartie, le risque opérationnel, le risque vie et le
risque non-vie. Dans ce mémoire notre objectif concerne l’évaluation du choc action qui est
une composante du risque de marché. On propose d’évaluer le choc pour un portefeuille
d’actions (ou indexé sur actions) d’un assureur. On note que selon Solvabilité-II les actions
sont séparées en deux catégories : les actions globales (Union Européenne ou OCDE) et les
actions dites autres qui regroupent les actions non OCDE, non cotées, le private equity, les
matières premières et l’alternatif. Notre étude portera sur les actions type globales.
Selon une étude basée sur l’indice MSCI, le choc action annuel standard est calibré à 39%
(en termes de rendement ou de variabilité). Ce choc n’est supporté que par une minorité des
membres du CEIOPS. Une alternative de 45% selon une modélisation des valeurs extrêmes
est supportée par une majorité des membres du CEIOPS. Ce choc standard de 39% est
complété par un mécanisme d’ajustement symétrique, plus communément appelé dampener,
qui permet de prendre en compte les comportements pro-cycliques des marchés financiers.
Cet ajustement permet de réduire le SCR lorsque les marchés sont en bas de cycle et que la
probabilité de hausse est importante, et de l’augmenter lorsque les marchés sont en haut de
cycle quand la probabilité de baisse est importante. Ainsi pour les actions globales, le choc
actions est ajusté de +/-10% c’est à dire de 29% à 49% et pour les actions autres de 39% à
59% et ceci en fonction de la position dans le cycle. A partir de décembre 2014, cet ajustement
est calculé avec un indice action proposé par l’EIOPA (European Insurance and Occupational
Pensions Authority crée en 2010). Le mécanisme de dampener est calculé en fonction de
la distance de cet indice action à sa moyenne mobile sur 3 ans. Son mode de calcul est
donné dans l’article 172 de la commission de régulation déléguée. L’EIOPA a développé une
implémentation technique standard (ITS) et a publié un rapport final no 14/058 concernant
l’ITS relative à cet ajustement pour le SCR action. L’indice action proposé est destiné à
mesurer le prix de marché d’un portefeuille action diversifié qui est représentatif de la nature
des actions généralement détenues par les compagnies d’assurance et de réassurance. Il est
basé sur une moyenne pondérée des indices boursiers dans lesquels les assureurs européens
investissent.
Les intervenants du marché de l’assurance craignent que cette moyenne pondérée puisse
ne pas être représentative de la répartition des actions par les compagnies dans les différents
pays de l’UE et donc proposent l’utilisation d’un indice d’actions distinct pour chaque pays
de l’UE. Mais en accord avec l’article 106 de la directive 2009/138, l’ajustement symétrique
22 INTRODUCTION
Notre idée dans ce mémoire est d’évaluer le choc action dans le cadre d’une modélisation
interne du risque. Les rendements journaliers des actions sont souvent caractérisés par un
fait stylisé connu par la volatility clustering. En effet, les périodes de forte volatilité alternent
avec les périodes de faible volatilité. Plusieurs modèles sont utilisés pour analyser et prévoir
la volatilité dans ce cadre. La modélisation GARCH (Generalized Autoregressive Conditio-
nal Heteroscedasticity) est devenue un outil incontournable en finance pour la modélisation
des séries financières. Dans ce mémoire on propose de modéliser les rendements journa-
liers des indices boursiers par plusieurs modèles à variance conditionnelle dont les modèles :
GARCH(1,1), EGARCH(1,1), AR(1)-GARCH(1,1) et le modèle AR(1)-EGARCH(1,1). De
plus on propose de modéliser les extrêmes par un modèle Generalized Pareto Distribution
(GPD) tout en combinant cette modélisation avec une modélisation à variance condition-
nelle. Une fois les séries modélisées, on calcul la VaR(α) annuelle du portefeuille. Le choc
action sera évalué pour les différentes pondérations des indices composants le portefeuille
optimisé selon les critères d’optimisation considérés dans ce mémoire.
Ce mémoire est composé de deux parties. Dans la première partie on commence par une
description détaillé de quelques notions utiles. En particulier on présente la notion de ren-
dement, les mesure de risque VaR et CVaR, la VaR d’un portefeuille. De plus on expose les
modèles à variance conditionnelle pour la modélisation des séries des rendements ainsi que
le principe d’une modélisation par la théorie des valeurs extrêmes. Par la suite on expose
les différents modèles d’optimisation de portefeuille considérés dans notre étude. Ensuite on
explique le fondement du choc action et de l’ajustement symétrique sous Solvabilité II.
Dans la deuxième partie on s’intéresse à notre étude empirique en commençant par la descrip-
tion des données. Puis on applique les modèles d’optimisation à deux fonds d’investissement
en action. Par la suite on détermine le choc action en se fondant sur la mesure de risque
VaR à 99.5% et on termine cette partie par la proposition d’un modèle pour le calcul de la
probabilité d’avoir un ajustement d’un niveau κ.
Première partie
Partie Théorique
23
24
Chapitre 1
La première attention des investisseurs porte sur l’analyse des données relatives aux titres
financiers. Certainement, les données auxquelles les investisseurs ont accès sont les historiques
des prix. Mais, le résultat futur des décisions d’investissement prises aujourd’hui dépend des
niveaux futurs des prix qui sont incertain. Il est donc nécessaire d’analyser cette incertitude
à travers l’étude des caractéristiques des séries passées qui sont observées. Ceci nous aidera
à une meilleure compréhension du comportement des prix, une bonne quantification des
risques et à proposer un modèle efficace pour l’évolution des prix pour assurer une prévision
rigoureuse des résultats futurs.
25
26 CHAPITRE 1. NOTIONS UTILES
Il y a deux approches pour calculer les rendements des titres financiers. Les praticiens
utilisent généralement les rendements discrets dit arithmétiques qui reflètent le vrai change-
ment relatif des prix et qui sont utilisés pour mesurer la performance des titres. Alors que
les chercheurs utilisent plutôt les rendements continus qui représentent une approximation
convenable pour des investigations empiriques ou analytiques. Soit Pt et Pt−1 les prix des
actifs à la fin de la période t et t − 1, respectivement. Sans prise en compte des dividendes,
le rendement arithmétique durant la période [t − 1, t], noté par Rt est donné par
Pt − Pt−1
Rt = ,
Pt−1
et le rendement géométrique, dit aussi la log-rentabilité ou rendement continu, est donné par
Pt
rt = ln(Pt ) − ln(Pt−1 ) = ln( ) = ln(Rt + 1),
Pt−1
Lorsque le pas de temps est petit ou lorsque la rentabilité est proche de zéro, les rendements
discrets peuvent être approximés par des rendements continus i.e.
rt = ln(1 + Rt ) ≈ Rt .
L’utilisation des observations du passé pour modéliser les réalisations du futur est fondée
sur la principale idée que certaines propriétés de ce processus aléatoire demeurent constantes
dans le temps, on parle ici de la notion statistique de stationnarité. Ceci signifie que le
processus générant les prix reste invariable d’une période à l’autre. Une autre notion fonda-
mentale dans l’analyse des séries financières est l’autocorrélation des données qui décrit
la manière avec laquelle une observation dépend des réalisations passées. L’analyse directe
des séries de prix se révèle difficile car elles ne sont pas stationnaires et exhibent une forte
corrélation. Les séries des rentabilités ont en général de meilleures propriétés statistiques.
C’est pour ces raisons que l’analyse empirique porte généralement sur le processus des ren-
dements et non pas sur le prix des titres.
1.1. RENDEMENTS FINANCIERS 27
Dans ce qui suit on présente quelques phénomènes caractérisant les séries des rendements
financiers.
1. A court terme, les rendements oscillent autour de zéro ceci, n’est pas le cas à long
terme.
2. La moyenne est nettement plus petite que la volatilité. Par conséquent une simple
connaissance de la moyenne ne permet pas de prédire avec précision le rendement
futur.
3. Mandelbrot (1963) a montré que la distribution des rendements n’est pas normale
puisque les queues de distribution sont caractérisés par des queues épaisses. Depuis, un
nombre important de modélisation a été proposé. L’identification des queues épaisses
peut se faire à travers le moment d’ordre 4 normalisé ou encore le Kurtosis. Pour
une distribution normale, le Kurtosis est égal à 3, si le Kurtosis est supérieur à 3, la
distribution est dite leptokurtique.
4. Une autre caractéristiques des séries de rendements est la présence d’asymétrie négative
qui se traduit par une proportion de rendements extrêmes négatifs qui est plus élevée
que celle de rendements extrêmes positifs : il y a plus de mouvement fort à la baisse
que à la hausse.
5. Le clustering de volatilité selon lequel des périodes de forte volatilité alternent avec des
périodes de faible volatilité. Les grands rendements (positifs ou négatifs) ont tendance
à se suivre, et les petits rendements également. La volatilité se produit ainsi en grappe
et les extrêmes sont regroupés en cluster ou paquets de volatilité.
6. Le processus du prix des actifs financiers est généralement non stationnaire au sens
faible (ou au second ordre) alors que le processus des séries de rendements est station-
naire.
7. Auto-corrélation des carrés des rendements : cela se traduit par une fonction d’au-
tocorrélation (ACF) des carrés des rendements qui décroı̂t lentement à partir d’une
valeur faible mais positive. Cette forme typique de l’ACF est plus prononcée pour une
fréquence élevée que faible. Cette propriété implique que la volatilité est prévisible
dans une certaine mesure (ce qui n’est pas le cas pour les rendements). Mandelbrot
(1963) indique que les grands changements sont suivis par des grands changements
28 CHAPITRE 1. NOTIONS UTILES
d’autres signes et les petits changements sont suivis par des petits changements. Ce
fait stylisé est connu par le phénomène de mémoire longue dans les séries de rende-
ments. Ce fait stylisé est important puisqu’il montre que les incréments des prix ne
sont pas indépendamment distribués. On note que pour la série des rendements les
autocorrélations sont généralement très faibles.
8. La baisse des cours a tendance à engendrer une augmentation de la volatilité supérieure
à celle engendrée par une hausse des cours, c’est ce qu’on appelle l’effet de levier.
9. Les rendements présentent de nombreux phénomènes de saisonnalité on cite l’effet
week-end étudié par French (1980) et Gibbon et Hess (1981) et l’effet de premier
janvier par exemples.
La gestion des risques en finance et en assurance vise à quantifier et à contrôler le risque lié
à la variabilité de leurs activités. On s’intéresse à deux mesures de risques qui sont largement
utilisées par les institutions financières et d’assurance. Ces deux mesures sont la Value-at-
Risk (VaR) qui a été introduite dans la banque JP Morgan en 1990 et la Tail-Value-At-Risk
qui est égale à la Conditional Value at Risk dans le cas continu (CVaR).
1. VaR et risque en assurance : Suite au dispositif prudentiel Bâle-II qui est destiné
à mieux appréhender les risques bancaires, la Value-at-Risk, qui est une mesure de
risque de type DownSide Risk a eu un grand développement dans les problématiques
de gestion des risques des institutions d’assurances et est devenue une mesure de risque
de référence dans le nouveau référentiel prudentiel Solvabilité-II.
Soit X une variable aléatoire représentant le risque assuré par une compagnie d’as-
surance et soit (1 − α) ∈ [0, 1] le niveau de risque par rapport auquel on souhaite
déterminer la perte potentielle (on note que α généralement proche de 1 est appelé le
seuil de confiance). La Value-at-Risk (VaR) au niveau de confiance α associée au risque
X est donnée par :
VaRα (X) = FX−1 (α) = inf {x ∈ R; P(X > x) ≤ (1 − α)} = inf {x ∈ R; P(X ≤ x) ≥ α} .
2. VaR et rendements financiers : La Value-At-Risk est très utilisée dans les institutions
financières et représente la perte potentielle maximale que peut subir un portefeuille à
un niveau de risque α sur un horizon fixé.
En d’autres termes, P(X ≥ VaRα ) = α. La VaRα est la perte maximale pouvant être
constatée en un jour dans les α cas les plus favorables ou encore c’est la moindre perte
pouvant être constatée en un jour dans les (1 − α) cas défavorables.
L’inconvénient de la VaR est qu’elle n’est pas une mesure cohérente du risque au sens de
Artzner et al. (1999). En effet elle, n’est pas une mesure sous additive du risque c’est à dire
si on considère deux risques X et Y alors pour tout α ∈]0, 1[ on peut avoir :
La TVaR a l’avantage de prendre en compte les valeurs d’une variable aléatoire au-delà de
la VaR. La Tail Value-at-Risk de niveau α associée au risque X est donnée par :
1 Z 1 −1
T V aRα (X) = F (u)du
1−α α
ou encore
1
T V aRα (X) = VaRα (X) + E[(X − VaRα (X))+ ].
1−α
La quantité E[(X − VaRα (X))+ ] est l’excpected shortfall de niveau de probabilité α est la
perte moyenne au -delà de la VaR au niveau α. Si X représente la charge brute de réassurance
alors E[(X − VaRα (X))+ ] correspond à la prime Stop-Loss pour un niveau de rétention égal
à VaRα (X).
30 CHAPITRE 1. NOTIONS UTILES
La CVaR de niveau α est le montant de la perte moyenne sachant que celle-ci dépasse la
VaR au niveau α :
CVaRα (X) = E[X|X > VaRα ].
La VaR Variance-Covariance est utilisée dans le cadre de calcul de la VaR d’un porte-
feuille composé de plusieurs actifs financiers corrélés ou non. Elle est fondée sur l’hypothèse
de normalité des rendements. Soit ξ = (ξ1 , . . . , ξn ) : les rendements générés par les n titres
L
durant une période donnée. On suppose que ξ → N (µ, w0 Σw) avec µ le vecteur des rende-
ments espérés des titres, Σ la matrice variance-covariance des rendements et w le vecteur des
proportions investies dans chaque titre i = (1, . . . , n). Cette méthode utilise les informations
liées à la volatilité et à la corrélation des titres pour calculer la variance du portefeuille. La
volatilité d’un titre mesure le dégré avec lequel les fluctuations des prix sont apparues dans le
passé et sont susceptibles d’apparaı̂tre dans le futur. La corrélation est une mesure du degré
avec lequel le prix d’un titre est relié au prix d’un autre titre. Soit α un seuil de confiance
fixé. Ce seuil correspond à 99.5% sous Solvabilité II. Dans ce cadre la VaRα est donnée par
l’expression suivante :
où Z(1−α) est le√quantile d’ordre (1 − α) de la loi Normale, µp le rendement espéré du porte-
feuille et σp = w0 Σw l’écart-type du portefeuille de composition w. Falloul (2015) présente
d’une manière bien détaillée l’utilisation de cette méthode dans le calcul de VaR d’un porte-
feuille diversifié composé de plusieurs titres. La méthode Variance-Covariance pour le calcul
de la VaR est devenue populaire après que le groupe de gestion des risques J.P. Morgan a
1.3. MÉTHODES DE CALCUL DE LA VAR 31
publié un système open source appelé RiskMetrics en 1994. L’inconvénient de cette méthode
est qu’elle est fondée sur l’hypothèse de normalité des distributions des rendements qui n’est
pas réaliste.
Il existe une relation entre la VaR à un jour et la VaR à N jours. En effet si les pertes
quotidiennes suivent une loi normale, alors on considère que la VaR à N jours est égale à la
racine carré de N multipliée par la VaR à un jour.
Dans cette méthode on utilise les données historiques. La VaR−HS est basée sur une
hypothèse assez forte, à savoir celle de distributions i.i.d (indépendantes et identiquement
distribuées). Dans cette méthode on suppose que la distribution conditionnelle des rentabi-
lités futures est invariante et peut être simulée par les rentabilités passées (c’est l’hypothèse
de stationnarité des rendements). Par conséquent, la VaR est estimée par le quantile empi-
rique. Selon cette approche, le calcul de la VaR−HS à un niveau α se ramène au calcul du
quantile empirique d’ordre α de la chronique des rentabilités passées sur une fenêtre de taille
T . Par exemple, soit un portefeuille composé de plusieurs actifs, afin de calculer la VaR−
historique à un jour sur ce portefeuille il faut relever l’ensemble des rentabilités quotidiennes
réalisées sur les 1000 derniers jours (par exemple) en utilisant la composition actuelle du
portefeuille. La distribution des valeurs possibles du portefeuille est ainsi estimée. Une fois
toutes ces données obtenues, il faut les classer par ordre croissant pour extraire le quantile
correspondant à un niveau de probabilité choisi. Si l’on souhaite obtenir la VaR à 99%, il
suffit de trouver la 10ème (1000 ∗ (100% − 99%)) valeur obtenue (voir Hurlin & Tokpavi
(2008)). Les résultats de cette approche dépendent de la sélection de l’historique utilisé pour
les calculs.
1.3.3 Monte-Carlo-Simulation
Notons que si la loi des rendements est modélisée par une loi paramétrique, alors dans
ce cas la VaR peut être obtenue par la méthode de Simulation Monte Carlo. Cett méthode
garde le même principe de la simulation historique sauf qu’au lieu d’estimer la distribution
des rendements en se basant sur des scénarios passés, la simulation de Monte-Carlo utilise
des scénarios qui sont générés selon un modèle qui est extrait de l’historique des données. On
suppose que les rendements des titres sont régis par une distribution paramétrique avec des
paramètres connus. Après l’obtention de scénarios possibles pour la série des rendements à
la fin de l’horizon de temps fixé, le problème de l’obtention de la VaR est résolu de manière
similaire à l’approche de la Simulation Historique. Cette simulation est répétée plusieurs fois.
Supposons qu’on dispose d’un seul titre, alors les étapes de l’estimation selon la méthode
connue par Crude Monte Carlo Simulation (voir Holton (2003)) sont les suivantes :
32 CHAPITRE 1. NOTIONS UTILES
tels que C est la matrice de corrélation des n titres et VaRi , pour n’importe quel titre i du
portefeuille, est obtenu selon la procédure précédente. Notons que lorsque les rendements
sont supposés suivre une distribution normale, alors VaRi = µi − Zα σi , pour chaque titre i,
ainsi si on veut déterminer une VaR journalière, alors µi peut être approximer par zéro, et
on a : q
VaRpα = −Zα (σ1 , . . . , σn )C(σ1 , . . . , σn )0 .
Par exemple dans le cas où n = 2 on a
q
VaRpα = −Zα σ12 + σ22 + 2ρσ1 σ2 .
Il est nécessaire de tester la validité d’une prévision de la VaR en mettant en place une
procédure de backtesting des modèles estimés.
Notons qu’un test de validation des modèles de VaR doit être de type model free, c’est-
à-dire s’applique à n’importe quelle prévision de VaR provenant de n’importe quel modèle.
Pour tester la validité de la prévision de la VaR, on compare sa réalisation ex-post à la
valeur prédite ex-ante. La comparaison entre plusieurs modèles de prévision de laVaR peut
se faire via le critère Mean Squared Error (MSE) qu est fondé sur l’écart entre la vrai valeur
réalisée et la valeur prédite ou via les critères d’information standards (AIC, BIC etc.). La
réalisation ex-post de la VaR n’est pas observable. Pour celà la validation de la VaR se fait
par des tests sur le processus de violation de la VaR.
On note rt la rentabilité d’un actif ou d’un portefeuille d’actifs à la date t. La valeur ex-ante
1.3. MÉTHODES DE CALCUL DE LA VAR 33
Selon Christoffersen (1998) une prévision de VaR est valide sur une période T si et seule-
ment si la séquence des violations {It (β)}Tt=1 satisfait les deux hypothèses de couverture non
conditionnelle (UC) et d’indépendance (IND). Ces deux tests peuvent être regroupés dans
un seul test qui est celui de la couverture conditionnelle (CC). Selon l’hypothèse (UC) la pro-
babilité que se réalise ex-post une perte (rt ) en excès de la VaR anticipée ex-ante (VaRt|(t−1) )
doit précisément être égale au taux de couverture β, en d’autre terme E(It (β)) = β. Selon
l’hypothèse (IND), les violations de la VaR pour un même taux de couverture à deux dates
différentes doivent être indépendamment distribuées. La couverture conditionnelle (CC) ca-
ractérise la situation où la VaR satisfait les deux hypothèses précédentes. Hurlin & Tokpavi
(2008) donnent une description bien détaillée de ces tests.
Pour choisir le modèle le plus adéquat pour la prévision de la VaR parmi plusieurs
modèles concurrents, on procède à l’évaluation de la fonction de perte proposée par Sarma
et al. (2003) et ceci pour les modèles validés par les tests précédents.
On combine cette fonction de perte avec le test de Diebold-Mariano (DM) (1995) pour
déterminer si un modèle prédit mieux qu’un autre modèle. Soit deux modèles de prédictions
A et B d’erreurs de prédiction respectives LFtA (α) et LFtB (α). On veut tester l’hypothèse
nulle suivante
H0 : E(LFtA (α)) = E(LFtB (α))
contre l’hypothèse alternative
H0 : E(dt ) = 0.
d¯
Soit d = (d1 , . . . , dT ). La statistique du test est donnée par DM S = √ . Sous H0 ,
T ∗var(d)
DM S suit une normale centrée réduite. On rejette H0 au seuil de 5% si DM S < −1.645
La théorie des valeurs extrêmes est très développée pour la modélisation des séries indivi-
duelles des titres financiers. Elle est fondée sur l’une de ces deux catégories : la modélisation
du maximum en utilisant la distribution generalized extreme values (GEV) ou la modélisation
des excès au-delà d’un seuil en utilisant la distribution Pareto généralisée (voir Embrechts,
Klüppelberg, et Mikosch, 1997 pour plus de détail sur la théorie des valeurs extrêmes.)
La modélisation des excès au-delà d’un seuil peak over threshold (POT) consiste à ajuster
la distribution que suit une variable aléatoire (v.a.) conditionnellement au fait que sa valeur
observée dépasse un niveau u appelé seuil des extrêmes. Soit X une v.a. de loi F alors
F (y + u) − F(u)
Fu (y) = P(X − u ≤ y|X > u) = ,
1 − F (u)
où on appelle excès au-delà du seuil la quantité y = x − u. La méthode POT est fondée sur
le théorème fondamental de Balkema-de-Haan en (1974) et Pickands en (1975) qui identifie
la distribution de la Pareto généralisée comme la distribution limite de la distribution des
excès. Si Y est de distribution Pareto généralisée Gξ,β(u) (y) alors la fonction de répartition
de Y est donnée par
1 − [1 + ξ y ]−1/ξ , ξ 6= 0
β(u)
Gξ,β(u) (y) = −y/β(u)
(1.4)
1 − exp ξ=0
avec β(u) > 0 dépend de u et est appelé paramètre d’échelle et ξ est le paramètre de forme
qui ne dépend pas de u. L’estimateur du paramètre ξ permet d’identifier à quelle famille de
loi appartient la fonction de distribution G. En effet, si ξ > 0 alors G appartient au domaine
d’attraction de la loi de Fréchet telle que la distribution de Pareto et caractérise les séries à
queues épaisses. L’estimation de la loi Pareto nécessite au préalable de sélectionner un seuil
optimal à partir duquel on considère les excès comme des variables GPD. Pour sélectionner
ce seuil, on procède en deux étapes. La première étape exploite les graphiques de la fonction
moyenne des excès (mean excess) pour déterminer un seuil admissible à partir duquel la
fonction change de pente et devient linéaire.
1.5. LES MODÈLES DES SÉRIES TEMPORELLES À VARIANCE CONDITIONNELLE35
La fonction moyenne des excès correspond à une fonction affine de u lorsque la distribution
est caractérisée par une GPD au-delà du seuil u. On peut donc approcher visuellement à
partir de quel seuil u le graphique de la fonction moyenne des excès devient un droite affine
de u. Ainsi pour une GPD l’espérance conditionnelle des excès est une fonction affine de u
si ξ 6= 0 et une constante si ξ = 0. La fonction moyenne des excès empirique se calcul de la
manière suivante comme indiqué dans Gilli et al. (2006) :
Nu
1 X
e(u) = (xi − u)+
Nu i=1
avec Nu le nombre des excès par rapport à u. En pratique, on trace cette fonction pour
différents seuils et on détermine le seuil à partir duquel la fonction d’excès moyen devient
linéaire.
Dans ce qui suit on présente quelques modèles de type GARCH qui sont très utilisés
pour modéliser la volatilité conditionnelle des séries des rendements d’actifs. Ces modèles
permettent d’expliquer les changements dans la variance conditionnelle et sont connus par
des modèles avec hétérocédasticité conditionnelle. Les modèles de volatilité souvent utilisés
sont les modèles autorégressifs avec hétéroscedasticité conditionnelle développés par Engle
(1982) connus par les modèles ARCH, les modèles ARCH généralisés connus par les modèles
de type GARCH de Bollerslev (1982), les modèles GARCH asymétriques comme le modèle
exponentiel GARCH (EGARCH) de Nelson (1991) et le modèle GJR-GARCH de Glosten
(1993), (voir Gourieroux (1992) pour plus de détails sur ces modèles).
1.5.1 ARCH(q)
t = σt Zt , (1.5)
et q
σt2 αi 2t−i ,
X
V ar(t |t−1 ) = = α0 + (1.6)
i=1
avec
36 CHAPITRE 1. NOTIONS UTILES
Xt = µ + ρXt−1 + t
avec q
t = Zt . α0 + α1 2t−1 ,
où |ρ| < 1.
1.5.2 GARCH(p,q)
Bollerslev (1986) a proposé un modèle plus efficient que le modèle ARCH : c’est le modèle
autorégressif avec hétéroscedasticité conditionnelle généralisée (GARCH(p,q)). Le modèle
général, GARCH(p,q) est donné par :
q p
σt2 = α0 + αi 2t−i + 2
X X
βi σt−i ,
i=1 i=1
telle que, αi ≥ 0 pour tout q ≥ 1 et βi ≥ 0 pour tout p ≥ 1 pour assurer une variance
positive satisfaisant les équations (1.5) et (1.6). Le modèle AR(1) − GARCH(1, 1) est un
modèle souvent utilisé pour modéliser les série financières, il s’écrit de la manière suivante :
Xt = µ + ρXt−1 + t
avec
t = σt Zt ,
où
σt2 = α0 + α1 2t−1 + β1 σt−1
2
.
Le modèle est une version générale du modèle ARCH dans le sens ou la variance condition-
nelle σt2 , est une fonction linéaire des variances conditionnelles passées et des innovations
carrées du processus.
1.5. LES MODÈLES DES SÉRIES TEMPORELLES À VARIANCE CONDITIONNELLE37
Les modèles ARCH et GARCH sont symétrique dans le sens ou les chocs (t ) positifs ou
négatifs ont le même effet sur la volatilité. Cela veut dire que le signe des innovations où
chocs n’a pas d’effet sur la volatilité conditionnelle. Ceci n’est pas adéquat avec le fait stylisé
des séries financières où les chocs négatifs tendent à avoir un impact sur la volatilité plus
grand que l’impact des chocs positifs de même amplitude.
1.5.3 EGARCH(p,q)
Le modèle GARCH exponentiel (EGARCH) a été proposé par Nelson (1991) et permet de
prendre en compte l’effet de l’asymétrie de la variance conditionnelle et ceci en permettant
d’avoir des effets différents des chocs positifs et négatifs sur la volatilité et donc sur les
rendements. Aussi il permet aux grands chocs d’avoir un impact plus grand sur la volatilité
que les petits chocs. Le modèle EGARCH(p,q) est définit comme suit :
q p
ln(σt2 ) 2
X X
=ω+ αi g(Zt−i ) + βi ln(σt−i ).
i=1 i=1
avec
g(Zt−i ) = γ1 Zt−i + γ2 (|Zt−i | − E|Zt−i |).
avec γ1 le paramètre qui capte l’effet de levier et γ2 le paramètre qui capte l’effet d’asymétrie
des chocs sur la variance conditionnelle. Autrement, on peut écrire
p q q
ln(σt2 ) = ω + 2
X X X
βi ln(σt−i )+ δi (|Zt−i | − E|Zt−i |) + ξi Zt−i .
i=1 i=1 i=1
1.5.4 GJR-GARCH
tel que 1t−1 est une fonction indicatrice qui prend 1 si t−1 < 0 et 0 si non.
Chapitre 2
Modèles d’Optimisation de
Portefeuille
Dans ce chapitre, on présente une description détaillée des principales méthodes d’optimisa-
tion de portefeuille qui seront utilisées dans la suite de ce mémoire.
Le problème d’un investisseur est de choisir parmi l’ensemble des allocations possibles le
portefeuille optimal selon un critère donné. Le choix du critère de sélection de portefeuille
peut avoir un effet important sur la composition du portefeuille optimal et donc sur le résultat
de l’allocation. Les modèles de sélection de portefeuille ont fait l’objet de nombreuses études
dans la littérature financière.
39
40 CHAPITRE 2. MODÈLES D’OPTIMISATION DE PORTEFEUILLE
Lorsque la fonction d’utilité est concave, l’agent est dans ce cas averse au risque. Si la
fonction d’utilité est convexe alors l’agent est preneur de risque, si non si la fonction d’utilité
est linéaire alors l’agent est neutre au risque.
Notons qu’on se basant sur le développement des séries de Taylor, la fonction de l’utilité
espérée peut être approximée en fonction des moments d’ordre centrés. Ce résultat permet
de résoudre le problème de sélection de portefeuille en tenant compte des moments d’ordre
supérieur à deux.
min f0 (x)
x
Le problème d’optimisation (2.2) est dit linéaire si la fonction objective ainsi que les
contraintes sont linéaires c’est à dire satisfont ∀i ∈ (1 . . . , m)
pour tout x, y ∈ Rn et α, β ∈ R.
2.3. MODÈLE CLASSIQUE DE MARKOWITZ 41
Un programme d’optimisation est dit convexe si la fonction objective ainsi que les contraintes
sont convexes c’est à dire satisfont ∀i ∈ (1 . . . , m)
pour tout x, y ∈ Rn et α, β ≥ 0 tel que α + β = 1. On note que la convexité est plus générale
que la linéarité. En effet, tout programme linéaire est un programme convexe.
The process of selecting a portfolio may be divided in two stages. The first stage starts
with observation and experience and ends with beliefs about the future performances of avai-
lable securities. The second stage starts with the relevant beliefs about future performances
and ends with the choice of portfolio. Harry Markowitz
Le critère moyenne variance de Markowitz est logique dans deux cas : la maximisation
de l’utilité espérée sous certaines suppositions ou sous l’hypothèse de la normalité conjointe
de la distribution. En effet, selon Markowitz, l’analyse de la sélection de portefeuille peut
être formalisée comme un problème d’optimisation d’une fonction d’utilité quadratique ∗ .
Dans ce cas l’espérance de l’utilité de la richesse finale dépend uniquement de l’espérance de
la richesse et de l’écart-type. Selon cette analyse, Markowitz argumente que l’objectif d’un
investisseur rationnel est la construction d’un portefeuille qui offre le rendement le plus élevé
possible pour un niveau de risque donné, ou le risque le plus faible possible pour un niveau
de rendement désiré.
∗. Soit W le niveau de la richesse finale. La fonction d’utilité quadratique est donnée par U (W ) =
W − 2b W 2 avec b > 0. Cette fonction d’utilité décrit l’attitude d’un investisseur averse au risque
42 CHAPITRE 2. MODÈLES D’OPTIMISATION DE PORTEFEUILLE
2.3.1 Notations
Soient
— W0 = 1 le niveau de richesse initiale qu’un agent décide d’investir dans un marché
financier sur un horizon de temps T . On se place tout au long de ce mémoire sur un
modèle simple à une seule période.
— R = (R1 , . . . , Rn ) : les rendements générés par les n titres durant une période donnée.
Ces rendements sont inconnus au moment de l’allocation de portefeuille et sont traités
comme des variables aléatoires.
— µ = (µ1 , . . . , µn )0 = E(R) le vecteur des espérances des rendements.
— Σ la matrice carrée de variance covariance.
— x = (x1 , . . . , xn ) : le vecteur des proportions investies dans chaque titre qui représentent
les variables de décision de l’investisseur tel que xi est le pourcentage de la richesse
investie dans l’actif risqué i.
— e = (1, . . . , 1) est le vecteur unité de dimension n.
— La contrainte x ≥ 0 signifie que la vente à découvert n’est pas autorisée.
— x0 e = 1 définie la contrainte de budget.
— x0 µ = E(Rp ) = µp le rendement espéré du portefeuille à la fin de la période d’observa-
tion.
— x0 R = Rp la variable aléatoire, le rendement du portefeuille à la fin de la période
d’observation considérée.
— σp2 = x0 Σx la variance du portefeuille.
Remarque 2.1. La rentabilité d’un portefeuille ne dépend pas de la richesse initiale, mais
uniquement de l’allocation x. Pour cette raison on peut prendre W0 = 1 sans perte de
généralité.
Remarque 2.2. On suppose, dans ce qui suit, que la vente à découvert des titres risqués
n’est pas autorisée, que les actifs sont parfaitement divisibles et qu’ils ne sont soumis à aucun
coûts de transaction ni à aucune taxe.
x0 e = 1
S.C. x0 ≥ 0
0
x µ = µp
Ce programme est très utile pour les investisseurs qui ne veulent pas dépasser un degré de
risque toléré.
En pratique, λ est calibré de manière qu’un portefeuille particulier présente le profil de risque
accepté par l’investisseur. Plus λ est élevé plus l’investisseur est averse au risque.
Le critère moyenne-variance permet à l’investisseur de déterminer le meilleur couple rendement-
risque tout en tenant compte son degré d’aversion au risque. Les résultats obtenus se-
lon le critère de la maximisation directe de l’espérance de l’utilité avec ceux du critère
moyenne-variance sont presque les mêmes sous l’hypothèse de normalité des rendements ou
encore lorsque la fonction de l’utilité de l’investisseur est quadratique. En effet, dans ce cas,
l’espérance de l’utilité de la richesse finale s’écrit uniquement en fonction des deux premiers
moments, à savoir la moyenne et la variance.
valeurs extrêmes positives avec des probabilités plus élevées que celle d’avoir des valeurs
extrêmes négatives. Notons que le critère de choix qui se base uniquement sur l’Ecart-Type
comme mesure de risque n’est pas bien adapté puisqu’il pénalise autant les bonnes variations
que les mauvaises. De plus, l’argument principal en faveur de cette mesure de risque repose
sur la normalité de la distribution des rendements, ce qui ne correspond pas à la réalité des
distributions financières. On cite par exemple Chunhachinda et al. (1997) qui ont prouvé que
les rendements de leur échantillon, composé de 14 titres boursiers internationaux n’étaient
pas distribués selon une loi normale.
Souvent les distributions empiriques des rendements présentent des queux épaisses et
aussi de l’asymétrie, de ce fait l’existence du skewness, du kurtosis et des autocorrélations
entre les titres semble être une évidence des distributions des rendements. Une autre hy-
pothèse simplificatrice sur laquelle est fondée le critère moyenne-variance est que la fonction
d’utilité est quadratique puisque seuls les deux premiers moments sont pris en considération
dans le programme d’optimisation. Plusieurs auteurs dont Lai (1991), Jondeau & Rockinger
(2006) Mhiri & Prigent (2010) ont montré que les moments d’ordre élevé ne peuvent pas
être négligés dans le choix de portefeuille. Pour une bibliographie plus riche sur ce sujet voir
la thèse de Ben Salah (2015).
Pour une distribution donnée, le skewness et le kurtosis sont deux indices de forme.
suivante :
M 3 (X)
S 0 (X) = ,
σ 3 (X)
avec
M 3 (X) = E(X − E(X))3 .
Notons qu’un skewness non standardisé (non normalisé) peut être défini par le moment
centré d’ordre 3 et sera noté S(X).
M 4 (X)
K 0 (X) = ,
σ 4 (X)
avec
M 4 (X) = E(X − E(X))4 .
Notons qu’un kurtosis non standardisé (non normalisé) est donné par le moment centré
d’ordre 4 et sera noté K(X).
Des études faites par Lux (1996), Levy (1969) et plusieurs autres ont montré que la
plupart des séries financières ne sont pas normales et présentent des queues épaisses. De ce
fait, nous nous intéresserons à prendre en considération les préférences de l’investisseur en
ce qui concerne ces faits par l’incorporation du kurtosis dans les programmes de choix de
portefeuille.
46 CHAPITRE 2. MODÈLES D’OPTIMISATION DE PORTEFEUILLE
Cette méthode est aussi connue par la méthode de l’expansion du critère de la maximi-
sation de l’utilité espérée en incorporant les moments d’ordre élevés. Elle consiste à utili-
ser une expansion en série de Taylor pour déduire l’approximation de la fonction d’utilité
espérée. Müller & Machina (1987) ont trouvé, pour la maximisation de l’utilité espérée, une
équivalence entre les préférences à n moments et l’utilité polynomiale à n degrés. Jondeau
& Rockinger (2006) ont proposé de résoudre le programme de la maximisation de utilité
espérée en incorporant les moments d’ordre élevé en utilisant le développement des séries de
Taylor qui permet d’écrire l’utilité de la richesse finale en fonction des moments centrés. En
effet, il a été montré que la fonction de l’utilité espérée peut être approximée en fonction des
moments d’ordre centrés. Supposons qu’un investisseur désire allouer son portefeuille entre
n titres risqués tel que son but est de maximiser l’utilité espérée de sa richesse finale.
Il est important de noter que l’approximation de l’utilité espérée par les séries de Taylor
est reliée aux préférences de l’investisseur vis-à-vis de tous les moments de la distribution de
la richesse finale. Ces préférences sont données directement par les dérivées de la fonction
d’utilité. On se contente généralement d’approximer l’utilité espérée pour un certain ordre
de développement donné k. En particulier, lorsque k = 2, le moment centré est dit d’ordre
2.4. MODÈLES INCORPORANT LES MOMENTS D’ORDRE ÉLEVÉ 47
Plus généralement, lorsque la fonction d’utilité est décrite par une fonction polynomiale
d’ordre n, alors la maximisation de cette fonction d’utilité, en utilisant le développement des
séries de Taylor au niveau n, donne la même solution que celle obtenue par la maximisa-
tion directe de l’espérance de l’utilité. En effet, lorsque la fonction d’utilité est quadratique
(polynôme d’ordre 2), les résultats d’allocation de portefeuille obtenus par la maximisation
directe de l’utilité espérée sont les mêmes que ceux obtenus par le critère standard moyenne-
variance, c’est-à-dire lorsque le niveau de développement des séries de Taylor est k = 2.
Mais a priori, on ne peut pas déterminer à quel ordre les séries de Taylor doivent être
développées et il existe des conditions qui permettent de restreindre les préférences des
investisseurs aux quatre premiers moments de la distribution des rendements des titres fi-
nanciers. Une de ces conditions consiste à supposer que la fonction d’utilité de l’investisseur
appartient à la classe des fonctions satisfaisant les propriétés suivantes :
où U (i)(W ) est la dérivée d’ordre i de U (W ) pour i ∈ 1, . . . , 4. Une deuxième condition est
intuitive et consiste à supposer que les rentabilités des titres suivent des distributions de
probabilités dont les quatre premiers moments existent.
Dans le cas où les distributions étudiées sont asymétriques, le critère moyenne-variance
doit être amélioré en tenant compte du skewness lors du choix du portefeuille optimal,
puisque le degré de positivité du skewness peut mieux nous renseigner sur les préférences de
l’investisseur. Le critère de choix d’un portefeuille optimal Moyenne-Variance-Skewness peut
être résolu sous la forme d’un programme d’optimisation triple-objectif sous contraintes, dans
lequel l’investisseur doit, d’un côté, maximiser le rendement espéré et le skewness et d’un
autre côté, minimiser la variance. En général, un investisseur averse au risque et rationnel
préfère, d’une part, avoir une distribution des rendements peu dispersée par rapport à la
moyenne, et par conséquent, il cherche à minimiser la variance de son portefeuille. D’autre
part, il préfère avoir une distribution des rendements dans laquelle la probabilité d’avoir
des gains est plus élevée que celle d’avoir des pertes. C’est pour cette raison, qu’il préfère,
donc, avoir un skewness positif plutôt qu’un skewness négatif et c’est dans ce sens que
le skewness permet de renseigner sur les préférences d’un investisseur. Pour résoudre le
programme d’allocation de portefeuille en incorporant le skewness nous devons définir la
matrice des skewness et co-skewness non normalisés M3 de dimension (n, n2 ). Soit
où ⊗ et le produit kroneker et si,j,k est le co-skewness entre les titres i, j et k donné par
Si i = j = k, alors dans se cas si,j,k correspond au skewness non normalisé. Par exemple si
n = 3 alors la matrice M3 de dimension (3, 9) est donnée par :
s111 s112 s113 s211 s212 s213 s311 s312 s313
M3 = s121 s122 s123 s221 s222 s223 s321 s322 s323
= [S1jk S2jk S3jk ]
s131 s132 s133 s231 s232 s233 s331 s332 s333
1
E(U (W )) = U (W̄ ) + U (1) (W̄ )E[(W − W̄ )] + U (2) (W̄ )E[(W − W̄ )2 ]
2 (2.7)
1 (3)
+ U (W̄ )E[(W − W̄ )3 ] + O(W 3 )
3!
avec
E(W ) = W̄ = x0 µ = µp
σ2 = E[(W − W̄ )2 ] = E[(Rp − µp )2 ]
p
(2.8)
Sp = E[(W − W̄ )3 ] = E[(Rp − µp )3 ]
en incorporant le kurtosis nous devons définir la matrice des kurtosis et co-kurtosis non
normalisés M4 de dimension (n, n3 ). Soit
— Minimiser la variance.
— Maximiser le skewness.
— Minimiser le kurtosis.
1
E(U (W )) = U (W̄ ) + U (1) (W̄ )E[(W − W̄ )] + U (2) (W̄ )E[(W − W̄ )2 ]
2 (2.12)
1 (3) 1 (4)
+ U (W̄ )E[(W − W̄ ) ] + U (W̄ )E[(W − W̄ )4 ] + O(W 4 )
3
3! 4!
Ainsi l’utilité espérée est approximée par
1 1 1
E(U (W )) ≈ U (W̄ ) + U (2) (W̄ )σp2 + U (3) (W̄ )Sp + U (4) (W̄ )Kp , (2.13)
2 3! 4!
avec
Kp = E[(W − W̄ )4 ] = E[(Rp − µp )4 ]. (2.14)
cohérence de la VaR ce qui rend le problème d’optimisation difficile. Pour cela une autre ap-
proche d’optimisation de portefeuille développée par Uryasev (2000) et fondée sur la CVaR
a connu un grand succès. Le problème de la minimisation de la CVaR est lié directement au
problème de la minimisation de la VaR (voir définition de ces deux mesures). Dans l’article
Gaivoronski & Pflug (2005) les auteurs donnent une méthode pour trouver le portefeuille
qui minimise la VaR parmi l’ensemble des portefeuilles ayant un taux de rendement espéré
supérieur à un certain seuil. De plus, les auteurs présentent une comparaison, en terme de
frontière efficiente, des résultats et propriétés d’optimisation VaR, CVaR et variance dans
un contexte de sélection de portefeuille. Voir aussi le travail de Sarykalin et al. (2008) pour
une illustration avec des exemples de la différence entre l’optimisation avec la VaR comme
mesure de risque et celle avec la CVaR. Notons que Wang (2000) a prouvé que la frontière
efficiente moyenne-variance n’est pas égale à la frontière efficiente moyenne-VaR et que les
deux frontière sont de structures différentes. Une description simple de l’optimisation de
portefeuille en minimisant la CVaR et du calcul de la VaR est donnée dans Uryasev (2000).
Plusieurs autres études donnent une comparaison entre l’approche classique de sélection de
portefeuille moyenne-variance et celle moderne moyenne-CVaR (voir e.g. Campbell et al.
(2001), Parrák et al. (2010)).
Avec
— R = (R1 , . . . , Rn ) : les rendements générés par les n titres durant une période donnée.
Ces rendements sont inconnus au moment de l’allocation de portefeuille et sont traités
comme des variables aléatoires.
— x = (x1 , . . . , xn ) : les proportions investies dans chaque titre.
— X l’ensemble des portefeuilles réalisables.
— e est le vecteur unité.
— La contrainte x ≥ 0 signifie que la vente à découvert n’est pas autorisée.
— x0 e = 1 définie la contrainte de budget.
— x0 E(R) le rendement espéré du portefeuille à la fin de la période d’observation.
— R est une mesure de risque.
Soit x0 R la variable aléatoire, le rendement du portefeuille à la fin de la période d’observation
considérée. Lorsque la mesure de risque R est l’écart-type, le programme d’optimisation
coı̈ncide avec le programme moyenne-variance.
52 CHAPITRE 2. MODÈLES D’OPTIMISATION DE PORTEFEUILLE
L’une des motivations pour utiliser la mesure de risque VaR pour l’optimisation de por-
tefeuille est liée au fait que la VaR est qualifiée de mesure de risque de baisse ou de perte
(en anglais on parle de downside risk) puisqu’elle mesure le risque au-dessous d’un seuil ou
encore le risque que le rendement actuel soit inférieur au rendement espéré. Dans ce cas la
fonction objective du Programme d’optimisation (2.16) devient :
Avec α le niveau de confiance associé au calcul de la VaR. Pour un horizon de temps T , soit
f (x, R) la variable aléatoire perte du portefeuille associée au vecteur de décision x ∈ Rn et la
variable aléatoire R ∈ Rn désignant la valeur des rendements générés par les n titres durant
la période T . Supposons que le vecteur aléatoire R a une densité de probabilité P(R). Pour
un portefeuille donné x, la probabilité que la perte ne dépasse pas un seuil β est donnée par
la fonction de distribution cumulative Ψ(x, β)telle que
Z
Ψ(x, β) = P(R)dR
f (x,R)≤β
(voir Rockafellar & Uryasev (2000), Alexander et al. (2006) pour plus de détails). La VaR
possède des propriétés indésirables puisqu’elle est non convexe (voir équation 2.3 pour une
définition des fonctions convexes) et non sous-additive. Ce qui n’est pas en concordance avec
l’effet de diversification selon lequel la diversification doit permettre de réduire le risque. Un
autre inconvénient de la VaR est qu’elle ne prend pas en compte les pertes au-delà de la
VaR. Ces faits incitent à avoir une autre mesure de risque qui a des propriétés mathématiques
désirables. La CVaR est une mesure concurrente.
Un programme d’optimisation convexe a été proposé Rockafellar & Uryasev (2000) pour
calculer le portefeuille optimal selon le critère CVaR. Les auteurs ont montré que la CVaR
a des propriétés intéressantes telle que la caractéristique de convexité (voir e.g. Ogryczak &
Ruszczyński (2002) et Gaivoronski & Pflug (2005) pour un aperçu détaillé sur la CVaR). De
plus, il est intéressant de noter que la minimisation de la CVaR conduit à un portefeuille
avec une VaR minimum. La mesure de risque CVaRα au niveau α, telle qu’elle a été définie
dans Pflug (2000), Rockafellar & Uryasev (2002) pour la perte d’un portefeuille est donnée
2.5. MODÈLES VAR ET CVAR 53
par :
CVaRα (x) = inf (β + (1 − α)−1 E([f (x, R) − β]+ )) (2.18)
β
avec (
f (x, R) − β sif (x, R) − β > 0,
[f (x, R) − β]+ = (2.19)
0 sinon,
Lorsque la distribution des pertes Ψ(x, β) est continue, la CVaR correspond à la perte espérée
conditionnelle au fait qu’elle soit supérieur ou égale à la VaRα (x) et elle est donnée par
Z
CVaRα (x) = (1 − α)−1 f (x, R)P(R)dR. (2.20)
f (x,R)≥VaRα (x)
On définit la fonction
Z
−1
Fα (x, β) = β + (1 − α) [f (x, R) − β]+ P(R)dR. (2.21)
R∈Rn
Sous l’hypothèse que la fonction de perte f (x, R) est convexe et que la de distribution de la
perte est continue, alors la fonction Fα (x, β) est convexe et continue par rapport à β et la
CVaRα (x) est convexe par rapport à x (voir e.g. Rockafellar & Uryasev (2000)). De plus, la
minimisation de la CVaR pour tout x ∈ X où x est un sous ensemble de Rn est équivalent
à la minimisation de Fα (x, β) i.e.
3.1 Introduction
La solvabilité d’un organisme d’assurance consiste, d’une part, en sa capacité à honorer les
engagements pris à l’égard des assurés et plus largement des bénéficiaires des contrats, d’autre
part, d’avoir un amortisseur financier qui permet d’assurer sa pérennité et son développement
sur un horizon donné.
La marge de solvabilité est l’un des principaux éléments de la surveillance des sociétés
d’assurance. Elle permet de s’assurer de la solidité financière des compagnies d’assurance
et de voir leurs aptitudes à supporter une dégradation de leurs engagements techniques.
La constitution d’une marge de solvabilité doit permettre de faire face aux conséquences
défavorables d’une situation non prévue. Cette marge doit être respectée de manière perma-
nente.
54
3.1. INTRODUCTION 55
La détermination des quantiles très élevés en assurance est très délicate, cela fait inter-
venir les méthodes de simulation, les outils de la statistique inférentielle et la théorie des
valeurs extrêmes puisque la loi des queues de distribution n’est généralement pas la même
que celle des valeurs centrales de la distribution.
Dans le cadre des études quantitatives d’impact, le CEIOPS a instauré une formule
standard pour le calcul du capital de solvabilité. Le calibrage de cette formule est fait de
manière à approcher autant que possible le critère de probabilité de ruine à un niveau de
confiance de 99.5% sur un horizon d’un an. La formule proposée vise à mesurer le chargement
en capital pour chaque risque puis à procéder à l’agrégation de ces capitaux en tenant compte
des corrélations entre les différents risques (à travers l’utilisation de matrices de corrélations
préétablies par le CEIOPS). La formule standard de calcul du SCR est divisée en modules
comme présentée dans la figure 3.1 :
Figure 3.1 – Divers modules de risque selon solvabilité II. Source : QIS4 Technical Specifi-
cations (MARKT/2505/08).
Les modules standards du calcul des SCR sont construits sous forme d’un seul choc ou
facteur qu’on applique pour chaque segment de risque. Le principe est d’appliquer un test de
sensibilité à un scénario. Ce test de sensibilité est calibré de manière prudente équivalente à
une mesure de VaR 99.5%. Il permet donc de déterminer un capital de solvabilité requis qui
protège la compagnie d’une probabilité de ruine de 0.5% sur un horizon d’un an.
Ainsi le choc action consiste donc à appliquer des chocs sur les expositions en actions
pour se couvrir contre une probabilité de ruine de 0.5%. Selon la méthode standard, le SCR
action est calibré en se fondant sur l’indice MSCI World (Morgan Stanley Capital Interna-
tional) composé de 23 types d’actions des pays développés en Europe, Etats-Unis et l’Asie.
Le choix de cet indice est supporté par une majorité. Pour des raisons de simplification sur
les distributions des rendements, la calibration standard considére que les rendements à un
horizon long (annuel ou mensuel) suivent une loi Normale alors que celles de fréquences
hebdomadaires ou journalières suivent des distributions non normales. Les rendements an-
nuelles sont calculés sur une période de 36 ans de 1973 à 2009 et sont obtenus à partir
des prix journaliers avec une fenêtre glissante pour avoir le nombre le grand possible des
rendements annuels (voir CEIOPS-DOC-65/10). Dans le tableau 3.2, on présente l’étude de
l’EIOPA pour le calibrage standard du choc action.
Sous l’hypothèse de normalité on remarque que le choc action défini sur la base des
rendements annuels de l’indice MSCI World correspond à une VaR à 99.5% égale à un choc
de 39% avant ajustement symétrique (voir tableau 3.3). Cette valeur est sous-estimée par
rapport à la VaR déterminée selon la méthode empirique qui correspond à un choc de 44%.
Ce constat reflète que l’hypothèse de normalité peut sous-estimer le risque action puisqu’elle
ne prend pas en compte la modélisation des queues de la distribution. En utilisant la théorie
des valeurs extrêmes, ce choc s’élève à 45% pour les actions globales et il est calculé sur base
des rendements annuels de la dernière année 2009. Ce niveau de choc action est supporté par
un grand nombre des membres de l’EIOPA, le choc de 39% est supporté par une minorité.
De plus on remarque la sensibilité de la mesure VaR par rapport à l’indice de référence, en
effet, si on considère l’indice MSCI Europe alors on remarque que le choc action correspond
à 43% sous l’hypothèse de normalité des rendements annuels et 53% selon la VaR empirique.
Dans notre étude on s’intéresse à l’évaluation du choc actions de type globales pour un
portefeuille fictif d’un assureur qui est bien diversifié et dont les poids sont obtenus selon
58 CHAPITRE 3. RISQUE ACTION ET AJUSTEMENT SYMÉTRIQUE
Figure 3.2 – Etude EIOPA pour le calibrage standard du risque action. Source : CEIOPS-
DOC-65/10
Notons que l’ajustement maximal de +10% a été calibré en analysant l’évolution de l’in-
dice MSCI Europe. En effet, selon une étude de l’EIOPA effectuée sur la période 01/01/1998-
01/07/2009, la borne sup de la perte annuelle maximale est de l’ordre de 49% et doit être
considérée comme la borne supérieure de l’intervalle d’amortissement (dampener interval en
anglais) du SCR action.
Les marchés financiers sont caractérisés par des mouvements exceptionnels et les auto-
rités de contrôle doivent prendre en compte le potentiel pro-cyclique affectant leurs actes.
L’ajustement symétrique appliqué au choc action est donc un mécanisme d’ajustement qui
recouvre la charge standard de 39% pour arriver à l’approche complète standard. Notons
qu’un mécanisme d’ajustement du risque lié au taux d’intérêt a été introduit dans Le Maistre
& Planchet (2014) pour corriger le choc standard.
Cet ajustement est fonction de la position dans le cycle et permettra d’éviter les compor-
tements pro-cycliques des investisseurs. En effet, en période de bas de cycle l’économie est en
expansion et va être favorable aux actions et la réaction des investisseurs sera d’acheter un
grand nombre d’actions. En d’autres termes, on prévoit une hausse de la valeur des actions.
Pour prendre en considération ce fait, on corrige le choc par un mécanisme d’ajustement
symétrique, le dampener pour atténuer le choc action lorsque les marchés sont en bas de
60 CHAPITRE 3. RISQUE ACTION ET AJUSTEMENT SYMÉTRIQUE
cycle. Inversement, lorsque les marchés sont en haut de cycle, on prévoit une période de
récession, c’est à dire de baisse de la valeur des actions, la meilleure stratégie des investis-
seurs et également des assureurs sera de vendre des titres composants leurs portefeuilles. Afin
d’éviter cette situation qui peut mettre en cause le rôle des assureurs dans le financement de
l’économie, on ajuste à la hausse le choc action (c’est à dire on l’augmente). La calibration
globale du risque action est donc comme suit :
Ajustement global du choc action=choc action standard + ajustement du choc ×β.
Ce β peut être approché par 1 (voir CEIOPS-DOC-65/10) ou estimé en régressant le niveau
de l’indice par rapport à une moyenne pondérée du niveau de l’indice.
Cet ajustement permet donc d’atténuer le choc action et ainsi de réduire le SCR en bas
de cycle c’est à dire quand la probabilité de hausse de la valeur des actions est importante.
Inversement, en haut de cycle, c’est à dire quand la probabilité de baisse de la valeur des
actions est importante, cet ajustement permet d’augmenter le choc action. Le choc actions
est ainsi ajusté par l’EIOPA de +/-10 % et ventile entre 29% et 49% pour les actions globales,
voir figure 3.3.
tel que SA désigne la valeur de l’ajustement symétrique avant d’être majoré ou minoré :on
dit capé et floré. En décembre 2014 et jusqu’a aujourd’hui la formule de calcul du SA est
donné par (3.2).
1 CI − AI
SA = ( − 8%), (3.2)
2 AI
de plus dans (3.2), on note
CIi − AIi
Di = , (3.3)
AIi
où
Figure 3.3 – Le calibrage standard du risque action selon Solvabilité II. Source : CEIOPS-
DOC-65/10.
0.1
0.08
0.06
0.04
0.02
−0.02
−0.04
−0.06
−0.08
−0.1
0 2000 4000 6000 8000 10000
Dans ce mémoire on propose d’estimer la probabilité que l’ajustement soit d’un niveau
κ%, en d’autres termes on propose d’estimer la probabilité de variation de α% de la valeur
d’un portefeuille action. On note qu’un justement symétrique de valeur κ% correspond à
un niveau α telle que 2 ∗ κ% + 8% = α% (voir (3.2)). Par exemple dans le cas extrême, si
on désire estimer la probabilité d’avoir un ajustement de κ = −10% alors on s’intéresse à
une baisse des marchés de plus de α = 12%. Inversement si on désire estimer la probabilité
d’avoir un ajustement de κ = 10% alors on s’intéresse à une hausse des marchés de plus de
α = 28%.
Deuxième partie
63
64
Chapitre 4
Les données dont on dispose sont les prix des indices boursiers. La période qu’on a choisi
est celle entre janvier 2000 et décembre 2015, soit 16 années d’observations avec 256 jours
de cotation par an. On dispose en tout de 4090 observations correspondantes aux prix de
clôture journalier des indices boursiers non ajustés aux dividendes. Le choix de cette période
est motivé par deux raisons, la première est que cette période est suffisamment longue pour
inclure différentes crises récentes. En effet, cette période inclus le Krach boursier de 2001-
2002, la crise financière 2007-2008 et la crise de la dette souveraine de 2010-2012. La deuxième
raison est que la période est suffisamment courte pour représenter l’état actuel de l’économie
en Europe.
Soient (pi )1≤i≤n . les prix d’un indice boursier à différentes dates i.
— Le rendement périodique journalier pour la période i est calculé par la formule suivante
des rendements logarithmiques
On note que lorsque les ri suivent une loi normale les prix suivent une loi lognormale.
— Le rendement périodique annuel pour la période i est calculé par la formule suivante
des rendements arithmétiques
pi − pi−256
Ri = . (4.2)
pi−256
65
66 CHAPITRE 4. PRÉSENTATION DES DONNÉES
Cette formule sera utilisée lors de l’optimisation des portefeuilles puisqu’il s’agit des
rendements discrets sur un horizon long (une année). Les rendements annuels obtenus
selon la formule (4.2) sont des rendements annuels glissants.
La figure 4.1 de la série des rentabilités journalières du CAC40 montre que le processus
caractérisant l’indice boursier est stationnaire au sens faible et oscille d’une manière aléatoire
autour de zéro. On constate la présence de plusieurs valeurs aberrantes et des variations
positives et négatives qui rendent compte du caractère de la non constance de la volatilité
au cours du temps. De plus on remarque un phénomène de variation de la valeur de l’indice
par paquets groupés. On parle d’un fait stylisé de la volatilité.
12
10
8
Rendements Journaliers en (%)
−2
−4
−6
−8
−10
0 500 1000 1500 2000 2500 3000 3500 4000
Périodes
On note que ces constatations sont aussi valables pour les autres indices qui seront traités
dans ce mémoire et qui sont : le DAX, le AEX, le FTSEMIB, le FTSE100, le SP500 et le
SMI.
4.3. DESCRIPTION DES RENDEMENTS JOURNALIERS 67
Dans le tableau 4.1 on donne les coefficients de corrélation des rendements journaliers.
Cette matrice révèle d’une forte corrélation positive des rendements.
Pour étudier la stationnarité de la série on analyse les fonctions d’auto corrélations (AFC).
D’aprés la figure 4.2 relative à la AFC de l’indice CAC40 on constate une décroissance
exponentielle des autocorrélations dès l’ordre un des retards, ce qui confirme la stationnarité
du processus. L’autocorrélogramme de la série permet de rendre compte rapidement que
la série est stationnaire. Pour confirmer ce constat on utilise le test de racine unitaire de
Phillips-Perron au seuil de 5% (voir Bourbonnais & Terraza (2008)). Selon ce teste on test
l’hypothèse
H0 : yt = yt−1 + t contre H1 : yt = c + ayt−1 + t ,
avec c une constante et a < 1 avec t est un bruit blanc. Sous H0 : (yt )t>≥1 est une marche
aléatoire et sous H1 (yt )t>≥1 est un processus autorégressive avec constante. Ce test est plus
robuste que le test de Dickey-Fuller (voir Bourbonnais & Terraza (2008)) puisque dans notre
cas on remarque la présence d’une variance conditionnelle non constante dans le temps. L’ap-
plication de ce test confirme la stationnarité de la série des rendements journaliers du CAC40.
Le graphique 4.3 représente les rendements des autres séries d’indices considérées dans notre
étude. On note que le test de Phillips-Perron au seuil de 5% confirme la stationnarité de ces
processus.
De plus on note que l’application du test de Box et Pierce indique la présence d’auto-
corrélation significative d’ordre un de la série des rendements CAC40. Ceci est claire d’après
la figure 4.2. Ce constat est en faveur d’une modélisation autorégressive de la série des rende-
ments CAC40. On note que le même phénomène est observé pour les autres séries temporelles
68 CHAPITRE 4. PRÉSENTATION DES DONNÉES
0.8
Sample Autocorrelation
0.6
0.4
0.2
−0.2
0 2 4 6 8 10 12 14 16 18 20
Lag
des rendements.
Les rendements oscillent autour d’un niveau contant et présentent un effet de clustering
de volatilité (voir chapitre I) où les grands changements dans les rendements ont tendance
à se regrouper et les petits changements ont tendance à se regrouper. Autrement dit la série
présente une hétéroscédasticité conditionnelle.
L’ajustement des observations empiriques par une loi normale n’est pas suffisant car
d’après le graphique du quantile quantile plot (qqplot) ; on remarque que cette loi gaussienne
permet de modéliser les valeurs centrales de la série mais pas les queues. ceci est confirmé
par l’histogramme des fréquences ajusté à une loi normale et par le QQPLOT (voir Figure
4.4).
Pour tester la normalité des rendements on utilise le test de Jarque-Bera. Ce test de nor-
malité sert dans le cas où il y a hétéroscédasticité. En effet, l’hétéroscédasticité se manifeste
sur le graphique de la distribution par des queues de probabilité plus épaisses (leptokurtique)
que les queues de la loi normale. En appliquant ce test sur les différents indices, l’hypothèse
de normalité des rendements a été refusée fortement à un seuil de risque de 5%.
4.3. DESCRIPTION DES RENDEMENTS JOURNALIERS 69
−20
0 500 1000 1500 2000 2500 3000 3500 4000 4500
Rendements journaliers en % du AEX
20
0
−20
0 500 1000 1500 2000 2500 3000 3500 4000 4500
Rendements journaliers en % du FTSEMIB
20
0
−20
0 500 1000 1500 2000 2500 3000 3500 4000 4500
Rendements journaliers en % du FTSE100
10
0
−10
0 500 1000 1500 2000 2500 3000 3500 4000 4500
Rendements journaliers en % du SP500
20
0
−20
0 500 1000 1500 2000 2500 3000 3500 4000 4500
Rendements journaliers en % du SMI
20
0
−20
0 500 1000 1500 2000 2500 3000 3500 4000 4500
400
300
200
100
0
−10 −5 0 5 10 15
10
−5
−10
−4 −3 −2 −1 0 1 2 3 4
Standard Normal Quantiles
Dans le tableau 4.2, on donne une description et quelques indices de tendance centrale de
risque et de forme des séries des rendements journaliers historiques utilisées dans ce mémoire.
D’après le tableau 4.2 on remarque que tous les indices sont caractérisés par un Kurtosis
supérieur à 3 révélant de la présence des queues leptokurtiques dans les séries des rendements
journaliers. De plus ces séries sont caractérisées par des skewness non nul révélant de la
présence de l’asymétrie par rapport aux pertes et gains des séries des rendements journaliers.
Nous considérons les rendements annuels glissants obtenus selon la formule (4.2). Dans la
figure (4.5) on note le caractère non stationnaire des séries des rendements annuels. D’après
le graphique 4.6 on remarque le non ajustement de la série des rendements annuels par
rapport à une loi normale. Ce constat est confirmé par le test de normalité de Jarque-Bera
qui indique que ses séries ne sont pas normales. Dans le tableau 4.3 on donne un résumé des
caractéristiques des séries de rendements annuel arithmétiques. On remarque que le Kurtosis
pour ces rendements est proche de celui d’une distribution normale (c’est à dire de 3). Ces
valeurs de Kurtosis sont considérablement moins élevés que ceux des rendements journaliers
(voir le tableau 4.2). De plus on remarque que la Value-At-Risk au niveau de 99.5% est en
moyenne d’une valeur de −45%.
On note que les VaR estimées dans le tableau 4.3 sont calculées selon la méthode histo-
rique. Si on estime ces VaR selon la méthode normale des rendements annuels c’est à dire
4.4. DESCRIPTION DES RENDEMENTS ANNUELS 71
40
Rendements (%)
20
−20
−40
−60
0 500 1000 1500 2000 2500 3000 3500 4000
Periodes
50
Rendements (%)
CAC40
DAX
−50 AEX
FTSEMIB
−100
0 500 1000 1500 2000 2500 3000 3500 4000
Périodes
Figure 4.5 – Rendements arithmétiques annuels des indices CAC40. DAX. AEX et FTSE-
MIB.
150
100
50
0
−80 −60 −40 −20 0 20 40 60 80
50
−50
−100
−4 −3 −2 −1 0 1 2 3 4
Standard Normal Quantiles
VaRα = µ − σ ∗ q(α) où q(α) est le quantile d’ordre α d’une loi normale, alors on obtient les
résultats donnés dans le tableau 4.4 suivant :
Table 4.4 – VaR des rendements arithmétiques annuels selon la méthode normale.
Ces résultats montrent que dans le cas où on considère une fenêtre glissante pour calculer
les rendements annuels on risque d’avoir une grande dispersion entre les rendements observés.
L’application du test de Phillips-Perron permet de conclure que les séries des rendements
annuels des indices CAC40, DAX, AEX, FTSEMIB, FTSE100, SP500 et SMI, sont non sta-
tionnaires.
Dans le tableau 4.5 on donne les rendements annuels. Cette matrice révèle d’une forte
corrélation positive des rendements annuels.
4.4. DESCRIPTION DES RENDEMENTS ANNUELS 73
5.1 Introduction
On considère deux portefeuilles d’indice action qui peuvent être composés à partir des
portefeuilles actions suivants :
On a choisit de travailler sur ces indices car ils composent l’indice global MSCI sur lequel
l’EIOPA se base pour modéliser le choc action. Pour chaque fond on propose de
(a) Selon le critère de Markowitz ou moyenne variance (MV) : l’objectif sera d’at-
teindre le rendement cible en minimisant la variance du portefeuille.
(b) Selon le critère CVaR dont la mesure de risque à optimiser sera la CVaR au lieu
de l’écart type utilisé dans l’optimisation moyenne variance.
(c) Selon les critères incorporants les moements d’ordre supérieurs à deux (unique-
ment pour le fond numéro 1).
74
5.2. OPTIMISATION SELON LE CRITÈRE DE MARKOWITZ : MOYENNE-VARIANCE75
5.2.1 Introduction
U (W ) = ln(W ),
U (W ) = − exp−λW , avec λ = 1.
Dans le tableau 5.1 on présente le portefeuille optimal obtenu selon le critére moyenne
variance pour différents taux de rentabilités cibles pour les deux fonds 1 et 2.
On remarque que pour le fond numéro 1 composé par le CAC40, le DAX, le AEX et le
FTSEMIB, le portefeuille optimal est composé de plus de 70% de l’indice Dax et le reste
par l’indice AEX. On remarque que le rendement journalier moyen le plus élevé est celui du
DAX, de plus ce même titre a le ratio de performance le plus élevé sur l’ensemble des quatre
titre composant le fond numéro 1. On rappelle que le ratio de performance est égal au rapport
du rendement par l’écart-type. Il représente le rendement d’un titre par unité de risque et
mesure la performance d’un titre ou d’un portefeuille par rapport à son risque total. On
remarque que pour le fond numéro 2 composé par le CAC40, le DAX, le AEX, le FTSEMIB,
le FTSE100, le SP500 et le SMI, le portefeuille optimal est composé en majorité de l’indice
SP500 suivis du titre SMI. On note que ces deux titres ont les ratios de performance les plus
attractifs par rapport à l’ensemble de tout les autres titres.
Dans le tableau 5.2, on reporte les caractéristiques du portefeuille optimal pour différents
taux de rentabilité cible pour les deux fonds. On remarque que pour un même taux de ren-
dement moyen, le portefeuille optimal (P.O.) du fond numéro un est plus risqué en terme
d’écart-type que celui du fond numéro 2. Toutefois, le skewness et le kurtosis du P.O. du
fond numéro un sont plus faibles en valeur absolue que ceux du fond numéro 2.
5.2. OPTIMISATION SELON LE CRITÈRE DE MARKOWITZ : MOYENNE-VARIANCE77
Table 5.1 – Proportions investies dans chaque titre selon le critère d’optimisation Moyenne-
Variance.
Les portefeuilles efficients, c’est-à-dire ceux offrant le meilleur profil possible en terme de
rentabilité pour un niveau de risque donné, sont représentés par la frontière efficiente. Dans
un portefeuille efficient, il n’y a aucun moyen de réduire le risque sans réduire le rendement,
ni d’avoir un meilleur rendement sans accroı̂tre son risque. C’est donc un portefeuille qui
donne le meilleur rendement pour un taux de risque donné. La combinaison de tout les titres :
le CAC40, le DAX, le AEX, le FTSEMIB, le FTSE100, le SP500 et le SMI fournissent une
meilleure courbe (en termes de volatilité et de rendement) que la combinaison des 4 indices :
le CAC40, le DAX, le AEX et le FTSEMIB ; (voir figure 5.1).
−3 Frontière efficiente
x 10
12
10
8
Rendement du portefeuille
−2
−4
1 1.1 1.2 1.3 1.4 1.5 1.6 1.7
Ecart−type du portefeuille des rendements
Figure 5.1 – Comparaison des frontières efficientes des fonds 1 et 2 selon le critère Moyenne-
Variance.
78 CHAPITRE 5. OPTIMISATION DE PORTEFEUILLE
Dans cette section on applique l’optimisation CVaR de portefeuille introduite dans Ro-
ckafellar & Uryasev (2000).
avec
— f (x, ξ) est la fonction de perte pour un portefeuille de composition x et de rendements
des titres donnés par ξ. Pour plus de précision, si Y est la série des rendements, alors
−Y représente la série des pertes. On dit rendement y = −2% ou perte de 2%.
— P(ξ) est la densité des probabilité des rendements.
— VaRα (x) est la value-at-risk pour un niveau de confiance α, du portefeuille x avec
0 < α < 1. Typiquement α ∈ {0.995, 0.99, 0.95}. Pour un niveau α donné, la VaRα (x)
5.3. OPTIMISATION SELON LE MODÈLE CVAR 79
On note aussi que la VaRα est estimée lorsque la CVaRα est estimée. Le programme d’opti-
misation considéré est le suivant :
0
= µ,
x E(ξ)
0
min CVaRα (x)S.C. x l = 1, (5.2)
x
x ≥ 0.
où CVaR est donnée par (5.1) et la fonction de perte f (x, ξ) est donnée par f (x, ξ) = −x0 ξ.
D’après la figure 5.4 dans laquelle on donne la frontière efficiente du fond numéro 1 et
de celle du fond numéro 2 selon le critère CVaR, on remarque que, comme pour le critère
MV, le fond numéro 2 surperforme le fond numéro 1 en terme de rapport rendement/risque.
Dans le tableau 5.3, on remarque que pour le fond numéro 1, selon le critère CVaR avec
α = 99%, le portefeuille est réparti entre les titres DAX et CAC40. Dans le tableau 5.1,
on remarque que selon le critère moyenne-variance l’allocation était reparti entre le DAX
et le AEX. Notons que les indices DAX et AEX sont ceux à écart-type minimum parmi les
quatre titres du fond numéro 1, alors que selon le critère CVaR, les titres DAX et CAC40
sont ceux avec les VaR les moins élevées. Ce constat se généralise à l’ensemble des trois
portefeuilles de la frontière efficiente déterminées selon le critère CVaR pour les taux 0.6%,
0.7% et 0.8% (voir figure 5.5). Pour le fond 2, la répartition est effectuée dans les deux
programmes d’optimisation (MV et CVaR) entre les FTSE100, DAX, SP500 et SMI avec
une augmentation des poids de FTSE100 et de DAX dans l’allocation CVaR (voir figure 5.6)
Selon la figure 5.2 et 5.3, la frontière efficiente (Rendement/ CVaR) pour un niveau de
confiance α = 95% est au-dessus de celle avec un niveau de confiance α = 99%.
Rockafellar & Uryasev (2000) ont montré que pour des distributions normales, il n’y a
pas de différence significatives entre les frontières efficientes obtenues selon le critère MV
et CVaR. Toutefois, dans le cas ou les distributions sont asymétriques et non normales, les
critères d’optimisation CVaR et MV peuvent conduire à des différences significatives.
80 CHAPITRE 5. OPTIMISATION DE PORTEFEUILLE
Table 5.3 – Proportions investies dans chaque titre selon le critère d’optimisation CVaR,
α = 99%.
−3 Frontière efficiente
x 10
12
10
8
Rendement du portefeuille
−2
−4 alpha=95%
alpha=99%
−6
3 3.5 4 4.5 5 5.5 6
CVaR du portefeuille des rendements
Figure 5.2 – Comparaison des frontières efficientes selon le critère CVAR, α = 95%, α =
99%, Fond 1.
Dans les figures 5.7 et 5.8 on représente respectivement pour le fond 1 et 2, la frontière
efficiente selon le critère MV en comparaison avec celle selon le critère CVaR pour des seuils
α ∈ {95%, 99%}. On remarque que la différence entre le critère MV et CVaR pour α = 95%
est moins importante que celle enregistrée pour un niveau de confiance α = 99% plus élevé.
On note aussi que pour un rendement fixé, le portefeuille CVaR optimale a un écart type
plus élevé que celui obtenu par le portefeuille optimale MV.
5.3. OPTIMISATION SELON LE MODÈLE CVAR 81
−3 Frontière efficiente
x 10
12
11
10
Rendement du portefeuille
alpha=95%
9 alpha=99%
3
2.5 3 3.5 4 4.5 5 5.5 6
CVaR du portefeuille des rendements
Figure 5.3 – Comparaison des frontières efficientes selon le critère CVAR, α = 95%, α =
99%, Fond 2.
On note aussi selon les tableaux 5.4 et 5.2 que pour un rendement fixé, le portefeuille MV
optimale a une VaR99% plus élevée que celle obtenue par le portefeuille optimale CVaR99% .
−3 Frontière efficiente
x 10
12
10
Rendement du portefeuille 8
2
Frontière efficiente du fond numéro 1
0 Frontière efficiente du fond numéro 2
−2
−4
4.2 4.4 4.6 4.8 5 5.2 5.4 5.6 5.8 6
CVaR du portefeuille des rendements
Figure 5.4 – Comparaison des frontières efficientes des fonds 1 et 2 selon le critère CVAR,
α = 99%.
Dans ce qui suit on propose d’étudier l’effet de la non-normalité des rendements des
titres sur l’allocation de la richesse pour les investisseurs qui souhaitent maximisant l’utilité
espérée de leurs richesses. On propose pour cela de comparer les allocations obtenues
1 Selon le critère moyenne-variance.
2 Selon le critère moyenne-variance-skewness (MVS) : l’objectif sera d’atteindre le ren-
dement cible en minimisant la variance et en maximisant le Skewness. On note que
la détermination du programme d’optimisation se fait en utilisant le développement
de Taylor de la fonction d’utilité de la richesse finale. Le développement d’ordre deux
coı̈ncide avec le critère de Markowitz, le développement d’ordre trois correspond à la
fonction à optimiser selon le critère MVS.
3 Selon le critère moyenne-variance-skewness-kurtosis (MVSK) : l’objectif sera d’at-
teindre le rendement cible en minimisant la variance, maximisant le Skewness et mi-
nimisant le Kurtosis. Le développement d’ordre quatre correspond à la fonction à
optimiser selon le critère MVSK.
La question qui se pose est quelle fonction d’utilité doit-on choisir afin de tenir compte
des moments d’ordre élevé sous l’hypothèse de l’expansion de la fonction d’utilité ?
Jondeau & Rockinger (2006) ont montré que les fonctions d’utilité les plus appropriées
lors de la considération du skewness et du kurtosis dans le problème de choix de por-
tefeuille sont principalement la fonction d’utilité logarithmique et la fonction d’utilité
exponentielle. En particulier la fonction exponentielle est largement utilisée dans la
5.4. OPTIMISATION EN CONSIDÉRANT LES MOMENTS D’ORDRE SUPÉRIEUR À DEUX83
Poids des titres selon le critére MV Poids des titres selon le critére CVaR
1 1
0.8 0.8
0.6 0.6
CAC40
DAX
AEX
0.4 0.4
FTSEMIB
0.2 0.2
0 0
1 1.5 2 2.5 3 1 1.5 2 2.5 3
Figure 5.5 – Frontière efficiente selon les programmes d’optimisation CVAR (α = 99%) et
moyenne-variance. Représentation sous forme d’aire pour le Fond 1.
Poids des titres selon le critére MV Poids des titres selon le critére CVaR
1 1
0.9 0.9
0.8 0.8
0.2 0.2
0.1 0.1
0 0
1 1.5 2 2.5 3 1 1.5 2 2.5 3
Figure 5.6 – Frontière efficiente selon les programmes d’optimisation CVAR (α = 99%) et
moyenne-variance. Représentation sous forme d’aire pour le Fond 2.
84 CHAPITRE 5. OPTIMISATION DE PORTEFEUILLE
−3 Frontière efficiente
x 10
12
10
8
Rendement du portefeuille
4
Moyenne−Variance
2 CVaR, alpha=0.95
CVaR, alpha=0.99
0
−2
−4
−6
−8
1.4 1.42 1.44 1.46 1.48 1.5 1.52 1.54 1.56
Ecart−type du portefeuille des rendements
−3 Frontière efficiente
x 10
12
11
10
Rendement du portefeuille
9
Moyenne−Variance
8 CVaR, alpha=0.95
CVaR, alpha=0.99
7
3
1 1.1 1.2 1.3 1.4 1.5 1.6 1.7
Ecart−type du portefeuille des rendements
littérature vue sa simplicité dans la prise en compte des moments d’ordre supérieur à
deux. C’est cette fonction que nous allons considérer dans l’application ci-après.
Ces propriétés dans (5.3) vérifient la condition (2.6) et donc montrent que la fonction
d’utilité exponentielle est adaptée pour les modèles de sélection de portefeuille en in-
corporant les moments d’ordre supérieur à deux.
feuille composé de n indices, la matrice variance covariance est de dimension (n, n), la
matrice skewness-coskewness est de dimension (n, n2 ), et celle de kurtosis-cokurtosis
est de dimension (n, n3 ).
5.4.2 Résultats
Les résultats d’allocation optimale pour le Fond numéro 1 sont reportés dans le tableau
5.5. Les résultats sont donnés pour un taux de rendement journalier fixé à 0.6%. Soit
w1 , w2 , w3 , w4 les poids respectifs des titres CAC40, DAX, AEX, FTSEMIB. σp2 , Sp et
Kp représentent respectivement, la variance du portefeuille, le skewness et le kurtosis
du portefeuille optimale. Des différences sont à noter entre les poids obtenus lorsque
l’optimisation est fondée sur les deux, trois ou quatre premiers moments. Selon les
résultats obtenus, pour un niveau λ d’aversion au risque, les poids optimaux changent
lorsqu’on introduit un nouveau moment. Il apparaı̂t clairement que les variations des
poids des portefeuille découlent des valeurs des coefficients d’asymétrie, de kurtosis et
des valeurs de la mesure de risque VaR rapportées pour les portefeuilles de rendements.
On remarque que, lorsqu’il s’agit d’optimisation MVS, le poids du titre CAC40 aug-
mente par rapport à l’optimisation MV en contrepartie d’une diminution du poids des
titres DAX et AEX. Ceci est lié au fait que les rendements du CAC40 sont positive-
ment asymétriques. Le titre AEX, est quant à lui négativement asymétrique. Plus λ le
coefficient d’aversion au risque est élevé plus l’augmentation du poids du CAC40 est
importante et plus le poids du AEX est faible et devient nul pour λ ∈ {5, 10}. Par rap-
port au portefeuille MV on remarque que pour tout λ, Sp et Kp sont considérablement
plus faibles que ceux du portefeuille optimale MV. Toutefois, on note que le portefeuille
MV à la variance la plus faible par rapport à tout autre portefeuille obtenu par les
autres critères d’optimisations.
Comme montré dans le tableau 4.2, l’hypothèse de normalité des séries des rendements
des indices boursier est rejetée à cause de l’asymétrie et des queues épaisses.
Pour un niveau λ d’aversion au risque, le critère MV donne un poids important pour
le DAX et AEX avec des rendements moyens les plus intéressants parmi l’ensemble
des quatre indices composant le fond numéro 1 sans prendre en considération le fait le
skewness négatif et le kurtosis élevé du titre AEX. Lorsqu’on introduit le skewness et le
kurtosis dans l’optimisation de portefeuille, le poids de AEX diminue voire devient nul
pour des niveaux d’aversion au risque λ élevés en faveur d’une augmentation des poids
du CAC40 et du DAX qui sont positivement asymétriques et qui ont un faible kurtosis
en comparaison avec le AEX. On note que lorsque λ augmente, alors l’augmentation
du CAC40 baisse en faveur d’une augmentation du DAX ce qui peut s’expliquer par
le faible niveau du kurtosis du DAX par rapport à celui du CAC40. Il est claire que
pour la mesure de risque VaR, les valeurs obtenues pour tout niveau α selon le critère
d’optimisation MV sont inférieures à ceux obtenues par les critères MVS et MVSK. En
particulier, pour VaR99.5 , on remarque qu’elle est croissante en fonction de λ qui est le
coefficient d’aversion au risque et aussi en fonction des moments d’ordre supérieurs à
deux.
5.4. OPTIMISATION EN CONSIDÉRANT LES MOMENTS D’ORDRE SUPÉRIEUR À DEUX87
Table 5.5 – Proportions investies dans chaque titre selon le critère d’optimisation.
Chapitre 6
6.1 Introduction
Ainsi après avoir déterminé les portefeuilles optimaux selon les différentes méthodes
d’optimisation, l’étape suivante consiste à l’évaluation du choc action pour chaque
allocation de portefeuille. Dans ce chapitre on s’intéresse à la modélisation des rende-
ments des indices boursiers avec des modèles à variance conditionnelles. Notre objectif
à travers cette modélisation est le calcul du choc action en évaluant la VaR annuelle
du portefeuille action et la quantification du risque de base lié au choc action. En pre-
mier lieu nous allons tester plusieurs types de modèles de séries temporelles à variance
conditionnelle, en suivant la procédure de Box et Jenkins. Par la suite, après avoir
sélectionné le modèle le plus adéquat nous proposons d’introduire une approche fondée
sur la modélisation des valeurs extrêmes. Dans ce travail nous proposons d’analyser la
sensibilité des résultats par rapport à différentes pondérations des indices composants le
portefeuille et qui sont issues de l’application de plusieurs programmes d’optimisation
de portefeuille.
88
6.2. MODÉLISATION AR(1) − EGARCH(1, 1) 89
6.2.1 Estimation
On commence par l’application du test Ljung-Box (voir Bourbonnais & Terraza (2008))
à la série des résidus avec :
Ce test permet de tester l’hypothèse H0 : les résidus ne sont pas autocorrelés contre
l’hypothèse H1 : les résidus sont aucorrelés. Le résultat de ce test pour l’ensemble des
séries des rendements indique que les résidus ne sont pas autocorrelés. Toutefois l’ap-
plication de ce même test au seuil de 5% à la série des résidus au carrés indique que
les résidus au carrés sont autocorrelés d’où l’existence d’un effet ARCH significatif des
résidus des rendements.
L’application du test ARCH (voir Bourbonnais (2015)) à la série des résidus indique
que l’hypothèse nulle d’homoscédasticité des résidus est rejetée en faveur de l’hypothèse
d’heteroscedasticité ce qui confirme le résultat du test Ljung-Box appliqué à la série
des résidus au carrés.
La présence du phénomène d’hétéroscédasticité indique la présence d’une variance
conditionnelle non constante au cours du temps. On propose donc de modéliser les
séries financières des rendements par les modèles GARCH, AR(1) − GARCH(1, 1),
EGARCH et GJR − GARCH et de sélectionner le modèle le plus adéquat selon le
critère de choix de maximum du logvraisemblance et du critère de choix AIC. Dans
le tableau 6.1 on donne les résultats des vraisemblances issues des modèles testés. On
note que les modèles AR(1)-EGARCH(1,1) et EGARCH(1,1) avec innovation Student
sont deux modèles concurrents pour la modélisation des séries des rendements logarith-
miques journaliers. On reporte dans le tableau 6.2 les valeurs du critère de choix AIC
qui montrent que le modèle AR(1)-EGARCH(1,1) avec innovation Student est plus
adéquat que le modèle EGARCH(1, 1) pour la modélisation des séries des rendements
des indices CAC40, DAX, AEX et FTSEMIB.
6.2.2 Validation
Dans la figure 6.1 on présente les résidus standardisés et la volatilité conditionnelle
de la série des rendements selon la modélisation AR(1)-EGARCH(1,1). Pour vali-
der le modèle AR(1)-EGARCH(1,1) on applique le test Ljung-Box pour tester l’au-
tocorrélation des résidus standardisés. Ce test confirme le non autocorrélation des
résidus standardisés issues de la modélisation AR (1)-EGARCH (1,1) de la série des
rendements. On note que les résidus standardisés sont calculés de la manière suivante :
Pour tester si la série des résidus standardisés présente une hétéroscedasticite condi-
tionnelle, on applique le test ARCH qui teste l’hypothèse nulle : la série des résidus stan-
dardisés ne présente pas un phénomène d’hétéroscédasticité. On note qu’on peut aussi
utiliser le test Ljung-Box qu’on l’applique à la série des résidus au carrés. Le résultat
du test ARCH confirme que la série des résidus standardisés est homoscédastique. La
figure 6.2 représente la fonction d’autocorrélation (ACF) des résidus et des résidus au
carrés du titre CAC40, on peut conclure que les résidus standardisés paraissent i.i.d
6.2. MODÉLISATION AR(1) − EGARCH(1, 1) 91
Résidus standardisés
0
−5
0 500 1000 1500 2000 2500 3000 3500 4000
Date
Volatilité conditionnelle
0
0 500 1000 1500 2000 2500 3000 3500 4000
Date
au vu de ces données.
Le modèle EGARCH ou encore le modèle exponentiel GARCH asymétrique pour la
modélisation de la variance conditionnelle permet de prendre en compte l’asymétrie
dans l’équation de la variance. Dans le cadre d’une modélisation EGARCH, les valeurs
de la VaR à un an sont sensibles à la prise en compte de la modélisation de l’asymétrie
dans l’équation de la variance. Notons par I le modèle
et par II le modèle
AR(1) − EGARCH(1, 1) − Student. (II)
Une comparaison des résultats issus des modèles (I) et (II) est donnée dans l’annexe
B.
Sample Autocorrelation
0.5
−0.5
0 5 10 15 20
Lag
Sample ACF of Squared Standardized Residuals
1
Sample Autocorrelation
0.5
−0.5
0 5 10 15 20
Lag
Figure 6.2 – Fonction d’autocorrélation des résidus et des carrés des résidus des rendements
logarithmiques journaliers du Cac40 issus d’une modélisation AR(1)-EGARCH(1,1).
Table 6.3 – VaR paramétrique des rendements Journaliers selon les modèles I et II, m =
10000.
4.2) sont différentes pour un même titre. On remarque que les estimations données
par le modèle AR(1) − GARCH(1, 1)-Student sont plus élevées en valeur absolue que
celles données par le modèle AR(1) − EGARCH(1, 1)-Student.
La méthode de simulation historique suppose que les rendements passés peuvent être
utilisés comme étant la distribution des gains et pertes pour la période suivante. Ainsi
la VaR journalière correspond au quantile d’ordre α des 256 derniers rendements sans
considérer la valeur d’aujourd’hui.
Dans le figure 6.3 on donne les résultats de prédiction de la VaR à partir de la méthode
normale et de la méthode Historique pour le titre CAC40. On remarque que les estima-
tions de la VaR selon ces deux modèles ont l’allure d’une courbe constante par morceau
ceci explique la réaction lente de ces deux modèles aux changements de marché.
0
VaR
−5
−10
3850 3900 3950 4000 4050
Date
Estimation de la VaR selon la méthode de simulation historique
5
0
VaR
Figure 6.3 – Estimation de la VaR selon les méthodes historique et normale pour le CAC40.
94 CHAPITRE 6. MODÉLISATION DES RENDEMENTS ET RISQUE ACTION
0
VaR
−5
−10
−15
3850 3900 3950 4000 4050
Date
−5
VaR
−20
3850 3900 3950 4000 4050
Date
Dans la figure 6.5 on reporte les prévisions de la VaR selon les méthodes Nomale,
Historique, AR(1)-GARCH(1,1)-Student et AR(1)-EGARCH(1,1)-Student et ceci pour
différent niveaux de risques (α ∈ {0.5%, 1%, 5%}). On prend comme exemple l’indice
6.2. MODÉLISATION AR(1) − EGARCH(1, 1) 95
−5
VaR
−10
Rendement Normal Historique AR−EGARCH AR−GARCH
−15
−20
3850 3900 3950 4000 4050
Date
−5
VaR
−10
−15
−20
3850 3900 3950 4000 4050
Date
Figure 6.5 – Previsions de la VaR selon les méthodes Normale, Historique, AR(1)-
GARCH(1,1)-Student et AR(1)-EGARCH(1,1)-Student,α ∈ {0.5%, 1%, }, Indice CAC40,
T = 250.
5% 1% 0.5%
AR(1)-EGARCH(1,1) 18 (7,2%) 5 (2%) 3 (1.2%)
AR(1)-GARCH(1,1) 16 (6,4%) 4 (1.6%) 2 (0.8%)
Historique 18 (7,2%) 7 (2,8%) 3 (1.2%)
Normale 17 (6,8%) 6 (2,4%) 5 (2%)
durée durée
LRU C LRIN D LRCC LRIN D LRCC
α = 95%
AR(1)-EGARCH(1,1) 0.1214 0.1621 0.1134 0.2508 0.2365
AR(1)-GARCH(1,1) 0.6369 0.0366 0.1006 0.2327 0.4825
Normale 0.1214 0.0340 0.0319 0.0751 0.0938
Historique 0.3071 0.0829 0.1320 0.1691 0.2977
α = 99%
AR(1)-EGARCH(1,1) 0.1554 0.6494 0.3287 0.1872 0.2814
AR(1)-GARCH(1,1) 0.0563 0.1207 0.0485 0.7944 0.3570
Normale 0.0179 0.1760 0.0242 0.9431 0.1657
Historique 0.3692 0.7167 0.6257 0.9328 0.9448
α = 99.5%
AR(1)-EGARCH(1,1) 0.1788 0.7859 0.3903 0.8992 0.8129
AR(1)-GARCH(1,1) 0.0107 0.6494 0.0348 0.3117 0.0865
Normale 0.1788 0.7859 0.3903 0.4931 0.6479
Historique 0.8052 0.8566 0.5267 0.8440 0.9576
Table 6.5 – P-value des tests statistiques du Backtesting pour l’indice CAC40 pour un
risque de première espèce de 5%.
On considère que la capacité de prévision du modèle VaR est exacte si pour tous les
seuils testés, tous les tests sont valides. Pour l’indice CAC40, d’après le tableau 6.5 les
modèles validés sont le modèle AR(1)-EGARCH(1,1)-Student et le modèle historique.
Table 6.6 – VaR paramétrique des rendements annuels (en %) selon le modèle AR(1)-
EGARCH(1,1)-Student.
Table 6.7 – Skewness et Kurtosis des séries de rendements annuels arithmétiques générés
selon le modèleAR(1)-EGARCH(1,1)-Student.
D’après le tableau 6.7 on note que l’annualisation des rendements peut éliminer les
queues épaisses (voir Mittnik (2016)).
— Dans la première méthode on ne prend pas en considération les corrélations qui peuvent
exister entre les rendements du portefeuille. La VaR sous cette méthode est donnée par :
VaRSC = pj=1 wi VaRi . Par la suite on détermine un quantile d’ordre α correspondant
P
CAC40 DAX
200 200
150 150
100 100
50 50
0 0
−80 −60 −40 −20 0 20 40 60 80 −80 −60 −40 −20 0 20 40 60 80
AEX FTSEMIB
200 250
200
150
150
100
100
50
50
0 0
−80 −60 −40 −20 0 20 40 60 −80 −60 −40 −20 0 20 40 60 80
Figure 6.6 – Histogramme des fréquences des rendements annuels simulés par le modèle
AR(1)-EGARCH(1,1)-Student.
à la variance du portefeuille. Malgré que cette méthode peut induire des erreurs dans
le cas ou les séries ne sont pas gaussiennes, on utilisera cette méthode puisque d’après
les résultats du tableau 6.7 et de la figure 6.6 on remarque un rapprochement des ca-
ractéristiques des séries avec la distribution gaussienne.
Rappelons que notre objectif lors du calcul du SCR action est de prendre en considération
la pondération des rendements composants le portefeuille d’un assureur et ceci en res-
pectant sa stratégie d’investissement.
On veux donc voir la sensibilité de la VaR du portefeuille aux différentes stratégies
d’optimisation de portefeuille MV, MVS, MVSK et CVaR.
Dans le tableau 6.8 on donne les résultats d’estimation par la méthode historique et la
méthode normale de la VaRAC du portefeuille pondéré de manière uniforme.
Table 6.8 – VaR en % selon la méthode normale et historique des rendements arithmétiques
annuels pour un portefeuille uniforme.
Dans le tableau 6.9 on donne les résultats d’estimation de la VaR par la méthode
paramétrique. En effet, on se fondant sur les résultats de la modélisation AR(1) −
100 CHAPITRE 6. MODÉLISATION DES RENDEMENTS ET RISQUE ACTION
EGARCH(1, 1)−Student, on calcul la VaR des portefeuilles obtenus selon les différents
critères d’optimisation de portefeuille. On considère de plus le cas d’un portefeuille
uniforme ou les différents indices sont equipondérés. On remarque de plus que ces
résultats sont supérieurs à ceux obtenus par la méthode historique appliquée à la série
des rendements observés (voir tableau 6.8). La différence est supérieure à 3%.
VaRSC VaRAC
95% 99% 99.5% 95% 99% 99.5%
Optimisation MV
-32.6935 -47.9027 -52.5568 -31.7345 -48.24 -53.9707
Optimisation CV aR
-32.6968 -48.7521 -52.7574 -32.0943 -49.1778 - 55.0375
Optimisation MVS
1 -32.8873 -48.2036 -52.6034 -31.8582 -48.5822 -54.3627
5 -32.6962 -48.7530 -52.7572 -32.09416 -49.1781 -55.0375
Optimisation MVSK
1 -32.7441 -48.2865 -52.6351 -31.8243 -48.7353 -54.39731
5 -32.9402 -48.2528 -53.1048 -31.7284 -48.5941 -54.1751
Pondération uniforme
-31.4132 -47.6697 -52.3754 -30.8829 -47.91649 -52.6995
Table 6.9 – Estimation de la VaR du portefeuille des rendements modélisés par le modèle
AR(1)-EGARCH(1,1)-Student en considérant les pondérations des indices selon différents
critères d’optimisation de portefeuille.
Rappelons que les VaR sont négatives puisqu’on s’intéresse aux chocs appliqué en cas
de perte. On remarque que selon toutes les méthodes d’optimisation de portefeuille, les
résultats d’estimation de la VaR de portefeuille en considérant la corrélation entre les
indices sont supérieurs à ceux sans considération de la corrélation. On remarque donc
qu’il y a un bénéfice de mutualisation qui est négatif. Cela peut s’expliquer par le fait
que les indices sont tous positivement corrélés entre eux (voir matrice de corrélation
4.3). De plus, on note que la VaRAC à 99.5% la plus élevée est atteinte pour le porte-
feuille optimisé selon le critère CVaR suivi de celle du modèle MVS puis MVSK, puis
MV puis celle avec pondération uniforme. Ces résultats montrent que les pondérations
des portefeuilles ne doivent pas être négligés dans le calcul des VaR.
6.3. ESTIMATION GP D − AR(1) − EGARCH(1, 1) 101
Notons que l’estimation GPD nécessite des séries de v.a.s indépendantes et identique-
ment distribuées. On a déjà vu précédemment que ceci n’est pas le cas pour les séries
des rendements. Toutefois on a déjà montré que les séries des résidus standardisés qui
sont issues de la modélisation AR(1) − EGARCH sont i.i.d. Pour cela, nous allons
appliquer le modèle GP D − Kernel − GP D sur les résidus standardisés.
Dans ce qui suit on donne les étapes suivis pour générer les rendements annuelles selon
une modélisation GP D − AR(1) − EGARCH(1, 1) :
1. On ajuste la distribution marginale de chaque série des rendements logarith-
miques journaliers par une distribution AR(1) − EGARCH(1, 1).
2. On récupère les résidus standardisés issus de cette modélisation et on les ajuste
par un modèle GP D − Kernel − GP D.
3. On régénère les séries des résidus standardisés par simulation par la méthode
inverse.
4. On régénère les séries des rendements en utilisant les paramètres des marginales
issues de la première étape et les résidus standardisés de l’étape précédente.
5. On retrouve la série des rendements annuelle simulée et on détermine la VaR de
chaque titre.
6. On calcul la VaR du portefeuille en considérant la corrélation entre les indices
par la méthode variance-covariance.
Le graphique 6.7 montre que la courbe des moyennes des excès change de pente à
partir des seuils −1.7 pour les queues négatifs et 1.7 pour les queues positifs ce qui
correspond à un nombre d’observation minimales dans les queues égale à 5%.
McNeil & Frey (2000) ont fait des simulations de Monte Carlo afin d’évaluer les pro-
priétés de l’estimation de maximum de vraisemblance (MLE) des paramètres de la
GPD et ceci pour diverses distributions et tailles d’échantillons Les résultats montrent
que les estimations de MLE sont presque invariantes à la valeur du seuil u lorsque celui-
ci est fixé entre 5% et 13% des données de l’échantillon. Alexander (2008) a montré
que si l’échantillon est suffisamment grand (près de 2000 observations), alors il y a
suffisamment des données dans les 10% de la queue de la distribution des log des ren-
dements pour obtenir une estimation précise des paramètres d’échelle et de forme de
la GPD.
102 CHAPITRE 6. MODÉLISATION DES RENDEMENTS ET RISQUE ACTION
5
4
4
Mean Excess
Mean Excess
3
3
2
2
1
1
0 0
−5 −4 −3 −2 −1 0 1 2 3 4 −6 −5 −4 −3 −2 −1 0 1 2 3 4
Threshold Threshold
3.5
4
3
Mean Excess
Mean Excess
3 2.5
2
2 1.5
1
1
0.5
0 0
−5 −4 −3 −2 −1 0 1 2 3 4 −4 −3 −2 −1 0 1 2 3
Threshold Threshold
Ainsi, on estime les distributions marginales des résidus standardisés en utilisant une
densité de Kernel pour la distribution centrale et la méthode POT pour les queues en
utilisant 10% des données pour chaque queue. Les résultats d’estimations sont reportés
dans l’appendix C. Dans le graphique ci joint on reporte les fonctions de distributions
semi-paramétriques issues d’une modélisation GP D−Kernel−GP D pour les différents
indices.
Les indices des queues inférieures pour les séries des résidus stadardisés des indices
CAC40, DAX et AEX sont négatifs ce qui révéle que ces queues sont épaisses.
Afin de visualiser graphiquement l’adéquation de l’ajustement GPD aux queues, on
reporte dans le graphique 6.9 l’adéquation des queues inférieures des séries des rende-
ments ajustées par la GPD à la distribution empirique des différents indices. On ap-
plique le test Kolmogorov Smirnov aux séries des rendements pour tester l’hypothèse
H0 : la distribution des rendements est normale contre l’hypothèse alternative H1 : la
distribution des rendements est à queues plus épaisse que la normale. Ce test permet
de valider l’hypothèse alternative au seuil de 5% pour tous les indices excepté l’indice
CAC40 où l’hypothèse alternative est accepté au seuil de 10%.
Probability
0.6 0.6
0.4 0.4
0.2 0.2
0 0
−5 −4 −3 −2 −1 0 1 2 3 4 −6 −5 −4 −3 −2 −1 0 1 2 3 4
CAC40 Standardized Residual DAX Standardized Residual
Probability
0.6 0.6
0.4 0.4
0.2 0.2
0 0
−5 −4 −3 −2 −1 0 1 2 3 4 −5 −4 −3 −2 −1 0 1 2 3 4
AEX Standardized Residual FTSEMIB Standardized Residual
Lower Tail of CAC40 Standardized Residuals Lower Tail of DAX Standardized Residuals
1 1
0.8 0.8
Probability
Probability
0.6 0.6
0.4 0.4
0.2 Fitted Generalized Pareto CDF 0.2 Fitted Generalized Pareto CDF
Empirical CDF Empirical CDF
0 0
−4 −3.5 −3 −2.5 −2 −1.5 −1 −0.5 0 −4 −3.5 −3 −2.5 −2 −1.5 −1 −0.5 0
Exceedance Exceedance
Lower Tail of AEX Standardized Residuals Lower Tail of FTSEMIB Standardized Residuals
1 1
0.8 0.8
Probability
Probability
0.6 0.6
0.4 0.4
0.2 Fitted Generalized Pareto CDF 0.2 Fitted Generalized Pareto CDF
Empirical CDF Empirical CDF
0 0
−3 −2.5 −2 −1.5 −1 −0.5 0 −4 −3.5 −3 −2.5 −2 −1.5 −1 −0.5 0
Exceedance Exceedance
Figure 6.9 – Distributions GP D des queues inférieures des résidus standardisés vs distri-
bution empirique.
104 CHAPITRE 6. MODÉLISATION DES RENDEMENTS ET RISQUE ACTION
0.9999
0.9995
0.999
0.995
0.99
0.95
0.9
0.75
Probability
0.5
0.01
0.005
0.001
0.0005
0.0001
−10 −5 0 5 10 15
Data
Table 6.10 – VaR paramétrique des rendements annuels selon le modèle GP D − AR(1) −
EGARCH(1, 1)-Student par la méthode de simulation des résidus standardisés, m = 20000.
Dans le tableau 6.11 on donne les estimations de la VaR annuelle des portefeuilles de
rendements en utilisant la méthode de simulation des résidus standardisés pour générer
les rendements annuelles selon une modélisation GP D − AR(1) − EGARCH(1, 1).
Deux constats sont à retenir, la première est la stabilité des résultats par rapport
aux pondérations du portefeuille. En effet, on note que pour les différents portefeuilles
6.4. EVALUATION DU CHOC ACTION : (VAR À 99.5%) 105
Table 6.11 – Estimation de la VaR du portefeuille des rendements modélisés par le modèle
GP D − AR(1) − EGARCH(1, 1)-Student en considérants la méthode de calcul de la VaR
d’un portefeuille variance-covariance et avec pondérations des indices selon les poids obtenues
par les différents critères d’optimisation du portefeuille.
Pour les actions globale (type 1), on propose d’évaluer le risque de déviation du choc
action calibré dans le cadre d’une modélisation interne du risque action pour un porte-
106 CHAPITRE 6. MODÉLISATION DES RENDEMENTS ET RISQUE ACTION
feuille hypothétique par rapport à une approximation standard du risque action. Cette
déviation correspondra au risque de base. Le risque de base est lié d’une part à la
différence dans la composition du portefeuille hypothétique par rapport à celui utilisé
par l’EIOPA pour la mesure de risque action et d’autre part à la différence entre les
modèles mis en œuvre pour l’estimation de la mesure de risque VaR à 99.5%.
Pour les organismes assureurs qui utilisent la méthode standard il y a une mesure tran-
sitoire qui a été instauré pour le calcul de leur SCR actions et qui leurs donne un temps
d’adaptation avant d’appliquer les nouvelles dispositions. Cette mesure s’applique aux
actions acquises directement par les organismes assureurs avant le 1er janvier 2016 ou
indirectement via des fonds d’investissement lorsque l’organisme a réalisé un investis-
sement au plus tard le 1er janvier 2016 dans des actions de sociétés d’investissement à
capital variable (SICAV) ou des parts de fonds communs de placement. Cette mesure
transitoire permet de lisser l’impact financier du choc action dans le temps.
Selon cette mesure transitoire qui a été définie au II de l’article R. 352−27 des codes des
assurances, le besoin en capital pour le risque action est calculé sur la base d’un choc
de 22% la première année, ce niveau de choc progressant ensuite de manière au moins
linéaire pour correspondre au choc standard de 39% plus un ajustement symétrique
(actions de type 1) ou 49% plus ajustement symétrique (actions de type 2) le 1er janvier
2023 au plus tard.
En pratique, le choc à retenir s’écrit donc :
La mesure transitoire sur le choc actions s’applique en principe par défaut mais il est
toutefois admis que les organismes ne souhaitant pas utiliser ce dispositif peuvent uti-
liser le choc standard dès 2016.
assurances). Dans ce cas selon l’article R. 352 − 2 du code des assurances ”le capital de
solvabilité requis correspond à la valeur en risque des fonds propres de base de l’entre-
prise d’assurance ou de réassurance, avec un niveau de confiance de 99.5% à l’horizon
d’un an ”. Ainsi le choc action sous module du module risque de marché correspond à
une VaR à 99.5%.
Une modélisation généralisée des valeurs extrêmes effectuées par l’EIOPA sur les ren-
dements annuels de l’indice MSCI Word permet de fixer un choc de 45%. Ce choc est
supporté par la majorité des membres de l’EIOPA.
Toutefois il y a une minorité qui a supporté le calibrage d’un choc standard fondé sur
l’indice MSCI Europe. La raison de ce choix est la bonne diversification géographique
du portefeuille alloué en Europe et sa similarité avec un portefeuille d’un assureur.
D’autant plus comme on peut le voir dans le tableau 3.2, ce choix permet d’avoir un
calibrage plus prudent que celui issu du MSCI World ou une forte diversification peut
donner un calibrage moins élevé.
Notre approche consiste à modéliser les rendements des indices boursiers par des
modèles à variances conditionnelles AR(1) − EGARCH(1, 1) en prenant en compte
des événements extrêmes à travers une modélisation GPD des extrêmes (voir les sec-
tions 6.2 et 6.3). Afin de prendre en compte la stratégie d’investissement de l’assu-
reur dans le calcul du choc action, on procède en premier lieu à optimiser le por-
tefeuille des rendements selon différentes approches qui prennent en compte les ca-
ractéristiques de dispersion, d’asymétrie et des queues épaisses des séries des rende-
ments financiers. Par la suite on modélise les séries des rendements par des modèles
mixtes GP D − AR(1) − EGARCH(1, 1).
Une fois les séries modélisées, on calcul la VaR agrégée du portefeuille en considérant
une formule qui prend en considération les corrélations entre les titres.
Rappelons que le fait de modéliser une série financière par les modèles de type AR(1)−
EGARCH(1, 1) permet de tenir compte du phénomène de l’effet de levier qui est lié
au fait qu’un choc négatif passé a tendance à avoir un impact plus important qu’un
choc positif de même ampleur.
Dans ce qui suit on calcule la sensibilité des résultats trouvés par rapport à un choc
standard ajusté de 49% qui est issus du calibrage de l’indice proxy MSCI World.
Rappelons que notre portefeuille est bien diversifié. On calcule ainsi la sensibilité des
résultats par rapport aux différentes pondérations obtenues selon les différents modèles
d’optimisation. Notons que l’utilisation du proxy MSCI World peut refléter un risque
action non adéquat pour certaines compagnies européennes. Pour cela, nous allons
calculer la sensibilité de nos résultats par rapport à un autre proxy supporté par une
minorité de l’EIOPA qui est l’indice MSCI Europe. Deux valeurs de choc feront notre
référence :
— Le premier choc correspond à 49% : c’est le choc standard de 39% sans formule
transitoire et qui est ajusté au maximum c’est à dire (39 + 10)% = 49%. En effet,
49% correspond à la VaR maximale après ajustement symétrique proposée par
L’EIOPA en considérant l’indice MSCI World et en supposant une modélisation
normale des rendements annuels.
à la place du MSCI Word permet d’avoir sous l’hypothèse de normalité des rendements un
choc de 43% (voir tableau 3.2) qui, ajusté au maximum, peut atteindre 53%. Ce proxy parait
dans ce cas plus adéquat que le proxy MSCI Word.
Dans le tableau 6.13 on donne les écarts entre la VaR estimée par le modèle AR(1) −
EGARCH(1, 1) − Student et les chocs 49% et 55%.
On note que les valeurs estimées dans le tableau sont fondées sur la période 2000-2015.
On peut donner la constatation suivante :
— Selon une modélisation AR(1) − GARCH(1, 1) − Student des rendements observés sur
la période 2000-2015, un choc action égale à 49% n’est pas suffisants pour se couvrir
contre une probabilité de ruine de 0.5%. En effet, un écart négatif dans le tableau 6.13
signifie que le choc standard est insuffisant. Cet écart se ventile entre -3.699% pour une
pondération uniforme et -6.037% pour une pondération obtenue selon le critère CVaR.
— Un choc de 55% (calibré par l’EIOPA en tenant compte des valeurs extrêmes) est
suffisant dans les différents cas excepté le cas de l’optimisation CVaR.
Nous avons refait les estimations des VaR mais sur une période plus courte correspondant
aux trois dernières années. Les résultats reportés dans le tableau 6.14 donnent une VaR
à 99.5% égale à-43.7632% pour un portefeuille uniforme, -45.3650% pour un portefeuille
moyenne variance et -46.6312% pour un portefeuille CVaR. Ceci montre la sensibilité des
estimations par rapport à la profondeur des données utilisées d’une part et d’autre part par
rapport aux critères d’optimisation de portefeuille.
D’après les tableaux 6.13 et 6.14, on remarque qu’une estimation de la VaR sur la base
des rendements observés durant les trois dernières années sous-estime la VaR estimée sur la
base d’une période plus longue. Il est important de bien choisir la période appropriée pour
le calibrage du risque action.
110 CHAPITRE 6. MODÉLISATION DES RENDEMENTS ET RISQUE ACTION
Table 6.13 – VaR à 99.5% des rendements arithmétiques annuels selon la méthode AR(1) −
EGARCH(1, 1) − Student pour un portefeuille diversifié sur une période de 2000-2015.
Table 6.14 – VaR à 99.5% des rendements arithmétiques annuels selon la méthode AR(1) −
EGARCH(1, 1) − Student pour un portefeuille diversifié sur une période de trois ans de
2013-2015.
Table 6.15 – VaR à 99.5% des rendements arithmétiques annuels selon la méthode GP D −
AR(1) − EGARCH(1, 1) − Student pour un portefeuille diversifié sur une période de trois
ans de 2013-2015.
Les résultats de ce tableau montrent qu’un choc standard de 39% plus un ajustement
symétrique n’est pas suffisant pour se couvrir contre une probabilité de ruine de 0.5%. Il
est plus raisonnable de considérer un choc de 45% plus un ajustement symétrique vu les
valeurs de la VaR à 99.5% obtenues dans le tableau 6.15 pour les différentes compositions
des portefeuilles diversifiés. On remarque aussi que les résultats obtenus dépendent de la
profondeur considérée du marché. En effet la prise en compte de plusieurs périodes de crise
(2000-2015) permet de calibrer un choc de 66%, alors que si on prend une période de stabilité
financière (2013-2015) ce choc est approximé par 45%. On note aussi que si les queues sont
modélisées par les valeurs extrêmes alors les résultats sont peu sensibles aux poids des indices
constituant le portefeuille fictif.
6.5 Conclusion
La première conclusion tirée de cette étude est l’insuffisance du choc standard calibré
sur base de l’MSCI WORLD considéré par L’EIOPA pour se couvrir contre une probabilité
de ruine de 0.5%. En effet, comme notre portefeuille est composé par des indices européen,
il est plus adéquat de considérer, si on se place dans un cadre de modèle standard, un
choc de 43% +10% d’ajustement calibré selon l’indice MSCI EUROPE. Ce choc semble
plus adéquat que le choc de 39+10% issu du proxy MSCI World. La deuxième conclusion
concerne l’effet des pondérations des indices sur le choc action. Cet effet est non négligeable
pour une modélisation AR(1)-EGARCH(1,1) et n’existe presque pas pour une modélisation
GP D − AR(1) − EGARCH(1, 1). Cela révèle que la modélisation par des valeurs extrême
élimine l’effet de la dépendance des queues des distributions des rendements (pas d’effet de
diversification). Toutefois, notre étude révèle un caractère erratique et instable de l’évaluation
de la VaR à 99.5% qui dépend de la profondeur des données et aussi du modèle considéré. Ce
problème peut être lié au fait d’utiliser des rendements annualisés à partir d’une fenêtre glis-
sante appliquée aux rendements journaliers. En effet cette procédure permet d’avoir, comme
conséquences, des rendements annuels élevés persistants dans le temps et une structure de
dépendance plus forte que celles observées sur les rendements journaliers directement. Ce
problème a été étudié en détail dans Mittnik (2016).
A l’issue de ses résultats obtenus dans ce chapitre on peut dire donc que l’implémentation
de la formule standard, qui suggère un choc action à 39% plus au moins un ajustement
symétrique, n’est pas prudente. On peut mettre en doute le fait que la formule standard,
112 CHAPITRE 6. MODÉLISATION DES RENDEMENTS ET RISQUE ACTION
telle qu’elle est actuellement proposée par l’EIOPA ne représente pas une réelle prise en
compte du risque action lié à l’activité des assurances.
Chapitre 7
7.1 Introduction
Dans cette partie on propose d’évaluer la probabilitéé d’avoir un ajustement d’un niveau
κ%. Rappelons que la valeur de l’ajustement ou encore du dampener à une date i est donnée
par l’équation (7.1)
Dampeneri = max[min[SAi , 10%], −10%], (7.1)
où SAi désigne la valeur de l’ajustement symétrique avant d’être capé ou floré et est donnée
par (7.2).
1 CIi − AIi
SAi = ( − 8%), (7.2)
2 AIi
de plus dans (7.2), on note
CIi − AIi
Di = , (7.3)
AIi
où
— Di est la distance en pourcentage de la valeur de l’indice par rapport à sa moyenne
mobile sur trois ans.
— CIi est la valeur courante du panier d’indices action de référence proposé par l’EIOPA
— AIi correspond au niveau moyen sur les trois dernières années de la valeur de l’indice
de référence, il est calculé comme étant une moyenne pondérée des valeurs journalières
de l’indice sur les 36 derniers mois.
On désire estimer la probabilité d’avoir une valeur d’ajustement inférieure ou égale à
un niveau κ% ou en fonction de la position dans le cycle : −10% ≤ κ% ≤ 10%. Cette
estimation permet d’avoir un contrôle sur l’evolution du choc action qui sera appliqué dans
le cas où la compagnie utilise le modèle standard. Par exemple, un assureur averse au risque
ne s’interesse pas uniquement à la valeur espérée de l’ajustement symétrique appliquée au
113
114 CHAPITRE 7. AJUSTEMENT SYMÉTRIQUE
choc 39% mais, il veut avoir la probabilité qu’un choc extreme de 49% soit appliqué durant
la prochaine période. On a donc intérêt à evaluer la probabilité d’avoir une juste valeur des
chocs standards.
Par exemple dans le cas extrême, si on désire estimer la probabilité d’avoir un ajustement
de κ = −10% par rapport à la valeur 39% (c’est à dire avoir un choc de 29%), alors on
s’intéresse à la probabilité que les marchés soient en baisse de plus de α = −12%. En effet, en
bas de cycle (lorsque les marchés sont en baisses), la probabilité de hausse est importante et
le SCR doit être réduit. Inversement si on désire estimer la probabilité d’avoir un ajustement
de κ = 10% alors on s’intéresse à la probabilité que les marchés soient en hausse de plus de
α = 28% en effet, en haut de cycle quand la probabilité de baisse est importante on a intérêt
à augmenter le SCR.
Soit DMi qui définit l’évolution de la distance Di en fonction de l’historique passé des
évolutions des distances : Di−1 , . . . , D1 . Soit Xi la variable modélisant la variation de DMi
de plus de α%. Rappelons qu’on s’intéresse à la probabilité de dépasser un niveau α% de
variation de la valeur du portefeuille. Dans ce cas notre variable dépendante Xi à expliquer
prend seulement deux états à savoir dépasser le seuil α% ou non. Xi est dite variable binaire
dépendante de nature discrète. Cette variable prend l’etat 1 si le seuil est dépassé et 0 si non.
Cette modélisation est connue par modélisation à réponse binaire ou modélisation à choix
binaire et permet de modéliser si un événement se produit ou pas. En d’autres termes, on
s’intéresse à la modélisation de la variable Xi = 1{DMi >α} , tel que :
C’est à dire DMi dépend de l’historique passé des évolutions de la distance D. Soit pi
la probabilité conditionnelle à un certain ensemble d’informations Ωi que l’événement se
produit pour l’observation i + 1. Ainsi un modèle à réponse binaire permet de modéliser
cette probabilité.
pi = P(Xi+1 = 1|Ωi ) = E(Xi+1 |Ωi )
L’objectif d’un modèle à réponse binaire est de modéliser cette espérance conditionnelle et
garantit d’avoir une valeur comprise entre 0 et 1.
7.2. MODÈLES POUR L’ESTIMATION DE PI 115
Considérons que la série (Vi )i∈N est donnée par une séquence de Bernoulli i.i.d. de pa-
ramètre ν. Ainsi chaque variable aléatoire a la même distribution de probabilité qu’une
variable aléatoire de Bernoulli V de paramètre ν telles que E(Vi ) = E(V ) = ν et Var(Vi ) =
Var(V ) = ν(1 − ν), pour tout i.
i
X
pi = P(Xi+1 = 1|V i ) = wi,j Vj , (7.5)
j=1
Dans ce cas on propose que l’évolution de Xi+1 , peut être modélisée en utilisant (A) qui
peut être considérée comme une marche aléatoire avec des incréments dépendants.
i
(1) X Vj
pi = P(Xi+1 = 1|V i ) = K i−j
, (A)
j=1 2
pour tout i ∈ N avec K une constante de normalisation telle que K ≤ 0.5, ceci pour assurer
que pi est une probabilité dans [0, 1]. Notons que ce type de modèle a été présenté et étudié
dans Kacem et al. (2016).
Dans l’équation, (A), la loi conditionnelle de Xi sachant V i est telle que les valeurs récentes
du facteur ont plus de poids que les valeurs anciennes.
On note que dans l’équation (A) la somme des poids est inférieure à 1 en effet,
i
X K 2i − 1
i−j
= 2K .
j=1 2 2i
Pour K = 12 , cette somme est égale à 1 − 1/2i qui tend vers 1 lorsque i tend vers l’infini.
Dans ce travail on prendra K = 0.5. Dans ce qui suit on présente les propriétés des moments
(1) (1)
de pi et de Xi . Il est facile de voir
i
(1)
1/2i−j → 2Kν,
X
E(pi ) = KE(V ) for i → +∞.
j=1
De plus,
(1)
Var(pi ) = (4K 2 /22i ) Var(V )(22i − 1)/3 + ν 2 (22i + 1 − 2i+1 ) − 4K 2 ν 2 (1 − (1/2i ))2 , (7.6)
Ainsi,
(1) 4 2
Var(pi ) → K Var(V ). (7.7)
3
(1)
On note que la variabilité de pi est une fonction croissante de la variabilité du facteur V .
Dans la figure 7.1 on présente des trajectoires arbitraires du paramètre (pi )1≤i≤n avec
(Vi )1≤i≤n une suite de v.a.s de Bernoulli i.i.d. de paramètre ν. On note que sachant V i = v i ,
pi est déterministe. Mais, tant que le facteur n’est pas connu, la suite pi est une marche
aléatoire dépendante. A partir de la figure 7.1 on note que plus le paramètre ν du facteur V
(1)
est extrémal (i.e. proche des valeurs 0 et 1) moins la suite (pi )1≤i≤n est dispersée.
On note que
(1)
E(Xj+1 ) = E(pj ), (7.8)
1 1
Var(Xj+1 ) = 2Kν(1 − ) 1 − 2Kν(1 − ) (7.9)
2j 2j
7.2. MODÈLES POUR L’ESTIMATION DE PI 117
1.0
1.0
1.0
0.8
0.9
0.8
0.8
0.8
0.6
0.6
0.6
0.7
p_i
p_i
p_i
p_i
0.4
0.4
0.4
0.6
0.2
0.5
0.2
0.2
0.4
0.0
0.0
0.0
0 200 400 600 0 200 400 600 0 200 400 600 0 200 400 600
i i i i
(1)
Figure 7.1 – Trajectoires arbitraires de (pi )1≤i≤n , pour n = 600, K = 0.5 et pour différentes
valeurs de ν.
d’où,
Var(Xj+1 ) → 2 K ν (1 − 2Kν), (7.10)
et , pour tout t > j,
Ainsi à partir de (7.9), (7.11) (resp. (7.6) et (7.11)), la fonction d’autocorrélation pour
(1) (1) (1) (1)
tout t > j est donnée par ρ(Xj+1 , Xt+1 ) = ρ(Xj+1 , Xj+1+z ) (resp. ρ(pj , pt ) = ρ(pj , pj+z )),
avec z = t − j.
(1)
Remarquons que si Xi+1 est une v.a. de Bernoulli de paramètre E(pi ) alors Var(Xi+1 ) =
(1) (1) (1) (1) (1) (1) (1)
E(pi )(1 − E(pi )) = E(pi ) − E(pi )2 et Var(pi ) = E((pi )2 ) − E(pi )2 6= Var(Xi+1 ). Ceci
(1) (1)
n’est pas le cas pour Cov(Xj+1 , Xt+1 ), t 6= j puisque Cov(Xj+1 , Xt+1 ) = Cov(pj , pt ). En
effet, en utilisant la propriété d’indépendance conditionnelle on a
(7.12)
Cov(Xj+1 , Xt+1 ) = E(E(Xj+1 = 1, Xt+1 = 1|V sup{t,j} )) − E(Xj+1 )E(Xt+1 ) (7.13)
(1) (1) (1) (1) (1) (1)
= E(pj pt ) − E(pj )E(pt ) = Cov(pj , pt ). (7.14)
118 CHAPITRE 7. AJUSTEMENT SYMÉTRIQUE
Pour cette deuxième modélisation, on considère une moyenne mobile pour les obsevations
passées du facteur de telle sorte que, à une date donnée i, la probabilité conditionnelle de
Xi sachant le facteur V i est donnée par
i
(2) 1X
pi = P(Xi+1 = 1|V i ) = Vj . (B)
j j=1
L’idée est de voir lequel des deux modèles p(1) et p(2) ajuste mieux la probabilité que le
dampener de la période suivante soit d’un niveau supérieur à κ.
A partir de la série des (Di )1≤i≤n qui est déjà disponible sur le site de l’EIOPA on
détermine la série des Vi : Vi prend 1 si Di > α% et zéro sinon. Une fois les V1≤i≤n déterminés,
(1) (2) (1) (2)
on calcul (pi )1≤i≤n et (pi )1≤i≤n . A chaque date i, pi (resp. pi ) correspond à l’estimation
de la probabilité que la variation de la valeur du portefeuille pendant la prochaine période
soit supérieur à α% selon le modèle (A) (resp. le modèle (B)).
Par la suite pour le backtesting du modèle, on utilise la technique de monte carlo pour
estimer l’erreur absolue moyenne des deux modèles et ceci par la formule suivante : soit m
le nombre de simulation monte carlo
m X n
1 X (j)A
EAMA = |Xi − Vi |. (7.17)
m j=1 i=2
et m X n
1 X (j)B
EAMB = |Xi − Vi |. (7.18)
m j=1 i=2
On s’intéresse également à l’ecart absolu moyen à une date fixé n
m
1 X A
EAMAn+1 = |Xn(j) − Vn |. (7.19)
m j=1
m
1 X B
EAMBn+1 = |Xn(j) − Vn |. (7.20)
m j=1
7.2. MODÈLES POUR L’ESTIMATION DE PI 119
On donne notre procedure de simulation dans le tableau 7.1 où pour chaque j ∈ [1, m] on a :
Pour déterminer lequel des deux modèles est le meilleur on calcul la log vraisemblance de
chacun d’eux. Rappelons que les Xi sont dépendantes mais conditionnellement indépendantes
par rapport à V i . Dans ce cas la vraisemblance du modèle conditionnelle est donnée par
n
Y
L= P(Xi+1 = xi+1 |V i = v i )
i=1
La Vraisemblance du modèle non conditionnelle peut être approchée par l’expression suivante
Ainsi n
X Y
G= P (V n = v n ) P(Xi+1 = xi+1 |V i = v i ).
(v∈{0,1})n i=1
Or
n P P
ν vi (1 − ν)1−vi = ν vi
(1 − ν)n− vi
Y X X
P (V n = v n ) = = P(V n = v n | vi = k)P( vi = k).
i=1
120 CHAPITRE 7. AJUSTEMENT SYMÉTRIQUE
D’où n n
X X X Y
G= P(V n = v n | vi = k)P( vi = k) × P(Xi+1 = xi+1 |V i = v i ) .
k=0 | {z } i=1
(1) | {z }
(?)
Le terme (1) de cette vraisemblance est connu et est le même pour les deux modèles de pi .
Par contre, le terme (?) dépend de V i . De plus, c’est le terme qui fait la différence entre
les deux modèles de pi . Pour cela, pour comparer les vraisemblances non conditionnelles des
modèles il suffit de comparer les vraisemblances conditionnelles des modèles données par L.
Rappelons que
P(Xi+1 = xi+1 |V i = v i ) = (pi )xi+1 × (1 − pi )(1−xi+1 )
Dans ce cas l’expression du log vraisemblance est donnée par
n
X n
X i
X i
X
`= xi+1 ln(pi ) + (1 − xi+1 ) ln(1 − pi ) = xi+1 ln( wi,j Vj ) + (1 − xi+1 ) ln(1 − wi,j Vj )
i i j=1 j=1
1) modèle A) :
n i i
X X KVj X KVj
`= xi+1 ln( i−j
) + (1 − x i+1 ) ln(1 − i−j
) (7.21)
i j=1 2 j=1 2
2) modèle B)
n i i
X 1X 1X
`= xi+1 ln( Vj ) + (1 − xi+1 ) ln(1 − Vj ) (7.22)
i i j=1 i j=1
On dispose de la série des données Di relative à l’indice de l’EIOPA sur la période juillet
1991 à fevrier 2016. Cette série est représentée dans la figure 7.2. Sur la figure 7.3, on constate
7.3. APPLICATION À L’INDICE DE L’EIOPA 121
que toutes les autocorrélations sont significativement différentes de zéro et diminuent très
lentement, et que la première autocorrélation partielle est significativement différente de
zéro. Ceci révèle d’une série non stationnaire.
0.8
0.6
0.4
0.2
−0.2
−0.4
−0.6
0 1000 2000 3000 4000 5000 6000 7000 8000 9000
0.8
0.8
0.6
0.6
Partial ACF
ACF
0.4
0.4
0.2
0.2
0.0
0.0
0 10 20 30 40 0 10 20 30 40
Lag Lag
Notre objectif est de donner une meilleure estimation de pn , où pn est la probabilité que
DMn+1 ≥ α. Pour la modélisation de cette probabilité on a proposé deux modèles : un
modèle avec faible dépendance A et un modèle avec moyenne mobile B.
V
nu
0.8
0.6
V
0.4
0.2
0.0
Figure 7.4 – Représentation de la série (Vi )1≤i≤n de l’indice EIOPA pour κ = 10% avec ν
la moyenne de la série V .
1.0
1.0
0.8
0.8
0.6
0.6
Partial ACF
ACF
0.4
0.4
0.2
0.2
0.0
0.0
0 10 20 30 40 0 10 20 30 40
Lag Lag
L’estimation des probabilités (pi ), 1 ≤ i ≤ n selon les deux modèles A et B est représentée
dans le graphique 7.6. On note que dans le cas d’une estimation par le modèle à faible
(1)
dépendance (pi ), 1 ≤ i ≤ n, le caractère cyclique de V est gardé.
nu
0.8
p1
0.4
0.0
nu
0.20
p2
0.00
i
(1) (2)
Figure 7.6 – Séries (pi ) et (pi ), 1 ≤ i ≤ n de l’indice EIOPA pour κ = 10%.
(1) (2)
On représente dans le graphique 7.7, les séries Vi , (pi ) et (pi ), 1 ≤ i ≤ n superposées.
124 CHAPITRE 7. AJUSTEMENT SYMÉTRIQUE
(1)
Il est claire que la série des probabilités (pi ), 1 ≤ i ≤ n retrace la trajectoire de V . A partir
(1) (2)
de cette analyse graphique, la série (pi ), 1 ≤ i ≤ n rapproche mieux que (pi ), 1 ≤ i ≤ n
l’évolution de V .
1.0
V
p1
p2
0.8
0.6
0.4
0.2
0.0
(1) (2)
Figure 7.7 – Séries Vi , (pi ) et (pi ), 1 ≤ i ≤ n de l’indice EIOPA pour κ = 10%.
V p(1) p(2)
On estime l’EAM selon la procédure suivie dans le tableau 7.1. On remarque d’après le
tableau 7.2 que sur toute la période d’observation, c’est le modèle A qui minimise l’écart
absolu moyen entre la série de la vrai évolution modélisée par V et la série estimée X.
Empirical CDF
1
0.9
0.8
0.7
0.6
F(x)
0.5
0.4
0.3
0.2
0.1
0
−0.1 −0.08 −0.06 −0.04 −0.02 0 0.02 0.04 0.06 0.08 0.1
x
D’après les tableaux 7.4 et 7.5 on remarque la surperformance du modèle A par rapport au
modèle B dans la prédiction de la probabilité d’avoir un dampener de valeur κ en moyenne.
De plus, on remarque que le modèle 7.4 est celui qui minimise l’EAM de prévision pour les
différentes valeurs κ testées. En contrôlant l’erreur de prédiction uniquement pour la dernière
période c’est à dire n, on remarque que EAM n+1 est nulle dans la plus part des cas pour le
modèle A, ceci signifie que sur les m = 100 simulations la probabilité de se tromper dans la
prédiction de l’évolution du dampener durant la prochaine période (ici 01/03/2016) est nulle,
ce qui n’est pas le cas avec le modèle B ou l’erreur de prédiction EAM n+1 est fréquente. En
effet, la valeur du dampener à la date 01/03/2016 observée ex-post est égale à -3.32% (voir
site de l’EIOPA). Ce taux est supérieur à -10%. Selon le modèle A la probabilité, estimée à
la date 29/02/2016 q’un ajustement de -10% sera appliqué demain le 01/03/2016, est égale
à zéro alors que cette probabilité est égale à 0.175 selon le modèle B.
126 CHAPITRE 7. AJUSTEMENT SYMÉTRIQUE
Moyenne p(1) 0.149 0.185 0.294 0.372 0.553 0.471 0.392 0.226 0.175
EAM 7.17 0.010 0.010 0.014 0.012 0.015 0.012 0.014 0.014 0.010
Moyenne p(2) 0.089 0.111 0.216 0.357 0.539 0.446 0.382 0.228 0.182
EAM 7.17 0.202 0.241 0.368 0.440 0.463 0.469 0.451 0.337 0.283
EAM n+1 7.19 0.18 0.21 0.73 0.71 0.49 0.53 0.39 0.16 0.23
Dans le tableau 7.6 on donne les valeurs des log de vraisemblance estimées par méthode
de simulations monte carlo selon (7.21) et (7.22). Les résultats montrent que le modèle A
avec mémoire courte est le plus adéquat pour la modélisation de la probabilité d’evolution
du dampener.
7.4 Conclusion
Les résultats obtenus montre la performance du modèle type mémoire courte qui est le
modèle A dans la prédiction de la probabilité d’avoir un ajustement d’un niveau κ dans
la prochaine date. L’ajustement de la loi du dampener par une loi non paramétrique ne
semble pas facile vu que cette distribution est limité à droite et à gauche par les valeurs +-
10%. En d’autres termes nous avons une distribution d’une variable continue sur un support
[−10%, 10%] avec des grandes proportions aux points +10% et -10%. De plus, une telle
modélisation ne permet pas d’avoir un ajustement dynamique et journalier des données en
7.4. CONCLUSION 127
Modèle -272.54 -306.71 -426.24 -472.08 -499.46 -500.73 -465.29 -351.65 -303.98
A
Modèle -414.08 -473.95 -601.39 -652.43 -686.92 -687.79 -663.62 -532.95 -466.47
B
fonction de l’actualité des marchés. C’est pour cette raison que nous avons essayé dans ce
mémoire de trouver un modèle de prédiction de la probabilité d’avoir un ajustement donné
à une date fixée.
Conclusion et perspectives
128
129
Conclusion
On considère dans la première partie de l’étude empirique des portefeuilles d’indice action
qui peuvent être composés à partir des portefeuilles actions suivants : CAC40, DAX, AEX,
FTSEMIB, FTSE100, SP500 et SMI. On a choisi de travailler sur ces indices car ils composent
l’indice global MSCI sur lequel l’EIOPA se base pour modéliser le choc action. On propose
de déterminer la composition optimale du portefeuille sous contrainte de rendement et ceci
selon les critères d’optimisation suivants : moyenne-variance, moyenne-variance-skewness,
moyenne-variance-skewness-kurtosis et le critère CVaR. Des différences sont à noter entre
les poids obtenus lorsque l’optimisation est fondée sur les deux, trois ou quatre premiers
moments. De plus, puisque les distributions sont asymétriques et non normales, les critères
d’optimisation CVaR et MV ont conduit à des différences dans la pondération des indices.
Dans la deuxième partie de notre étude, on s’intéresse à l’évaluation du choc action dans
le cadre d’une modélisation interne du risque. Les rendements journaliers des actions sont
souvent caractérisés par un fait stylisé connu par le clustering de volatilité. Selon ce fait, les
périodes de forte volatilité alternent avec les périodes de faible volatilité. Plusieurs modèles
sont utilisés pour analyser et prévoir la volatilité dans ce cadre. On propose de modéliser les
rendements journaliers des indices boursiers par plusieurs modèles à variance conditionnelle
dont les modèles : GARCH(1,1), EGARCH(1,1), AR(1)-GARCH(1,1) et le modèle AR(1)-
EGARCH(1,1). Selon notre étude, le modèle AR(1)-EGARCH(1,1) est le plus adéquat pour
la modélisation des séries des rendements journaliers. Pour la validation du modèle, on a
établi une procédure de Baktesting à travers le critère de la VaR.
De plus, on propose de modéliser les extrêmes par un modèle Generalized Pareto Distri-
bution (GPD). Selon cette approche on s’intéresse à la modélisation des queues inférieures et
supérieures des séries de rendements logarithmiques journaliers par une GPD conçue pour la
modélisation de la loi des excès au-delà d’un seuil élevé et par un Kernel pour la modélisation
130 CONCLUSION ET PERSPECTIVES
Ainsi, après avoir modélisé les séries des rendements on a calculé la VaR(99.5) annuelle du
portefeuille. Le choc action était évalué pour les différentes pondérations des indices compo-
sant le portefeuille optimisé selon les critères d’optimisation considérés dans ce mémoire.
A l’issue de notre étude, on note l’insuffisance du choc standard, calibré par L’EIOPA
sur base de l’indice MSCI WORLD, pour couvrir notre portefeuille fictif contre une pro-
babilité de ruine de 0.5%. De plus, concernant l’effet des pondérations des indices sur
le choc action, on note que pour une modélisation AR(1) − EGARCH(1, 1) le choc ac-
tion est impacté par les poids des indices ce qui n’est pas le cas pour une modélisation
GP D − AR(1) − EGARCH(1, 1). Cela révèle que la modélisation par des valeurs extrêmes
peut éliminer l’effet de la dépendance des queues des distributions des rendements.
Dans la dernière partie de notre travail qui porte sur le dampener on s’intéresse à
l’évaluation de la probabilité que l’ajustement, durant la période suivante, dépasse un niveau
κ%. Ceci permet à l’assureur d’estimer à l’avance la probabilité de voir son choc réduit ou au
contraire amplifié. Notre objectif à partir de la modélisation de la probabilité de réalisation
d’un dampener de valeur κ est de proposer un modèle de prédiction de la probabilité κ qui
s’ajuste au mieux avec le caractère pro-cyclique du dampener. On a proposé deux estima-
teurs de cette probabilité qui prennent en compte la dépendance qui peut exister entre les
évolutions passées du dampener : l’un à mémoire courte et l’autre à mémoire longue. On
note que le modèle à mémoire courte a été présenté dans Kacem et al. (2016). Les résultats
montrent que le modèle avec mémoire courte est le plus adéquat.
Limites et Perspectives
Notre modélisation des séries des rendements des différents indices ne tient pas compte
de la corrélation dynamique qui peut exister entre les différents indices. Notre travail peut
être amélioré en considérant une modélisation de la dépendance spatiale entre les différents
indices à travers les copules et en considérant une allocation dynamique du portefeuille
d’indice. De plus, notons que les estimations de la VaR du portefeuille à un an sur la base
des rendements journaliers peut avoir une influence sur les résultats trouvés. Une autre limite
de notre travail est liée au choix de la profondeur de l’historique des données. En effet, selon
la période considérée, les résultats peuvent être considérablement différents.
Table des figures
3.1 Divers modules de risque selon solvabilité II. Source : QIS4 Technical Specifi-
cations (MARKT/2505/08). . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.2 Etude EIOPA pour le calibrage standard du risque action. Source : CEIOPS-
DOC-65/10 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
3.3 Le calibrage standard du risque action selon Solvabilité II. Source : CEIOPS-
DOC-65/10. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.5 Rendements arithmétiques annuels des indices CAC40. DAX. AEX et FTSE-
MIB. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
5.1 Comparaison des frontières efficientes des fonds 1 et 2 selon le critère Moyenne-
Variance. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
131
132 TABLE DES FIGURES
5.4 Comparaison des frontières efficientes des fonds 1 et 2 selon le critère CVAR,
α = 99%. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
6.2 Fonction d’autocorrélation des résidus et des carrés des résidus des rende-
ments logarithmiques journaliers du Cac40 issus d’une modélisation AR(1)-
EGARCH(1,1). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
6.3 Estimation de la VaR selon les méthodes historique et normale pour le CAC40. 93
6.6 Histogramme des fréquences des rendements annuels simulés par le modèle
AR(1)-EGARCH(1,1)-Student. . . . . . . . . . . . . . . . . . . . . . . . . . 99
(1)
7.1 Trajectoires arbitraires de (pi )1≤i≤n , pour n = 600, K = 0.5 et pour différentes
valeurs de ν. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
7.4 Représentation de la série (Vi )1≤i≤n de l’indice EIOPA pour κ = 10% avec ν
la moyenne de la série V . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
(1) (2)
7.7 Séries Vi , (pi ) et (pi ), 1 ≤ i ≤ n de l’indice EIOPA pour κ = 10%. . . . . . 124
5.1 Proportions investies dans chaque titre selon le critère d’optimisation Moyenne-
Variance. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
5.3 Proportions investies dans chaque titre selon le critère d’optimisation CVaR,
α = 99%. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
6.3 VaR paramétrique des rendements Journaliers selon les modèles I et II, m =
10000. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
6.5 P-value des tests statistiques du Backtesting pour l’indice CAC40 pour un
risque de première espèce de 5%. . . . . . . . . . . . . . . . . . . . . . . . . 96
6.6 VaR paramétrique des rendements annuels (en %) selon le modèle AR(1)-
EGARCH(1,1)-Student. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
134
LISTE DES TABLEAUX 135
6.13 VaR à 99.5% des rendements arithmétiques annuels selon la méthode AR(1)−
EGARCH(1, 1) − Student pour un portefeuille diversifié sur une période de
2000-2015. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
6.14 VaR à 99.5% des rendements arithmétiques annuels selon la méthode AR(1)−
EGARCH(1, 1) − Student pour un portefeuille diversifié sur une période de
trois ans de 2013-2015. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
.
Appendix
138
Annexe A
139
Annexe B
Dans le tableau B.1 on donne les résultats d’estimations du modèle AR(1)-GARCH(1,1) avec
innovations Student.
On note que l’application du test Ljung-Box pour tester l’autocorrélation des résidus stan-
dardisés et du test ARCH pour tester l’hypothèse nulle d’hétéroscédasticité, permet de valider la
non autocorrélation des résidus standardisés et de confirmer leurs homoscédasticités. De ce fait, le
modèle AR(1)-GARCH(1,1) (In. Student) est valide pour la modélisation des rendements CAC40.
On note que la même démarche est faite pour les autres titres.
Dans la figure B.1, on présente les résidus standardisés et la volatilité conditionnelle de la série
des rendements obtenus selon le modèle AR(1)-GARCH(1,1).
140
141
5
Résidus standardisés
−5
0
0 500 1000 1500 2000 2500 3000 3500 4000
Date
et par II le modèle
AR(1) − EGARCH(1, 1) − Student (II)
. Dans le tableau 6.3on donne les rendements journaliers des titres selon les modèles (I) et (II).
Selon le tableau B.3 on remarque que pour chaque titre la mesure MSE obtenues pour le modèle I
sont supérieurs à ceux obtenues pour le modèle II. Selon ce critére le modèle AR(1)-EGARCH(1,1)-
Student à un pouvoir prédictif meilleur que celui du modèle AR(1)-GARCH(1,1)-Student.
Dans le tableau B.4 on donne les résultats d’stimation des VaR à un an selon le modèle
AR(1) − GARCH(1, 1)-Student :
142 ANNEXE B. ESTIMATION AR(1) − GARCH(1, 1)
Table B.3 – MSE pour les modèles AR(1) − EGARCH(1, 1)-Student et AR(1) −
GARCH(1, 1)-Student
143
Bibliographie
Abad, P. & Benito, S. (2013), ‘A detailed comparison of value at risk estimates’, Mathematics
and Computers in Simulation 94, 258–276. 33
Abad, P., Muela, S. B. & Martı́n, C. L. (2015), ‘The role of the loss function in value-at-risk
comparisons’, The Journal of Risk Model Validation 9(1), 1. 33
Alexander, C. (2008), ‘Market risk analysis, quantitative methods in finance’, (I). 101
Alexander, S., Coleman, T. F. & Li, Y. (2006), ‘Minimizing cvar and var for a portfolio of
derivatives’, Journal of Banking & Finance 30(2), 583–605. 52
Arias, L., Arouri, M., Foulquier, P. & Gregoir, S. (2010), ‘On the suitability of the calibration
of private equity risk in the solvency ii standard formula’, Publication of the EDHEC
Financial Analysis and Accounting Research Centre. World Wide Web : www. edhec-risk.
com . 88
Artzner, P., Delbaen, F., Eber, J.-M. & Heath, D. (1999), ‘Coherent measures of risk’,
Mathematical finance 9(3), 203–228. 29, 50
Basak, S. & Shapiro, A. (2001), ‘Value-at-risk-based risk management : optimal policies and
asset prices’, Review of Financial studies 14(2), 371–405. 50
Ben Salah, H. (2015), The Management of financial assets : from Classical Approach to the
Nonparametric Modelling in the DownSide Risk Estimation in Order to Get an Optimal
Portfolio, PhD thesis, Université Claude Bernard - Lyon I. 44
Bourbonnais, R. & Terraza, M. (2008), Analyse des séries temporelles - 2ème édition, Éco
Sup, Dunod. 67, 89
Braun, A., Schmeiser, H. & Schreiber, F. (2015), ‘Solvency ii’s market risk standard formula :
How credible is the proclaimed ruin probability ?’, Journal of insurance issues pp. 1–30.
88
144
BIBLIOGRAPHIE 145
Campbell, R., Huisman, R. & Koedijk, K. (2001), ‘Optimal portfolio selection in a value-at-
risk framework’, Journal of Banking & Finance 25(9), 1789–1804. 41, 50, 51
CEIOPS (2010), ‘Ceiops’ advice for level 2 implemnting measures on solvency ii : Article
111 et 304, equity risk sub-module’. 61
Chakraborti, A., Toke, I. M., Patriarca, M. & Abergel, F. (2011), ‘Econophysics review : Ii.
agent-based models’, Quantitative Finance 11(7), 1013–1041. 27
Chunhachinda, P., Dandapani, K., Hamid, S. & Prakash, A. J. (1997), ‘Portfolio selection
and skewness : Evidence from international stock markets’, Journal of Banking & Finance
21(2), 143–167. 44
EIOPA (2015), ‘Final report on public consultation no. 14/058 on the implementing technical
standards on the equity index for the symmetric adjustment of the equity capital charge’.
59
Falloul, M. E. M. (2015), ‘Calcul d’une value at risk cas d’un portefeuille diversifié [calculation
of value at risk case of a diversified portfolio]’, International Journal of Innovation and
Applied Studies 10(2), 551. 30
Gaivoronski, A. A. & Pflug, G. (1999), Finding optimal portfolios with constraints on value
at risk, in ‘Proceedings III Stockholm seminar on risk behavior and risk management’. 50
Gilli, M. et al. (2006), ‘An application of extreme value theory for measuring financial risk’,
Computational Economics 27(2-3), 207–228. 35
Holton, G. A. (2003), Value-at-risk : theory and practice, Vol. 2, Academic Press New York.
31
Hurlin, C. & Tokpavi, S. (2008), ‘Une évaluation des procédures de backtesting’, Finance
29(1), 53–80. 31, 33, 96
Jondeau, E. & Rockinger, M. (2006), ‘Optimal portfolio allocation under higher moments’,
European Financial Management 12(1), 29–55. 19, 44, 46, 82
Jorion, P. (2006), Value at Risk : The New Benchmark for Managing Risk, McGraw-Hill,
3nd edition. 30
Kaura, V. (2005), Portfolio optimisation using value at risk, PhD thesis, Master’s thesis,
Imperial College London, 2005.[cited at p. 14]. 50
Krokhmal, P., Palmquist, J. & Uryasev, S. (2002), ‘Portfolio optimization with conditional
value-at-risk objective and constraints’, Journal of risk 4, 43–68. 50
Lai, T.-Y. (1991), ‘Portfolio selection with skewness : A multiple-objective approach’, Review
of Quantitative Finance and Accounting 1(3), 293–305. 44
Le Maistre, A. & Planchet, F. (2014), ‘A proposal of interest rate dampener for solvency ii
framework introducing a three factors mean reversion model’. 59
Levy, H. (1969), ‘A utility function depending on the first three moments’, The Journal of
Finance 24(4), 715–719. 45
Lux, T. (1996), ‘The stable paretian hypothesis and the frequency of large returns : an
examination of major german stocks’, Applied financial economics 6(6), 463–475. 45
Mausser, H. & Romanko, O. (2014), ‘Cvar proxies for minimizing scenari based value at
risk’, Journal of Industrial and Management Optimization 10(4), 1109–1127. 50
Mausser, H. & Rosen, D. (1999), Beyond var : From measuring risk to managing risk, in
‘Computational Intelligence for Financial Engineering, 1999.(CIFEr) Proceedings of the
IEEE/IAFE 1999 Conference on’, IEEE, pp. 163–178. 50
McNeil, A. J. & Frey, R. (2000), ‘Estimation of tail-related risk measures for heteroscedastic
financial time series : an extreme value approach’, Journal of empirical finance 7(3), 271–
300. 101
Mhiri, M. & Prigent, J. L. (2010), ‘International portfolio optimization with higher moments’,
International Journal of Economics and Finance 2(5), 157. 44
Mills, T. C. (1995), ‘Modelling skewness and kurtosis in the london stock exchange ft-se
index return distributions’, The Statistician pp. 323–332. 18
Mittnik, S. (2016), ‘Solvency ii calibrations : Where curiosity meets spuriosity’. 98, 111
Müller, S. M. & Machina, M. J. (1987), ‘Moment preferences and polynomial utility’, Eco-
nomics Letters 23(4), 349–353. 46
Ogryczak, W. & Ruszczyński, A. (2002), ‘Dual stochastic dominance and quantile risk mea-
sures’, International Transactions in Operational Research 9(5), 661–680. 52
BIBLIOGRAPHIE 147
Parrák, R., Seidler, J. et al. (2010), ‘Mean-variance & mean-var portfolio selection : A simu-
lation based comparison in the czech crisis environment’, Institute of Economic Studies,
Faculty of Social Sciences Charles University in Prague . 51
Peiro, A. (1999), ‘Skewness in financial returns’, Journal of Banking & Finance 23(6), 847–
862. 18
Pfeifer, D. & Strassburger, D. (2008), ‘Solvency ii : stability problems with the scr aggregation
formula’, Scandinavian actuarial journal 2008(1), 61–77. 13, 16, 88, 104
Pflug, G. C. (2000), Some remarks on the value-at-risk and the conditional value-at-risk, in
‘Probabilistic constrained optimization’, Springer, pp. 272–281. 52
Rama.Cont (2001), ‘Empirical properties of asset returns : stylized facts and statistical is-
sues’, Quantitative Finance 1(2), 223–236. 18, 27
Rockafellar, R. T. & Uryasev, S. (2002), ‘Conditional value-at-risk for general loss distribu-
tions’, Journal of banking & finance 26(7), 1443–1471. 52
Sarma, M., Thomas, S. & Shah, A. (2003), ‘Selection of value-at-risk models’, Journal of
Forecasting 22(4), 337–358. 33, 96
Sarykalin, S., Serraino, G. & Uryasev, S. (2008), ‘Value-at-risk vs. conditional value-at-
risk in risk management and optimization’, Tutorials in Operations Research. INFORMS,
Hanover, MD pp. 270–294. 50, 51
Von Neumann, J. & Morgenstern, O. (1944), Theory of games and economic behavior, Prin-
ceton university press. 39