Vous êtes sur la page 1sur 147

Mémoire présenté le : 06/09/2017

pour l’obtention du Diplôme Universitaire d’actuariat de l’ISFA


et l’admission à l’Institut des Actuaires

Par : Manel KACEM


Titre Modélisation du risque action, ajustement symétrique et optimisation de
portefeuille dans le cadre de Solvabilité-II.
Confidentialité : * NON  OUI (Durée :  1 an  2 ans)

Les signataires s’engagent à respecter la confidentialité indiquée ci-dessus


Membre présents du jury de l’Institut signature Entreprise :
des Actuaires
Mme Catherine Pigeon Nom : Laboratoire SAF de l’ISFA.
M. Jean-Baptiste Verchay Signature :
Membres présents du jury de l’ISFA Directeur de mémoire en entreprise :
Mme Véronique Maume- Nom : Didier RULLIERE
Deschamps Signature :
M. Didier Rulliere Invité :
M. Pierre Thérond Nom :
Signature :
Autorisation de publication et de mise en
ligne sur un site de diffusion de
documents actuariels (après expiration de
l’éventuel délai de confidentialité)
Signature du responsable entreprise

Secrétariat :
Mme Christine DRIGUZZI
Bibliothèque :
Mme Patricia BARTOLO Signature du candidat

Manel Kacem
3

Résumé

Dans ce mémoire on s’intéresse au calibrage du risque action sous Solvabilite-II en prenant


en compte la composition du portefeuille dans l’évaluation du choc action. On commence
par calculer la composition de notre portefeuille d’indices sous contrainte de rendement et
ceci selon différentes méthodes de sélection de portefeuille. En particulier on considère le
critère d’optimisation moyenne-variance, les critères incorporants les moments supérieurs à
deux et le critère CVaR. Par la suite le choc action sous Solvabilite-II est calculé après avoir
modélisé les séries des rendements par des modèles à variance conditionnelle combinés avec
une modélisation GPD des extrêmes. On s’intéresse également à la notion de l’ajustement
symétrique du choc standard du risque action. Pour cela, on propose un modèle qui permet
de quantifier la probabilité d’avoir un ajustement symétrique d’un niveau donné.

Mots clés : Risque action ; optimisation de portefeuille ; modèles à variance condition-


nelle ; ajustement symétrique ; Value-At-Risk.

Abstract

In this work, we are interested by the calibration of the equity-risk under Solvency-II. We
consider portfolio composition in assessing of the equity-shock. We begin by calculating the
composition of our portfolio under yield constraint according to several optimization criteria
which are: the mean-variance criterion, the criterion with moments of order greater than
two and the criterion CVaR. Subsequently the equity-shock under Solvency-II is calculated
after modeling the series of returns by the use of conditional variance models combined with
a GPD modeling for extreme values. We are also interested by the notion of symmetric ad-
justment of the standard formula for equity-risk. In fact, we propose a model that quantifies
the probability of having a symmetric adjustment of a given level.

Keywords: Equity-risk; portfolio optimization; conditional variance models; symmetric


adjustment, Value-At-Risk.
5

Remerciement

Je tiens à remercier Didier Rullière pour avoir accepté de diriger ce mémoire. Je le


remercie pour ces conseils ainsi que pour sa disponibilité.

Merci à toute l’équipe enseignante de l’ISFA pour la qualité de leurs enseignements et


également à toute l’équipe administrative pour leur bienveillance et pour leur disponibilité.

Je souhaite enfin remercier Christian Robert, directeur du laboratoire SAF de l’ISFA


ainsi que les responsables de la formation Actuariat.

Enfin, je remercie toutes les personnes qui m’ont aidé à la réalisation de ce mémoire.
Contents

Synthèse 13

Synthesis 16

Table des matières 17

Introduction 22

I Partie Théorique 23

1 Notions utiles 25

1.1 Rendements financiers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

1.1.1 Rendements des titres financiers . . . . . . . . . . . . . . . . . . . . . 26

1.1.2 Caractéristiques des rendements financiers . . . . . . . . . . . . . . . 27

1.2 Mesures de Risque : VaR et CVaR . . . . . . . . . . . . . . . . . . . . . . . . 28

1.2.1 La Value-at-Risk : VaR . . . . . . . . . . . . . . . . . . . . . . . . . . 28

1.2.2 La Tail Value-at-Risk : TVaR . . . . . . . . . . . . . . . . . . . . . . 29

1.2.3 La Conditionnal-Value-at-Risk : CVaR . . . . . . . . . . . . . . . . . 30

1.3 Méthodes de calcul de la VaR . . . . . . . . . . . . . . . . . . . . . . . . . . 30

1.3.1 VaR− Variance-Covariance : . . . . . . . . . . . . . . . . . . . . . . . 30

1.3.2 VaR− Simulation Historique (VaR−HS) . . . . . . . . . . . . . . . . 31

1.3.3 Monte-Carlo-Simulation . . . . . . . . . . . . . . . . . . . . . . . . . 31

7
8 CONTENTS

1.3.4 Validation d’une prévision VaR . . . . . . . . . . . . . . . . . . . . . 32

1.4 Modélisation GPD . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

1.5 Les Modèles des séries temporelles à variance conditionnelle . . . . . . . . . 35

1.5.1 ARCH(q) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

1.5.2 GARCH(p,q) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36

1.5.3 EGARCH(p,q) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

1.5.4 GJR-GARCH . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

2 Modèles d’Optimisation de Portefeuille 39

2.1 Théorie d’utilités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

2.2 Optimisation mathématique . . . . . . . . . . . . . . . . . . . . . . . . . . . 40

2.2.1 Programme d’optimisation linéaire . . . . . . . . . . . . . . . . . . . 40

2.2.2 Programme d’optimisation convexe . . . . . . . . . . . . . . . . . . . 41

2.3 Modèle classique de Markowitz . . . . . . . . . . . . . . . . . . . . . . . . . 41

2.3.1 Notations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42

2.3.2 Programme d’optimisation . . . . . . . . . . . . . . . . . . . . . . . . 42

2.4 Modèles incorporant les moments d’ordre élevé . . . . . . . . . . . . . . . . . 43

2.4.1 Le Skewness et le Kurtosis . . . . . . . . . . . . . . . . . . . . . . . . 44

2.4.2 Méthode de résolution des problèmes avec des moments d’ordre supérieur
à 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46

2.4.3 Modèle Moyenne-Variance-Skewness : M-V-S . . . . . . . . . . . . . . 47

2.4.4 Modèle de Moyenne-Variance-Skewness-Kurtosis : M-V-S-K . . . . . 49

2.5 Modèles VaR et CVaR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50

2.5.1 Formalisation du programme d’optimisation . . . . . . . . . . . . . . 51

2.5.2 Optimisation VaR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52

2.5.3 Optimisation CVaR . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52


CONTENTS 9

3 Risque Action Et Ajustement Symétrique 54

3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54

3.2 Calibrage du risque Action sous Solvabilité II . . . . . . . . . . . . . . . . . 57

3.3 Contexte de l’ajustement symétrique . . . . . . . . . . . . . . . . . . . . . . 59

II Partie empirique : Application 63

4 Présentation des données 65

4.1 Type des données . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65

4.2 Calcul des rendements : annuels et journaliers . . . . . . . . . . . . . . . . . 65

4.3 Description des rendements journaliers . . . . . . . . . . . . . . . . . . . . . 66

4.3.1 Corrélation des données . . . . . . . . . . . . . . . . . . . . . . . . . 67

4.3.2 Etude de la stationnarité et de l’autocorrélation . . . . . . . . . . . . 67

4.3.3 Etude de la normalité . . . . . . . . . . . . . . . . . . . . . . . . . . 68

4.3.4 Caractéristiques des Rendements journaliers . . . . . . . . . . . . . . 70

4.4 Description des rendements annuels . . . . . . . . . . . . . . . . . . . . . . . 70

5 Optimisation de Portefeuille 74

5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74

5.2 Optimisation selon le critère de Markowitz : moyenne-variance . . . . . . . . 75

5.2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75

5.2.2 Programmes d’optimisation . . . . . . . . . . . . . . . . . . . . . . . 75

5.2.3 Discussion des résultats de l’optimisation moyenne-variance . . . . . . 76

5.3 Optimisation selon le modèle CVaR . . . . . . . . . . . . . . . . . . . . . . . 78

5.3.1 Programme d’optimisation . . . . . . . . . . . . . . . . . . . . . . . . 78

5.3.2 Discussion des résultats . . . . . . . . . . . . . . . . . . . . . . . . . 79

5.4 Optimisation en considérant les moments d’ordre supérieur à deux . . . . . . 82


10 CONTENTS

5.4.1 Implémentation sous Matlab . . . . . . . . . . . . . . . . . . . . . . . 85

5.4.2 Résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86

6 Modélisation des rendements et Risque Action 88

6.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88

6.2 Modélisation AR(1) − EGARCH(1, 1) . . . . . . . . . . . . . . . . . . . . . 89

6.2.1 Estimation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89

6.2.2 Validation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90

6.2.3 VaR journalière individuelle . . . . . . . . . . . . . . . . . . . . . . . 91

6.2.4 Backtesting des modèles estimés . . . . . . . . . . . . . . . . . . . . . 92

6.2.5 Calcul de la VaR paramétrique à un an . . . . . . . . . . . . . . . . . 97

6.2.6 Estimation de la VaR du portefeuille . . . . . . . . . . . . . . . . . . 98

6.3 Estimation GP D − AR(1) − EGARCH(1, 1) . . . . . . . . . . . . . . . . . 101

6.3.1 Estimation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101

6.3.2 Estimation de la VaR annuelle individuelle et agrégée . . . . . . . . . 104

6.4 Evaluation du choc action : (VaR à 99.5%) . . . . . . . . . . . . . . . . . . . 105

6.4.1 Retour sur la formule standard . . . . . . . . . . . . . . . . . . . . . 106

6.4.2 Approche Interne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106

6.4.3 Risque de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107

6.4.4 Risque de base par rapport à une estimation normale et historique . . 108

6.4.5 Risque de base par rapport à une estimation


AR(1) − EGARCH(1, 1) − Student . . . . . . . . . . . . . . . . . . 109

6.4.6 Risque de base par rapport à une estimation GP D−AR(1)−EGARCH(1, 1)−


Student . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110

6.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111

7 Ajustement symétrique 113

7.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113


CONTENTS 11

7.2 Modèles pour l’estimation de pi . . . . . . . . . . . . . . . . . . . . . . . . . 115

7.2.1 Modélisation avec faible dépendance . . . . . . . . . . . . . . . . . . 116

7.2.2 Modélisation moyenne mobile . . . . . . . . . . . . . . . . . . . . . . 118

7.2.3 Méthodologie d’estimation . . . . . . . . . . . . . . . . . . . . . . . . 118

7.2.4 Comparaison des modèles selon le critère de la log vraisemblance . . . 119

7.3 Application à l’indice de l’EIOPA . . . . . . . . . . . . . . . . . . . . . . . . 120

7.3.1 Application pour κ = 10% . . . . . . . . . . . . . . . . . . . . . . . . 122

7.3.2 Application pour différentes valeurs de κ . . . . . . . . . . . . . . . . 124

7.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126

Conclusion et perspectives 129

Appendix 137

A Estimation des paramétres du modèle AR(1) − EGARCH(1, 1) 139

B Estimation AR(1) − GARCH(1, 1) 140

C Estimation des paramétres GP D−Kernel−GP D sur les résidus standardisés143

Bibliographie 144
Synthèse

12
13

Dans ce travail on s’intéresse au calibrage du risque action (type 1) sous la réglementation


Solvabilité-II. Cette nouvelle réforme impose une exigence en fonds propres ou SCR (Sol-
vency Capital Requirement) qui permet de couvrir tous les risques qui pèsent de manière
effective sur l’activité des compagnies d’assurance européennes. Le SCR correspond à une
Value-At-Risk à un an à 99.5% : c’est le montant de capital minimum dont l’assureur doit
disposer pour absorber les pertes potentielles à horizon un an avec une probabilité de 99.5%.

Les critiques de la calibration du risque action dans Solvabilité-II ne cessent d’augmenter.


En particulier, Sandström (2007) a indiqué que les capitaux de solvabilité des sous modules
de Solvabilité-II doivent être corrigés si les distributions de probabilité sont asymétriques.
Pfeifer & Strassburger (2008) ont analysé la stabilité de la formule standard par rapport
aux paramètres des distributions des indices. Notre objectif sera donc de déterminer le choc
action pour un portefeuille d’indices action. On s’intéresse particulièrement à la modélisation
des séries des rendements des indices boursiers par des modèles à variance conditionnelles
de type GARCH. Ces modèles sont souvent utilisés pour les séries qui sont caractérisées par
un fait stylisé connu par le phénomène de clustering de volatilité. En particulier on utilise
les modèles GARCH asymétriques comme le modèle GARCH exponentiel (EGARCH) de
Nelson (1991) pour la prise en compte de l’asymétrie des séries des rendements. Pour une
meilleure prise en compte des risques extrêmes, on propose de combiner la modélisation à
variance conditionnelle avec une modélisation GPD des valeurs extrêmes. Une fois les séries
modélisées, on calcule la VaR annuelle du portefeuille. Le choc évalué sera comparé au choc
standard déterminé sous Solvabilité-II.

Dans notre étude, le choc action sera évalué pour différentes pondérations des indices
composant le portefeuille optimisé selon plusieurs critères d’optimisation qui sont : le critère
moyenne-variance, les critères avec des moments d’ordre supérieur à deux et le critère CVaR.
Cela nous permet d’une part, d’analyser l’impact des méthodes d’optimisation sur la com-
position du portefeuille et d’autre part d’évaluer la sensibilité du choc action par rapport à
différentes pondérations des indices.

A l’issue des résultats trouvés dans ce mémoire, on note que le choc action calculé pour
notre portefeuille d’indice n’est pas couvert par le choc standard calibré par L’EIOPA (Eu-
ropean Insurance and Occupational Pensions Authority). On remarque aussi que même le
choc standard ajusté au maximum n’est pas suffisant pour se couvrir contre une probabilité
de ruine de 0.5%.

Notons que dans le cadre d’une modélisation par la méthode standard, le choc action est
complété par un mécanisme d’ajustement appelé le le dampener. Cet ajustement est calculé
sur la base d’un panier d’indices actions proposé par l’EIOPA et est défini de manière à
représenter le plus possible les investissements en actions des compagnies concernées par
Solvabilité-II. Cet ajustement est fonction de la position dans le cycle et permet d’éviter les
comportements pro-cycliques des investisseurs. On s’intéresse dans ce mémoire à l’évaluation
14 SYNTHÈSE

de la probabilité que l’ajustement, durant la période suivante, dépasse un niveau donné. Ceci
permet à l’assureur d’estimer à l’avance la probabilité que son choc sera réduit ou au contraire
sera amplifié. Pour cela on propose deux estimateurs de cette probabilité qui prennent en
compte la dépendance qui peut exister entre les évolutions passées du dampener. Notons que
l’un de ces modèles a été présenté et étudié dans Kacem et al. (2016).
Synthesis

15
16 SYNTHESIS

In this work we are interested by the calibration of the equity-risk under the Solvency II
regulation. This new reform imposes a Solvency Capital Requirement (SCR) that covers all
the risks that effectively affect an european insurance companies. The SCR corresponds to
a one year Value-At-Risk at level 99.5% : this is the minimum amount of capital that the
insurer must have to absorb the potential losses within one year with a probability of 99.5 %.

The criticisms of the equity-risk calibration under Solvency-II is increasing. In particular,


Sandström (2007) indicated that the solvency capital of the Solvency-II sub-modules must
be corrected if the probability distributions are asymmetric. Pfeifer & Strassburger (2008)
analyzed the stability of the standard formula with respect to the parameters of the index
distributions. Our goal will therefore be to determine the equity shock for a portfolio of
index. We give attention to the modeling of returns using conditional variances models of
GARCH type. These models are often used for series that are characterized by a stylized fact
known by the phenomenon of volatility clustering. In particular, we use symmetric GARCH
models such that the exponential GARCH model (EGARCH) of Nelson (1991) to take into
account the asymmetry of financial returns series. For a better consideration of extreme
risks, we propose to combine the conditional variance modeling with a GPD modeling of
extreme values. Then the annual VaR of the portfolio is calculated. The shock assessed will
be compared to the standard shock evaluated under Solvency II.

In our study, the equity shock will be valued for different weights of the indices accor-
ding to several optimization criteria which are : the mean-variance criterion, the criterion
with moments of order greater than two and the CVaR criterion. This allows us to analyze
the impact of optimization methods on the composition of the portfolio and to assess the
sensitivity of the equity shock to different weights of indices.

On the basis of the results found in this work, we note that the equity shock calculated
for our portfolio is not covered by the standard equity shock calibrated by the EIOPA (Eu-
ropean Insurance and Occupational Pensions Authority).

It should be noted that in the case of a modeling by the standard method, the equity
shock is adjusted by a mechanism known by the dampener. This adjustment is calculated on
the basis of a basket of equity indices proposed by the EIOPA. This adjustment is a function
of the position in the cycle and allow to avoid pro-cyclical behavior of investors. We are
interested in this work by the evaluation of the probability that the adjustment during the
following period will exceed a given level. This allows the insurer to estimate in advance the
probability that its shock will be reduced or, on the contrary, will be amplified. We propose
two estimators of this probability that take into account the dependence which may exist
between the past evolutions of the dampener. Note that one of these two estimators was
presented in Kacem et al. (2016).
Introduction

17
18 INTRODUCTION

Dans ce travail de mémoire on s’intéresse au calibrage du choc action, pour les actions
type 1, sous Solvabilité-II. En effet, l’évaluation du capital de solvabilité action selon la
formule standard néglige l’impact de la composition du portefeuille sur la valeur du choc
action. Pour cela, on commence dans un premier temps par calculer la composition d’un
portefeuille efficient sous contrainte de rendement selon plusieurs méthodes d’optimisation
de portefeuille. Par la suite, le choc action sous Solvabilité II est calculé pour une allocation
déterminée du portefeuille. On s’intéresse également à la notion de l’ajustement symétrique
de la formule standard pour le risque action.

Optimisation de Portefeuille

Le modèle de Markowitz est considéré comme la base de la théorie moderne de porte-


feuille. Ce modèle a été initialement mis en œuvre suite à la publication de son célèbre article
Portfolio Selection en 1952 et se base sur le concept des rendements et des volatilités. De
plus, il développe une idée simple à savoir que l’investisseur doit diversifier ses risques.

Markowitz formalise le problème du choix de portefeuille en considérant non seulement la


rentabilité attendue du portefeuille, mais aussi un risque défini par la variance de sa rentabi-
lité. En d’autres termes, selon ce critère l’investisseur minimise la variance du rendement de
son portefeuille pour un niveau d’espérance de rentabilité donné. Ce critère se base principa-
lement sur la normalité des distributions des rendements des actifs financiers, ce qui justifie
le fait que selon le critère moyenne variance toute l’information relative aux distributions
des rendements des portefeuilles est synthétisée uniquement dans les deux premiers moments.

L’accroissement de la volatilité des marchés financiers met les investisseurs face à un


marché instable (Krach Boursier de 1978 aux Etats-Unis, Krach Boursier de 2000-2002,
Crise boursière de 2007-2008 et la Crise de la dette souveraine en 2010-2012) qui est en
perpétuelle mutation, surtout avec le développement des produits financiers et des produits
dérivés. En effet, Kon (1984), Mills (1995), Peiro (1999), Rama.Cont (2001) et plusieurs
autres ont montré que les séries financières sont caractérisées, de plus en plus, par des faits
stylisés tels que l’asymétrie des distributions et leurs queues de distribution épaisses qui
représentent les valeurs extrêmes.

Les investisseurs, institutionnels ou particuliers, intervenant sur les marchés financiers


doivent donc tenir compte des risques induits par leurs activités de placement afin d’appréhender
lors de leurs prises de décisions le risque de réaliser des pertes.

Dans ce cas on pourra s’interroger sur la pertinence du critère Moyenne Variance de


19

sélection de portefeuille lorsque les distributions des rendements sont asymétriques (skewed
distributions) et admettent des queues épaisses. En effet, la mesure de risque écart-type ne
permet de tenir compte que des dispersions des rendements autour de la moyenne, sans
pour autant prendre en considération l’asymétrie des distributions et la présence des valeurs
extrêmes.

Dans la première partie de ce mémoire on commence par présenter les critères de sélection
de portefeuille, en particulier on met l’accent sur les critères incorporant les moments d’ordre
élevé, et ce afin d’essayer de tenir compte des asymétries et des queues épaisses des distri-
butions des rendements. Ces moments feront référence aux deux indices de forme appelés
skewness et kurtosis, qui peuvent apporter une information plus complète sur les distributions
des rendements. En effet, le skewness permet de renseigner sur l’asymétrie des distributions ;
de plus, le kurtosis, qui correspond à un cœfficient d’aplatissement, permet de renseigner sur
l’épaisseur des queues des distributions des rendements.

Notre objectif est donc de déceler l’effet de l’inclusion de moments d’ordre élevé, où la
notion d’ordre élevé fait référence aux moments d’ordre supérieur à deux, sur le choix de
portefeuille et ceci sous l’hypothèse de la non normalité des distributions des rendements des
indices boursiers. En plus de l’optimisation de portefeuille selon le modèle de Markowitz ou
tout simplement moyenne-variance, nous considérons le critère moyenne-variance-skewness et
moyenne-variance-skewness-kurtosis. Plusieurs auteurs tel que Jondeau & Rockinger (2006)
ont porté intérêt à l’optimisation de portefeuille en incorporant les moments d’ordre élevés.

Un autre outil récent, qui sera utilisé dans ce travail pour la sélection de portefeuille,
est connu sous le nom d’optimisation CVaR. Cette méthode est fondée sur l’utilisation de la
Conditional Value at Risk comme mesure de risque. La frontière efficiente sera donc composée
des couples rendement-CVaR et ceci pour un seuil de risque donné.
L’optimisation de portefeuille est effectuée pour des rendements journaliers logarithmiques
en appliquant les quatre critères ci-dessous de sélection de portefeuille pour deux portefeuilles
(ou fonds) différents :

— Moyenne-Variance (Markowitz)
— Moyenne-Variance-Skewness
— Moyenne-Variance-Skewness-Kurtosis
— Optimisation CVaR.

On note que l’optimisation avec les moments d’ordre élevé est obtenue en maximisant
l’espérance de l’utilité de la richesse finale.

Des études empiriques ont montré que la distribution des rendements des actifs finan-
ciers a une forme dite leptokurtique, (c’est à dire avec un plus grand nombre d’observations
20 INTRODUCTION

extrêmes qu’une loi gaussienne) et cela d’autant plus que la fréquence des données est im-
portante. En effet, le caractère leptokurtique intervient peu pour les données annuelles en
comparaison avec les données journalières. Le but de considérer les deux fréquences jour-
nalière et annuelle et de faire une comparaison de l’effet de l’incorporation des moments
d’ordre supérieur à deux sur la sélection de portefeuille en fonction de la fréquence des
données. Dans l’implémentation des modèles de sélection de portefeuille, on a considéré les
hypothèses suivantes : aucune vente ou achat des titres à découvert n’est possible, c’est à
dire la proportion xi investie dans un titre i est telle que 0 ≤ xi ≤ 1, et un taux de rentabilité
minimum est fixé pour le portefeuille. De plus, on ne met pas de contrainte sur les propor-
tions maximales et minimales investies dans chaque titre. On note que cette contrainte serait
nécessaire lorsqu’il s’agit d’un portefeuille composé par exemple d’obligations et d’actions
dont les limites de détentions peuvent être définies par la réglementation prudentielle pour
obtenir un portefeuille équilibré.

Dans notre étude empirique nous avons constaté que l’incorporation des moments d’ordre
élevé a un effet sur la composition des portefeuilles actions considérés et ceci pour des
fréquences journalières de rendements. Toutefois, elle est sans effet dans le cas où les ren-
dements sont annuels. En effet, les rendements annuels des indices sont caractérisés par un
Kurtosis qui est considérablement moins élevé que celui des rendements journaliers et s’ap-
proche du Kurtosis de la loi gaussienne.

Une fois la composition optimale du portefeuille est déterminée, selon chacun des critères
d’optimisation de portefeuille énumérés précédemment, notre objectif sera de mesurer la
Value-At-Risk du rendement global du portefeuille pour les différentes pondérations obte-
nues selon chaque modèle d’optimisation de portefeuille.

Notons que tirer des conclusions à partir de la série historique des rendements ne semble
pas raisonnable. Pour cela on propose de modéliser les séries des rendements journaliers
afin d’évaluer la Value-At-Risk paramétrique du portefeuille. Cette évaluation rentre dans
le cadre de notre problématique d’estimation du choc action d’un portefeuille d’indice fictif
sous Solvabilité-II.

Risque action et ajustement symétrique

La réglementation Solvabilité-II impose une gestion rigoureuse des risques extrêmes et


ceci à travers une exigence en fonds propres qui permet de couvrir tous les risques qui pèsent
de manière effective sur l’activité des compagnies d’assurance européennes. Cette exigence
en fonds propres ou SCR (Solvency Capital Requirement) correspond à une Value-At-Risk
un an à 99.5% : c’est le montant de capital minimum dont l’assureur doit disposer pour
21

absorber les pertes potentielles à horizon un an avec une probabilité de 99.5%.

Le SCR couvre tous les risques auxquels est exposée la compagnie d’assurance : le risque
de marché, mais aussi le risque de contrepartie, le risque opérationnel, le risque vie et le
risque non-vie. Dans ce mémoire notre objectif concerne l’évaluation du choc action qui est
une composante du risque de marché. On propose d’évaluer le choc pour un portefeuille
d’actions (ou indexé sur actions) d’un assureur. On note que selon Solvabilité-II les actions
sont séparées en deux catégories : les actions globales (Union Européenne ou OCDE) et les
actions dites autres qui regroupent les actions non OCDE, non cotées, le private equity, les
matières premières et l’alternatif. Notre étude portera sur les actions type globales.

Dans Solvabilité-II, le calibrage standard du risque action est déterminé de manière à


couvrir les pertes extrêmes dans 99.5%. Comme indiqué par le CEIOPS (Committee of
European Insurance and Occupational Pension Supervisors), la Value-At-Risk à 99.5% est
retenue comme la mesure de risque pour calibrer le choc standard avant d’être réajustée pour
atteindre le choc action global.

Selon une étude basée sur l’indice MSCI, le choc action annuel standard est calibré à 39%
(en termes de rendement ou de variabilité). Ce choc n’est supporté que par une minorité des
membres du CEIOPS. Une alternative de 45% selon une modélisation des valeurs extrêmes
est supportée par une majorité des membres du CEIOPS. Ce choc standard de 39% est
complété par un mécanisme d’ajustement symétrique, plus communément appelé dampener,
qui permet de prendre en compte les comportements pro-cycliques des marchés financiers.
Cet ajustement permet de réduire le SCR lorsque les marchés sont en bas de cycle et que la
probabilité de hausse est importante, et de l’augmenter lorsque les marchés sont en haut de
cycle quand la probabilité de baisse est importante. Ainsi pour les actions globales, le choc
actions est ajusté de +/-10% c’est à dire de 29% à 49% et pour les actions autres de 39% à
59% et ceci en fonction de la position dans le cycle. A partir de décembre 2014, cet ajustement
est calculé avec un indice action proposé par l’EIOPA (European Insurance and Occupational
Pensions Authority crée en 2010). Le mécanisme de dampener est calculé en fonction de
la distance de cet indice action à sa moyenne mobile sur 3 ans. Son mode de calcul est
donné dans l’article 172 de la commission de régulation déléguée. L’EIOPA a développé une
implémentation technique standard (ITS) et a publié un rapport final no 14/058 concernant
l’ITS relative à cet ajustement pour le SCR action. L’indice action proposé est destiné à
mesurer le prix de marché d’un portefeuille action diversifié qui est représentatif de la nature
des actions généralement détenues par les compagnies d’assurance et de réassurance. Il est
basé sur une moyenne pondérée des indices boursiers dans lesquels les assureurs européens
investissent.

Les intervenants du marché de l’assurance craignent que cette moyenne pondérée puisse
ne pas être représentative de la répartition des actions par les compagnies dans les différents
pays de l’UE et donc proposent l’utilisation d’un indice d’actions distinct pour chaque pays
de l’UE. Mais en accord avec l’article 106 de la directive 2009/138, l’ajustement symétrique
22 INTRODUCTION

ne peut être défini que par rapport à un seul indice action.

Notre idée dans ce mémoire est d’évaluer le choc action dans le cadre d’une modélisation
interne du risque. Les rendements journaliers des actions sont souvent caractérisés par un
fait stylisé connu par la volatility clustering. En effet, les périodes de forte volatilité alternent
avec les périodes de faible volatilité. Plusieurs modèles sont utilisés pour analyser et prévoir
la volatilité dans ce cadre. La modélisation GARCH (Generalized Autoregressive Conditio-
nal Heteroscedasticity) est devenue un outil incontournable en finance pour la modélisation
des séries financières. Dans ce mémoire on propose de modéliser les rendements journa-
liers des indices boursiers par plusieurs modèles à variance conditionnelle dont les modèles :
GARCH(1,1), EGARCH(1,1), AR(1)-GARCH(1,1) et le modèle AR(1)-EGARCH(1,1). De
plus on propose de modéliser les extrêmes par un modèle Generalized Pareto Distribution
(GPD) tout en combinant cette modélisation avec une modélisation à variance condition-
nelle. Une fois les séries modélisées, on calcul la VaR(α) annuelle du portefeuille. Le choc
action sera évalué pour les différentes pondérations des indices composants le portefeuille
optimisé selon les critères d’optimisation considérés dans ce mémoire.

La deuxième problématique porte sur le dampener précédemment introduit. En effet,


on s’intéresse à l’évaluation de la probabilité que l’ajustement, durant la période suivante,
dépasse un niveau κ% (où également sera inférieur à un niveau κ%). Ceci permet à l’assureur
d’estimer à l’avance la probabilité de voir son choc réduit ou au contraire amplifié. Pour cela
on propose deux estimateurs de cette probabilité qui prennent en compte la dépendance
qui peut exister entre les évolutions passées du dampener. Par la suite par un calcul de
vraisemblance on détermine lequel des deux modèles est le plus adéquat.

Ce mémoire est composé de deux parties. Dans la première partie on commence par une
description détaillé de quelques notions utiles. En particulier on présente la notion de ren-
dement, les mesure de risque VaR et CVaR, la VaR d’un portefeuille. De plus on expose les
modèles à variance conditionnelle pour la modélisation des séries des rendements ainsi que
le principe d’une modélisation par la théorie des valeurs extrêmes. Par la suite on expose
les différents modèles d’optimisation de portefeuille considérés dans notre étude. Ensuite on
explique le fondement du choc action et de l’ajustement symétrique sous Solvabilité II.
Dans la deuxième partie on s’intéresse à notre étude empirique en commençant par la descrip-
tion des données. Puis on applique les modèles d’optimisation à deux fonds d’investissement
en action. Par la suite on détermine le choc action en se fondant sur la mesure de risque
VaR à 99.5% et on termine cette partie par la proposition d’un modèle pour le calcul de la
probabilité d’avoir un ajustement d’un niveau κ.
Première partie

Partie Théorique

23
24
Chapitre 1

Rendements, mesures de risque et


modèles pour les rendements
financiers

Dans ce chapitre on commence par introduire et expliquer le fondement des principaux


outils et notions qui seront utilisées dans ce mémoire. En particulier on présente la notion de
rendement, les mesure de risque VaR, CVaR et la VaR d’un portefeuille. De plus on expose
les modèles à variance conditionnelle pour la modélisation des séries des rendements ainsi
que le principe d’une modélisation par la théorie des valeurs extrêmes.

1.1 Rendements financiers

La première attention des investisseurs porte sur l’analyse des données relatives aux titres
financiers. Certainement, les données auxquelles les investisseurs ont accès sont les historiques
des prix. Mais, le résultat futur des décisions d’investissement prises aujourd’hui dépend des
niveaux futurs des prix qui sont incertain. Il est donc nécessaire d’analyser cette incertitude
à travers l’étude des caractéristiques des séries passées qui sont observées. Ceci nous aidera
à une meilleure compréhension du comportement des prix, une bonne quantification des
risques et à proposer un modèle efficace pour l’évolution des prix pour assurer une prévision
rigoureuse des résultats futurs.

On commence par donner les définitions de rentabilités arithmétiques et logarithmiques


par la suite on présente quelques caractéristiques des séries financières.

25
26 CHAPITRE 1. NOTIONS UTILES

1.1.1 Rendements des titres financiers

Il y a deux approches pour calculer les rendements des titres financiers. Les praticiens
utilisent généralement les rendements discrets dit arithmétiques qui reflètent le vrai change-
ment relatif des prix et qui sont utilisés pour mesurer la performance des titres. Alors que
les chercheurs utilisent plutôt les rendements continus qui représentent une approximation
convenable pour des investigations empiriques ou analytiques. Soit Pt et Pt−1 les prix des
actifs à la fin de la période t et t − 1, respectivement. Sans prise en compte des dividendes,
le rendement arithmétique durant la période [t − 1, t], noté par Rt est donné par

Pt − Pt−1
Rt = ,
Pt−1

et le rendement géométrique, dit aussi la log-rentabilité ou rendement continu, est donné par
Pt
rt = ln(Pt ) − ln(Pt−1 ) = ln( ) = ln(Rt + 1),
Pt−1

Lorsque le pas de temps est petit ou lorsque la rentabilité est proche de zéro, les rendements
discrets peuvent être approximés par des rendements continus i.e.

rt = ln(1 + Rt ) ≈ Rt .

Soit Rt (k), rt (k) la rentabilité arithmétique, respectivement logarithmique, entre la date t


et la date t − k. Si on ne tient pas compte des dividendes, elles sont données par rt (k) =
(1+rt )×, . . . , ×(1+rt−k+1 )−1 et Rt (k) = Rt +. . .+Rt−k+1 . Dans Solvabilité II, on considère
des horizons de longueur une année, pour cela on utilise les rendements arithmétiques pour
notre analyse empirique, en effet, une approximation continue peut ne pas donner des bons
résultats.

On a la relation suivante : 1 + Rt = exp(rt ) qui lie le rendements arithmétique au


rendement logarithmique.

L’utilisation des observations du passé pour modéliser les réalisations du futur est fondée
sur la principale idée que certaines propriétés de ce processus aléatoire demeurent constantes
dans le temps, on parle ici de la notion statistique de stationnarité. Ceci signifie que le
processus générant les prix reste invariable d’une période à l’autre. Une autre notion fonda-
mentale dans l’analyse des séries financières est l’autocorrélation des données qui décrit
la manière avec laquelle une observation dépend des réalisations passées. L’analyse directe
des séries de prix se révèle difficile car elles ne sont pas stationnaires et exhibent une forte
corrélation. Les séries des rentabilités ont en général de meilleures propriétés statistiques.
C’est pour ces raisons que l’analyse empirique porte généralement sur le processus des ren-
dements et non pas sur le prix des titres.
1.1. RENDEMENTS FINANCIERS 27

1.1.2 Caractéristiques des rendements financiers

De nombreuses études empiriques e.g. Rama.Cont (2001) et Chakraborti et al. (2011),


indiquent que les séries financières sont caractérisées par des faits stylisés tels que les queues
épaisses, les phénomènes de clustering de volatilité et d’asymétrie. Plusieurs études se sont
concentrées sur la modélisation des distributions non conditionnelles des rendements. Cette
modélisation permet de prendre compte certains faits stylisés sans pour autant pouvoir
reproduire la fonction d’autocorrélation des rendements. D’autres modèles sont à variance
conditionnelles, permettent non seulement de prendre en compte les faits stylisés mais aussi
de reproduire la structure de corrélation. Ces modèles seront présentés plus tard dans ce
mémoire.

Dans ce qui suit on présente quelques phénomènes caractérisant les séries des rendements
financiers.

1. A court terme, les rendements oscillent autour de zéro ceci, n’est pas le cas à long
terme.
2. La moyenne est nettement plus petite que la volatilité. Par conséquent une simple
connaissance de la moyenne ne permet pas de prédire avec précision le rendement
futur.
3. Mandelbrot (1963) a montré que la distribution des rendements n’est pas normale
puisque les queues de distribution sont caractérisés par des queues épaisses. Depuis, un
nombre important de modélisation a été proposé. L’identification des queues épaisses
peut se faire à travers le moment d’ordre 4 normalisé ou encore le Kurtosis. Pour
une distribution normale, le Kurtosis est égal à 3, si le Kurtosis est supérieur à 3, la
distribution est dite leptokurtique.
4. Une autre caractéristiques des séries de rendements est la présence d’asymétrie négative
qui se traduit par une proportion de rendements extrêmes négatifs qui est plus élevée
que celle de rendements extrêmes positifs : il y a plus de mouvement fort à la baisse
que à la hausse.
5. Le clustering de volatilité selon lequel des périodes de forte volatilité alternent avec des
périodes de faible volatilité. Les grands rendements (positifs ou négatifs) ont tendance
à se suivre, et les petits rendements également. La volatilité se produit ainsi en grappe
et les extrêmes sont regroupés en cluster ou paquets de volatilité.
6. Le processus du prix des actifs financiers est généralement non stationnaire au sens
faible (ou au second ordre) alors que le processus des séries de rendements est station-
naire.
7. Auto-corrélation des carrés des rendements : cela se traduit par une fonction d’au-
tocorrélation (ACF) des carrés des rendements qui décroı̂t lentement à partir d’une
valeur faible mais positive. Cette forme typique de l’ACF est plus prononcée pour une
fréquence élevée que faible. Cette propriété implique que la volatilité est prévisible
dans une certaine mesure (ce qui n’est pas le cas pour les rendements). Mandelbrot
(1963) indique que les grands changements sont suivis par des grands changements
28 CHAPITRE 1. NOTIONS UTILES

d’autres signes et les petits changements sont suivis par des petits changements. Ce
fait stylisé est connu par le phénomène de mémoire longue dans les séries de rende-
ments. Ce fait stylisé est important puisqu’il montre que les incréments des prix ne
sont pas indépendamment distribués. On note que pour la série des rendements les
autocorrélations sont généralement très faibles.
8. La baisse des cours a tendance à engendrer une augmentation de la volatilité supérieure
à celle engendrée par une hausse des cours, c’est ce qu’on appelle l’effet de levier.
9. Les rendements présentent de nombreux phénomènes de saisonnalité on cite l’effet
week-end étudié par French (1980) et Gibbon et Hess (1981) et l’effet de premier
janvier par exemples.

1.2 Mesures de Risque : VaR et CVaR

La gestion des risques en finance et en assurance vise à quantifier et à contrôler le risque lié
à la variabilité de leurs activités. On s’intéresse à deux mesures de risques qui sont largement
utilisées par les institutions financières et d’assurance. Ces deux mesures sont la Value-at-
Risk (VaR) qui a été introduite dans la banque JP Morgan en 1990 et la Tail-Value-At-Risk
qui est égale à la Conditional Value at Risk dans le cas continu (CVaR).

1.2.1 La Value-at-Risk : VaR

1. VaR et risque en assurance : Suite au dispositif prudentiel Bâle-II qui est destiné
à mieux appréhender les risques bancaires, la Value-at-Risk, qui est une mesure de
risque de type DownSide Risk a eu un grand développement dans les problématiques
de gestion des risques des institutions d’assurances et est devenue une mesure de risque
de référence dans le nouveau référentiel prudentiel Solvabilité-II.

Soit X une variable aléatoire représentant le risque assuré par une compagnie d’as-
surance et soit (1 − α) ∈ [0, 1] le niveau de risque par rapport auquel on souhaite
déterminer la perte potentielle (on note que α généralement proche de 1 est appelé le
seuil de confiance). La Value-at-Risk (VaR) au niveau de confiance α associée au risque
X est donnée par :

VaRα (X) = FX−1 (α) = inf {x ∈ R; P(X > x) ≤ (1 − α)} = inf {x ∈ R; P(X ≤ x) ≥ α} .

où FX−1 désigne la fonction quantile de la loi de X. Soit x le montant de sinistres


engendré par le risque X avec une probabilité α. La VaRα (X) correspond au montant
de ressources qu’il faut mettre à coté pour couvrir une sinistralité de montant x. En
d’autres termes disposant d’une somme d’argent égale à VaRα (X), la probabilité de
ruine de la compagnie d’assurance est égale à 1 − α c’est à dire P(X ≥ VaRα (X)) =
1 − α ⇒ P(X ≤ VaRα (X)) = α).
1.2. MESURES DE RISQUE : VAR ET CVAR 29

2. VaR et rendements financiers : La Value-At-Risk est très utilisée dans les institutions
financières et représente la perte potentielle maximale que peut subir un portefeuille à
un niveau de risque α sur un horizon fixé.

Soit X une variable aléatoire représentant le rendement d’un instrument financier.


Lorsqu’elle est positive elle représente un gain, sinon elle représente une perte. Soit
α ∈ [0, 1] le niveau de confiance par rapport auquel on souhaite déterminer la perte
potentielle. En général lorsqu’il s’agit des rendements financiers on prend (1 − α) ∈
{0.5%, 1%, 5%}. Pour un horizon de gestion donné, la VaRα correspond au montant de
perte au-delà duquel une perte survient avec une probabilité de (1−α). Elle est donnée
par le quantile d’ordre (1 − α) de la distribution des rendements du portefeuille :
−1
VaRα = FX−1 (1 − α) = −F−X (α).

En d’autres termes, P(X ≥ VaRα ) = α. La VaRα est la perte maximale pouvant être
constatée en un jour dans les α cas les plus favorables ou encore c’est la moindre perte
pouvant être constatée en un jour dans les (1 − α) cas défavorables.

1.2.2 La Tail Value-at-Risk : TVaR

L’inconvénient de la VaR est qu’elle n’est pas une mesure cohérente du risque au sens de
Artzner et al. (1999). En effet elle, n’est pas une mesure sous additive du risque c’est à dire
si on considère deux risques X et Y alors pour tout α ∈]0, 1[ on peut avoir :

VaRα (X + Y ) ≥ VaRα (X) + VaRα (Y ).

La TVaR a l’avantage de prendre en compte les valeurs d’une variable aléatoire au-delà de
la VaR. La Tail Value-at-Risk de niveau α associée au risque X est donnée par :
1 Z 1 −1
T V aRα (X) = F (u)du
1−α α
ou encore
1
T V aRα (X) = VaRα (X) + E[(X − VaRα (X))+ ].
1−α
La quantité E[(X − VaRα (X))+ ] est l’excpected shortfall de niveau de probabilité α est la
perte moyenne au -delà de la VaR au niveau α. Si X représente la charge brute de réassurance
alors E[(X − VaRα (X))+ ] correspond à la prime Stop-Loss pour un niveau de rétention égal
à VaRα (X).
30 CHAPITRE 1. NOTIONS UTILES

1.2.3 La Conditionnal-Value-at-Risk : CVaR

La CVaR de niveau α est le montant de la perte moyenne sachant que celle-ci dépasse la
VaR au niveau α :
CVaRα (X) = E[X|X > VaRα ].

On note que la CVaR correspond à la TVaR lorsque la fonction de répartition du risque


X est continue.

1.3 Méthodes de calcul de la VaR

Selon Jorion (2006), il y a trois méthodes de calcul de la VaR :

— Méthode VaR−Variance-Covariance (méthode paramétrique).


— Méthode VaR− Simulation Historique (méthode d’echantionnage non paramétrique).
— Méthode de Simultion Monte Carlo (méthode d’echantionnage paramétrique).

1.3.1 VaR− Variance-Covariance :

La VaR Variance-Covariance est utilisée dans le cadre de calcul de la VaR d’un porte-
feuille composé de plusieurs actifs financiers corrélés ou non. Elle est fondée sur l’hypothèse
de normalité des rendements. Soit ξ = (ξ1 , . . . , ξn ) : les rendements générés par les n titres
L
durant une période donnée. On suppose que ξ → N (µ, w0 Σw) avec µ le vecteur des rende-
ments espérés des titres, Σ la matrice variance-covariance des rendements et w le vecteur des
proportions investies dans chaque titre i = (1, . . . , n). Cette méthode utilise les informations
liées à la volatilité et à la corrélation des titres pour calculer la variance du portefeuille. La
volatilité d’un titre mesure le dégré avec lequel les fluctuations des prix sont apparues dans le
passé et sont susceptibles d’apparaı̂tre dans le futur. La corrélation est une mesure du degré
avec lequel le prix d’un titre est relié au prix d’un autre titre. Soit α un seuil de confiance
fixé. Ce seuil correspond à 99.5% sous Solvabilité II. Dans ce cadre la VaRα est donnée par
l’expression suivante :

VaRα (ξ) = w0 µ − Zα σp = µp + Z(1−α) σp .

où Z(1−α) est le√quantile d’ordre (1 − α) de la loi Normale, µp le rendement espéré du porte-
feuille et σp = w0 Σw l’écart-type du portefeuille de composition w. Falloul (2015) présente
d’une manière bien détaillée l’utilisation de cette méthode dans le calcul de VaR d’un porte-
feuille diversifié composé de plusieurs titres. La méthode Variance-Covariance pour le calcul
de la VaR est devenue populaire après que le groupe de gestion des risques J.P. Morgan a
1.3. MÉTHODES DE CALCUL DE LA VAR 31

publié un système open source appelé RiskMetrics en 1994. L’inconvénient de cette méthode
est qu’elle est fondée sur l’hypothèse de normalité des distributions des rendements qui n’est
pas réaliste.

Il existe une relation entre la VaR à un jour et la VaR à N jours. En effet si les pertes
quotidiennes suivent une loi normale, alors on considère que la VaR à N jours est égale à la
racine carré de N multipliée par la VaR à un jour.

1.3.2 VaR− Simulation Historique (VaR−HS)

Dans cette méthode on utilise les données historiques. La VaR−HS est basée sur une
hypothèse assez forte, à savoir celle de distributions i.i.d (indépendantes et identiquement
distribuées). Dans cette méthode on suppose que la distribution conditionnelle des rentabi-
lités futures est invariante et peut être simulée par les rentabilités passées (c’est l’hypothèse
de stationnarité des rendements). Par conséquent, la VaR est estimée par le quantile empi-
rique. Selon cette approche, le calcul de la VaR−HS à un niveau α se ramène au calcul du
quantile empirique d’ordre α de la chronique des rentabilités passées sur une fenêtre de taille
T . Par exemple, soit un portefeuille composé de plusieurs actifs, afin de calculer la VaR−
historique à un jour sur ce portefeuille il faut relever l’ensemble des rentabilités quotidiennes
réalisées sur les 1000 derniers jours (par exemple) en utilisant la composition actuelle du
portefeuille. La distribution des valeurs possibles du portefeuille est ainsi estimée. Une fois
toutes ces données obtenues, il faut les classer par ordre croissant pour extraire le quantile
correspondant à un niveau de probabilité choisi. Si l’on souhaite obtenir la VaR à 99%, il
suffit de trouver la 10ème (1000 ∗ (100% − 99%)) valeur obtenue (voir Hurlin & Tokpavi
(2008)). Les résultats de cette approche dépendent de la sélection de l’historique utilisé pour
les calculs.

1.3.3 Monte-Carlo-Simulation

Notons que si la loi des rendements est modélisée par une loi paramétrique, alors dans
ce cas la VaR peut être obtenue par la méthode de Simulation Monte Carlo. Cett méthode
garde le même principe de la simulation historique sauf qu’au lieu d’estimer la distribution
des rendements en se basant sur des scénarios passés, la simulation de Monte-Carlo utilise
des scénarios qui sont générés selon un modèle qui est extrait de l’historique des données. On
suppose que les rendements des titres sont régis par une distribution paramétrique avec des
paramètres connus. Après l’obtention de scénarios possibles pour la série des rendements à
la fin de l’horizon de temps fixé, le problème de l’obtention de la VaR est résolu de manière
similaire à l’approche de la Simulation Historique. Cette simulation est répétée plusieurs fois.
Supposons qu’on dispose d’un seul titre, alors les étapes de l’estimation selon la méthode
connue par Crude Monte Carlo Simulation (voir Holton (2003)) sont les suivantes :
32 CHAPITRE 1. NOTIONS UTILES

— On génère m réalisations indépendantes du processus des rendements tel que chaque


processus est un vecteur de longueur T .
— Pour chaque processus j ∈ (1, . . . , m), on calcul la VaR(j) correspondante.
— En utilisant le principe de la loi forte des grands nombres, la VaRi correspond à la
(j)
moyenne suivante : VaR = m1 m
P
j=1 VaR .
Pour un portefeuille on applique la formule suivante pour obtenir la VaRp du portefeuille
composé de n titres
q
VaRpα = (VaR1 , . . . , VaRn )C(VaR1 , . . . , VaRn )0

tels que C est la matrice de corrélation des n titres et VaRi , pour n’importe quel titre i du
portefeuille, est obtenu selon la procédure précédente. Notons que lorsque les rendements
sont supposés suivre une distribution normale, alors VaRi = µi − Zα σi , pour chaque titre i,
ainsi si on veut déterminer une VaR journalière, alors µi peut être approximer par zéro, et
on a : q
VaRpα = −Zα (σ1 , . . . , σn )C(σ1 , . . . , σn )0 .
Par exemple dans le cas où n = 2 on a
q
VaRpα = −Zα σ12 + σ22 + 2ρσ1 σ2 .

où ρ est le coefficient de corrélation entre les deux titres un et deux.

1.3.4 Validation d’une prévision VaR

Il est nécessaire de tester la validité d’une prévision de la VaR en mettant en place une
procédure de backtesting des modèles estimés.

Selon Jorion (2007) : Le backtesting est un ensemble de procédures statistiques dont le


but est de vérifier que les pertes réelles observées ex-post sont en adéquation avec les pertes
prévues. Cela implique de comparer systématiquement l’historique des prévisions de la Value-
at-Risk aux rendements observés du portefeuille (Jorion, 2007, page 139).

Notons qu’un test de validation des modèles de VaR doit être de type model free, c’est-
à-dire s’applique à n’importe quelle prévision de VaR provenant de n’importe quel modèle.
Pour tester la validité de la prévision de la VaR, on compare sa réalisation ex-post à la
valeur prédite ex-ante. La comparaison entre plusieurs modèles de prévision de laVaR peut
se faire via le critère Mean Squared Error (MSE) qu est fondé sur l’écart entre la vrai valeur
réalisée et la valeur prédite ou via les critères d’information standards (AIC, BIC etc.). La
réalisation ex-post de la VaR n’est pas observable. Pour celà la validation de la VaR se fait
par des tests sur le processus de violation de la VaR.
On note rt la rentabilité d’un actif ou d’un portefeuille d’actifs à la date t. La valeur ex-ante
1.3. MÉTHODES DE CALCUL DE LA VAR 33

de la VaR pour un taux de couverture β notée VaRt|t−1 (β), anticipée conditionnellement à


un ensemble d’informations, noté Ωt−1 disponible à la date t − 1 es définie par la relation
suivante :
P(rt < VaRt|t−1 (β)) = β
Par définition, cette quantité correspond au quantile d’ordre β de la distribution condition-
nelle des rendements rt de l’actif ou du portefeuille d’actif considéré. On appelle violation
(ou hit, ou exception) une situation dans laquelle à la date t la perte observée excède la
VaR anticipée, c’est à dire lorsque la valeur rt du rendement est inférieur à la valeur prévue
ex-ante de la VaR. On note It (β) la variable associée à une éventuelle violation de la VaR à
la date t pour un taux de couverture β.

It (β) = 1 si rt < VaRt|(t−1) (β) et 0 sinon. (1.1)

Selon Christoffersen (1998) une prévision de VaR est valide sur une période T si et seule-
ment si la séquence des violations {It (β)}Tt=1 satisfait les deux hypothèses de couverture non
conditionnelle (UC) et d’indépendance (IND). Ces deux tests peuvent être regroupés dans
un seul test qui est celui de la couverture conditionnelle (CC). Selon l’hypothèse (UC) la pro-
babilité que se réalise ex-post une perte (rt ) en excès de la VaR anticipée ex-ante (VaRt|(t−1) )
doit précisément être égale au taux de couverture β, en d’autre terme E(It (β)) = β. Selon
l’hypothèse (IND), les violations de la VaR pour un même taux de couverture à deux dates
différentes doivent être indépendamment distribuées. La couverture conditionnelle (CC) ca-
ractérise la situation où la VaR satisfait les deux hypothèses précédentes. Hurlin & Tokpavi
(2008) donnent une description bien détaillée de ces tests.

Pour choisir le modèle le plus adéquat pour la prévision de la VaR parmi plusieurs
modèles concurrents, on procède à l’évaluation de la fonction de perte proposée par Sarma
et al. (2003) et ceci pour les modèles validés par les tests précédents.

On trouve l’application de cette fonction de perte et de plusieurs autres fonctions utilisées


pour tester la performance des modèles de prévisions de la VaR dans Angelidis & Degiannakis
(2007), Abad & Benito (2013), Abad et al. (2015) et plusieurs autres. Pour un modèle de
prédiction donné, à l’instant t, la fonction de perte de Sarma et al. (2003) est définie par :

LFt (α) = (VaRt (α) − rt )2 si rt < VaRt (α) et 0 sinon. (1.2)

On combine cette fonction de perte avec le test de Diebold-Mariano (DM) (1995) pour
déterminer si un modèle prédit mieux qu’un autre modèle. Soit deux modèles de prédictions
A et B d’erreurs de prédiction respectives LFtA (α) et LFtB (α). On veut tester l’hypothèse
nulle suivante
H0 : E(LFtA (α)) = E(LFtB (α))
contre l’hypothèse alternative

H1 : E(LFtA (α)) 6= E(LFtB (α)).


34 CHAPITRE 1. NOTIONS UTILES

Soit la fonction de perte différentielle donnée par

dt = LFtA (α) − LFtB (α). (1.3)

Le test DM teste l’hypothèse nulle d’égalité du pouvoir prédictif suivante

H0 : E(dt ) = 0.

Soit d = (d1 , . . . , dT ). La statistique du test est donnée par DM S = √ . Sous H0 ,
T ∗var(d)
DM S suit une normale centrée réduite. On rejette H0 au seuil de 5% si DM S < −1.645

1.4 Modélisation GPD

La théorie des valeurs extrêmes est très développée pour la modélisation des séries indivi-
duelles des titres financiers. Elle est fondée sur l’une de ces deux catégories : la modélisation
du maximum en utilisant la distribution generalized extreme values (GEV) ou la modélisation
des excès au-delà d’un seuil en utilisant la distribution Pareto généralisée (voir Embrechts,
Klüppelberg, et Mikosch, 1997 pour plus de détail sur la théorie des valeurs extrêmes.)
La modélisation des excès au-delà d’un seuil peak over threshold (POT) consiste à ajuster
la distribution que suit une variable aléatoire (v.a.) conditionnellement au fait que sa valeur
observée dépasse un niveau u appelé seuil des extrêmes. Soit X une v.a. de loi F alors

F (y + u) − F(u)
Fu (y) = P(X − u ≤ y|X > u) = ,
1 − F (u)

où on appelle excès au-delà du seuil la quantité y = x − u. La méthode POT est fondée sur
le théorème fondamental de Balkema-de-Haan en (1974) et Pickands en (1975) qui identifie
la distribution de la Pareto généralisée comme la distribution limite de la distribution des
excès. Si Y est de distribution Pareto généralisée Gξ,β(u) (y) alors la fonction de répartition
de Y est donnée par

1 − [1 + ξ y ]−1/ξ , ξ 6= 0
β(u)
Gξ,β(u) (y) = −y/β(u)
(1.4)
1 − exp ξ=0

avec β(u) > 0 dépend de u et est appelé paramètre d’échelle et ξ est le paramètre de forme
qui ne dépend pas de u. L’estimateur du paramètre ξ permet d’identifier à quelle famille de
loi appartient la fonction de distribution G. En effet, si ξ > 0 alors G appartient au domaine
d’attraction de la loi de Fréchet telle que la distribution de Pareto et caractérise les séries à
queues épaisses. L’estimation de la loi Pareto nécessite au préalable de sélectionner un seuil
optimal à partir duquel on considère les excès comme des variables GPD. Pour sélectionner
ce seuil, on procède en deux étapes. La première étape exploite les graphiques de la fonction
moyenne des excès (mean excess) pour déterminer un seuil admissible à partir duquel la
fonction change de pente et devient linéaire.
1.5. LES MODÈLES DES SÉRIES TEMPORELLES À VARIANCE CONDITIONNELLE35

La fonction moyenne des excès correspond à une fonction affine de u lorsque la distribution
est caractérisée par une GPD au-delà du seuil u. On peut donc approcher visuellement à
partir de quel seuil u le graphique de la fonction moyenne des excès devient un droite affine
de u. Ainsi pour une GPD l’espérance conditionnelle des excès est une fonction affine de u
si ξ 6= 0 et une constante si ξ = 0. La fonction moyenne des excès empirique se calcul de la
manière suivante comme indiqué dans Gilli et al. (2006) :
Nu
1 X
e(u) = (xi − u)+
Nu i=1

avec Nu le nombre des excès par rapport à u. En pratique, on trace cette fonction pour
différents seuils et on détermine le seuil à partir duquel la fonction d’excès moyen devient
linéaire.

1.5 Les Modèles des séries temporelles à variance condi-


tionnelle

Dans ce qui suit on présente quelques modèles de type GARCH qui sont très utilisés
pour modéliser la volatilité conditionnelle des séries des rendements d’actifs. Ces modèles
permettent d’expliquer les changements dans la variance conditionnelle et sont connus par
des modèles avec hétérocédasticité conditionnelle. Les modèles de volatilité souvent utilisés
sont les modèles autorégressifs avec hétéroscedasticité conditionnelle développés par Engle
(1982) connus par les modèles ARCH, les modèles ARCH généralisés connus par les modèles
de type GARCH de Bollerslev (1982), les modèles GARCH asymétriques comme le modèle
exponentiel GARCH (EGARCH) de Nelson (1991) et le modèle GJR-GARCH de Glosten
(1993), (voir Gourieroux (1992) pour plus de détails sur ces modèles).

1.5.1 ARCH(q)

La classe des modèles autorégressifs avec hétéroscedasticité conditionnelle ARCH de pa-


ramètre q a été introduite par Engle (1982) pour capturer le phénomène de clustering de
volatilité des séries financières. Dans le modèle basique ARCH, la variance conditionnelle
qui apparait à la date t est une fonction linéaire des carrés des chocs passés  tels que le
processus ARCH(q) satisfait l’équation suivante :

t = σt Zt , (1.5)

et q
σt2 αi 2t−i ,
X
V ar(t |t−1 ) = = α0 + (1.6)
i=1
avec
36 CHAPITRE 1. NOTIONS UTILES

— t−1 = {t−1 , t−2 , . . . , t−j , . . .}.


— (Zt )t≥1 est un processus de bruit blanc, c’est à dire un processus de v.a. i.i.d de moyenne
zéro et de variance unitaire,
— α0 > 0 est la moyenne inconditionnelle et αi ≥ 0 pour tout q ≥ 1, pour assurer une
variance positive.
Considérons une série financière (Xt )t≥1 qui modélise les rendements des indices boursiers
avec résidus. Soit
Xt = E(Xt |Xt−1 ) + t , (1.7)
avec Xt−1 = {Xt−1 , Xt−2 , . . . , Xt−j , . . .} et t un bruit blanc faible tel que E(t ) = 0, E(t s ) =
0 pour tout s 6= t satisfaisant la condition de différence de martingale E(t |t−1 ) = 0. Le
modèle (1.7) décrit à la fois l’évolution dans le temps de l’espérance conditionnelle du pro-
cessus (Xt )t≥1 via le terme E(Xt |Xt−1 ) et la variance conditionnelle via le terme t . Par
exemple le modèle AR(1) − ARCH(1) est donné par

Xt = µ + ρXt−1 + t

avec q
t = Zt . α0 + α1 2t−1 ,
où |ρ| < 1.

1.5.2 GARCH(p,q)

Bollerslev (1986) a proposé un modèle plus efficient que le modèle ARCH : c’est le modèle
autorégressif avec hétéroscedasticité conditionnelle généralisée (GARCH(p,q)). Le modèle
général, GARCH(p,q) est donné par :
q p
σt2 = α0 + αi 2t−i + 2
X X
βi σt−i ,
i=1 i=1

telle que, αi ≥ 0 pour tout q ≥ 1 et βi ≥ 0 pour tout p ≥ 1 pour assurer une variance
positive satisfaisant les équations (1.5) et (1.6). Le modèle AR(1) − GARCH(1, 1) est un
modèle souvent utilisé pour modéliser les série financières, il s’écrit de la manière suivante :

Xt = µ + ρXt−1 + t

avec
t = σt Zt ,
où
σt2 = α0 + α1 2t−1 + β1 σt−1
2
.
Le modèle est une version générale du modèle ARCH dans le sens ou la variance condition-
nelle σt2 , est une fonction linéaire des variances conditionnelles passées et des innovations
carrées du processus.
1.5. LES MODÈLES DES SÉRIES TEMPORELLES À VARIANCE CONDITIONNELLE37

Les modèles ARCH et GARCH sont symétrique dans le sens ou les chocs (t ) positifs ou
négatifs ont le même effet sur la volatilité. Cela veut dire que le signe des innovations où
chocs n’a pas d’effet sur la volatilité conditionnelle. Ceci n’est pas adéquat avec le fait stylisé
des séries financières où les chocs négatifs tendent à avoir un impact sur la volatilité plus
grand que l’impact des chocs positifs de même amplitude.

1.5.3 EGARCH(p,q)

Le modèle GARCH exponentiel (EGARCH) a été proposé par Nelson (1991) et permet de
prendre en compte l’effet de l’asymétrie de la variance conditionnelle et ceci en permettant
d’avoir des effets différents des chocs positifs et négatifs sur la volatilité et donc sur les
rendements. Aussi il permet aux grands chocs d’avoir un impact plus grand sur la volatilité
que les petits chocs. Le modèle EGARCH(p,q) est définit comme suit :
q p
ln(σt2 ) 2
X X
=ω+ αi g(Zt−i ) + βi ln(σt−i ).
i=1 i=1

avec
g(Zt−i ) = γ1 Zt−i + γ2 (|Zt−i | − E|Zt−i |).
avec γ1 le paramètre qui capte l’effet de levier et γ2 le paramètre qui capte l’effet d’asymétrie
des chocs sur la variance conditionnelle. Autrement, on peut écrire
p q q
ln(σt2 ) = ω + 2
X X X
βi ln(σt−i )+ δi (|Zt−i | − E|Zt−i |) + ξi Zt−i .
i=1 i=1 i=1

avec Zt−i = σt−it−i


, ξi le paramètre qui capte l’effet de levier et Zt−i est définit comme une
série de v.a. indépendantes de moyenne 0 et de variance 1.

La valeur espérée de l’innovation standardisée Zt−i dépend de la distribution considérée


qui peut être Normale ou Student. Typiquement dans ce modèle les coefficients βi du pro-
cessus GARCH et δi du processus ARCH sont positifs et les paramètres ξi de l’effet de levier
sont négatifs. Cela signifie que les grands chocs baissiers augmentent la variance.

1.5.4 GJR-GARCH

Le modèle GJR-GARCH proposé par Glosten, Jonnathan et Runkle (1993) permet à la


variance conditionnelle de réagir différemment aux innovations négatives et positives passées.
La manière dont ce modèle le fait est différente de celle du modèle EGARCH. En effet, dans le
modèle EGARCH les coefficients sont appliqués aux innovations t−1 alors que dans le modèle
GJR-GARCH, les coefficients sont appliqués aux carrés des innovations t−1 par rapport à
38 CHAPITRE 1. NOTIONS UTILES

une fonction indicatrice. Le modèle GJR-GARCH(p, q) général s’écrit comme suit :


p q
σt2 = ω + αi 2t−1 + γi 2t−1 1(t−1 < 0),
X X
βi (σt−i +
i=1 i=1

tel que 1t−1 est une fonction indicatrice qui prend 1 si t−1 < 0 et 0 si non.
Chapitre 2

Modèles d’Optimisation de
Portefeuille

Dans ce chapitre, on présente une description détaillée des principales méthodes d’optimisa-
tion de portefeuille qui seront utilisées dans la suite de ce mémoire.

2.1 Théorie d’utilités

Le problème d’un investisseur est de choisir parmi l’ensemble des allocations possibles le
portefeuille optimal selon un critère donné. Le choix du critère de sélection de portefeuille
peut avoir un effet important sur la composition du portefeuille optimal et donc sur le résultat
de l’allocation. Les modèles de sélection de portefeuille ont fait l’objet de nombreuses études
dans la littérature financière.

La théorie de l’utilité, formalisée mathématiquement par Von Neumann & Morgenstern


(1944), permet aux investisseurs averses au risque de prendre en compte la dimension risque
dans leurs choix de décision. Cette théorie représente le soubassement de toute la théorie de
choix en avenir incertain ; elle constituera aussi l’outil de base du critère de choix de porte-
feuille en incorporant les moments d’ordre supérieur à deux. Le principe de ce critère est qu’un
investisseur rationnel maximise son utilité espérée, en égard de son attitude vis-à-vis du risque
lorsqu’il est face à un choix entre différentes combinaisons possibles du risque–rendement.

Pour une fonction d’utilité U il est commun d’exiger que :


— U (1) > 0 : Un investisseur préfère toujours plus à moins d’utilité c’est-à-dire que son
utilité marginale est positive. L’utilité est une fonction croissante de la richesse.
— U (2) < 0 : L’utilité marginale de la richesse est décroissante ce qui signifie que plus le
niveau de richesse d’un individu est important, moins il est averse au risque. Un agent
infiniment riche est donc neutre vis-à-vis du risque.

39
40 CHAPITRE 2. MODÈLES D’OPTIMISATION DE PORTEFEUILLE

Lorsque la fonction d’utilité est concave, l’agent est dans ce cas averse au risque. Si la
fonction d’utilité est convexe alors l’agent est preneur de risque, si non si la fonction d’utilité
est linéaire alors l’agent est neutre au risque.

Notons qu’on se basant sur le développement des séries de Taylor, la fonction de l’utilité
espérée peut être approximée en fonction des moments d’ordre centrés. Ce résultat permet
de résoudre le problème de sélection de portefeuille en tenant compte des moments d’ordre
supérieur à deux.

2.2 Optimisation mathématique

Dans ce paragraphe, on rappelle quelques notions liées à un programme d’optimisation


linéaire (voir le livre de Boyd & Vandenberghe (2004)).
Un problème d’optimisation mathématique a la forme suivante :

min f0 (x)
x

S.C. fi (x) ≤ bi , i = 1, ..., m. (2.1)

avec x = (x1 , . . . , xn ) les variables de décision, f0 : Rn → R la fonction objective à


optimiser et pour tout i ∈ (1 . . . , m), fi : Rn → R correspond à une fonction contrainte
telle que bi est la borne de la contrainte fi pour tout i = (1, ..., m). Un vecteur x∗ est dit
optimal, s’il posséde la plus petite valeur objective parmi tout les vecteurs qui vérifient les
contraintes. La forme de la fonction objective et des contraintes caractérisent la classe du
problème d’optimisation.

2.2.1 Programme d’optimisation linéaire

Le problème d’optimisation (2.2) est dit linéaire si la fonction objective ainsi que les
contraintes sont linéaires c’est à dire satisfont ∀i ∈ (1 . . . , m)

fi (αx + βy) = αfi (x) + βfi (y) (2.2)

pour tout x, y ∈ Rn et α, β ∈ R.
2.3. MODÈLE CLASSIQUE DE MARKOWITZ 41

2.2.2 Programme d’optimisation convexe

Un programme d’optimisation est dit convexe si la fonction objective ainsi que les contraintes
sont convexes c’est à dire satisfont ∀i ∈ (1 . . . , m)

fi (αx + βy) ≤ αfi (x) + βfi (y) (2.3)

pour tout x, y ∈ Rn et α, β ≥ 0 tel que α + β = 1. On note que la convexité est plus générale
que la linéarité. En effet, tout programme linéaire est un programme convexe.

2.3 Modèle classique de Markowitz

The process of selecting a portfolio may be divided in two stages. The first stage starts
with observation and experience and ends with beliefs about the future performances of avai-
lable securities. The second stage starts with the relevant beliefs about future performances
and ends with the choice of portfolio. Harry Markowitz

Le critère de sélection de portefeuille moyenne-variance a été introduit par Markowitz, en


1952, dans son célèbre article Portfolio Sélection voir Markowitz (1952), et développé en 1959
dans son livre Portfolio Selection : Efficient Diversification of Investments voir Markowitz
(1968). Campbell et al. (2001) ont introduit le concept  Moyenne-Variance  pour désigner
le critère de sélection de portefeuille basé sur la mesure de risque variance.

Le critère moyenne variance de Markowitz est logique dans deux cas : la maximisation
de l’utilité espérée sous certaines suppositions ou sous l’hypothèse de la normalité conjointe
de la distribution. En effet, selon Markowitz, l’analyse de la sélection de portefeuille peut
être formalisée comme un problème d’optimisation d’une fonction d’utilité quadratique ∗ .
Dans ce cas l’espérance de l’utilité de la richesse finale dépend uniquement de l’espérance de
la richesse et de l’écart-type. Selon cette analyse, Markowitz argumente que l’objectif d’un
investisseur rationnel est la construction d’un portefeuille qui offre le rendement le plus élevé
possible pour un niveau de risque donné, ou le risque le plus faible possible pour un niveau
de rendement désiré.

De plus, l’analyse de Markowitz (1952) est consistante sous l’hypothèse de la normalité


de la distribution jointe des rendements des titres. Selon cette hypothèse de normalité toute
l’information relative à la distribution des rendements des portefeuilles est résumée dans les
deux premiers moments. Par conséquent, le portefeuille optimal pour tous les investisseurs
averses au risque se trouve sur la frontière efficiente qui est représentée dans un espace
Moyenne-Ecart-type ou Moyenne-Variance.

∗. Soit W le niveau de la richesse finale. La fonction d’utilité quadratique est donnée par U (W ) =
W − 2b W 2 avec b > 0. Cette fonction d’utilité décrit l’attitude d’un investisseur averse au risque
42 CHAPITRE 2. MODÈLES D’OPTIMISATION DE PORTEFEUILLE

2.3.1 Notations

Soient
— W0 = 1 le niveau de richesse initiale qu’un agent décide d’investir dans un marché
financier sur un horizon de temps T . On se place tout au long de ce mémoire sur un
modèle simple à une seule période.
— R = (R1 , . . . , Rn ) : les rendements générés par les n titres durant une période donnée.
Ces rendements sont inconnus au moment de l’allocation de portefeuille et sont traités
comme des variables aléatoires.
— µ = (µ1 , . . . , µn )0 = E(R) le vecteur des espérances des rendements.
— Σ la matrice carrée de variance covariance.
— x = (x1 , . . . , xn ) : le vecteur des proportions investies dans chaque titre qui représentent
les variables de décision de l’investisseur tel que xi est le pourcentage de la richesse
investie dans l’actif risqué i.
— e = (1, . . . , 1) est le vecteur unité de dimension n.
— La contrainte x ≥ 0 signifie que la vente à découvert n’est pas autorisée.
— x0 e = 1 définie la contrainte de budget.
— x0 µ = E(Rp ) = µp le rendement espéré du portefeuille à la fin de la période d’observa-
tion.
— x0 R = Rp la variable aléatoire, le rendement du portefeuille à la fin de la période
d’observation considérée.
— σp2 = x0 Σx la variance du portefeuille.

Remarque 2.1. La rentabilité d’un portefeuille ne dépend pas de la richesse initiale, mais
uniquement de l’allocation x. Pour cette raison on peut prendre W0 = 1 sans perte de
généralité.

Remarque 2.2. On suppose, dans ce qui suit, que la vente à découvert des titres risqués
n’est pas autorisée, que les actifs sont parfaitement divisibles et qu’ils ne sont soumis à aucun
coûts de transaction ni à aucune taxe.

2.3.2 Programme d’optimisation

A la date t = 0 un investisseur forme, à partir de sa richesse initiale W0 , un portefeuille


d’actifs et le conserve jusqu’à la date t = T . Le programme d’optimisation de Markowitz est
donné par
n X
n
σp2 = min
X
min
x x
xi xj σi,j
i=1 j=1

sous les contraintes suivantes :


2.4. MODÈLES INCORPORANT LES MOMENTS D’ORDRE ÉLEVÉ 43

x0 e = 1




S.C.  x0 ≥ 0
 0

x µ = µp

Le critère d’optimisation moyenne-variance admet d’autres écritures très utilisées en pra-


tique et qui sont équivalentes à celle précitée. Nous pouvons citer les deux formulations
suivantes :

1. La maximisation de l’espérance du rendement : on suppose la fixation d’un certain


niveau de risque et on résout le programme suivant :
n
X
max
x
µp = max
x
xi µ i
i=1

sous les contraintessuivantes :





x0 e = 1
S.C.  x0 ≥ 0
 0
x Σx = σp2

Ce programme est très utile pour les investisseurs qui ne veulent pas dépasser un degré de
risque toléré.

2. Formulation d’aversion au risque : Dans le modèle d’optimisation on tient compte d’un


cœfficient λ d’aversion au risque. Ce cœfficient présente l’échange de l’investisseur entre le
risque et le rendement. Soit la fonction objective suivante :
n o
max 2λµp − σp2 |x0 e = 1 .
x

En pratique, λ est calibré de manière qu’un portefeuille particulier présente le profil de risque
accepté par l’investisseur. Plus λ est élevé plus l’investisseur est averse au risque.
Le critère moyenne-variance permet à l’investisseur de déterminer le meilleur couple rendement-
risque tout en tenant compte son degré d’aversion au risque. Les résultats obtenus se-
lon le critère de la maximisation directe de l’espérance de l’utilité avec ceux du critère
moyenne-variance sont presque les mêmes sous l’hypothèse de normalité des rendements ou
encore lorsque la fonction de l’utilité de l’investisseur est quadratique. En effet, dans ce cas,
l’espérance de l’utilité de la richesse finale s’écrit uniquement en fonction des deux premiers
moments, à savoir la moyenne et la variance.

2.4 Modèles incorporant les moments d’ordre élevé

Selon l’approche moyenne-variance l’intuition de la maximisation de la moyenne et de


la minimisation de la variance vient de l’idée qu’investisseur préfère un rendement espéré
élevé et un faible niveau de risque. Toutefois, il est clair qu’un investisseur préfère avoir des
44 CHAPITRE 2. MODÈLES D’OPTIMISATION DE PORTEFEUILLE

valeurs extrêmes positives avec des probabilités plus élevées que celle d’avoir des valeurs
extrêmes négatives. Notons que le critère de choix qui se base uniquement sur l’Ecart-Type
comme mesure de risque n’est pas bien adapté puisqu’il pénalise autant les bonnes variations
que les mauvaises. De plus, l’argument principal en faveur de cette mesure de risque repose
sur la normalité de la distribution des rendements, ce qui ne correspond pas à la réalité des
distributions financières. On cite par exemple Chunhachinda et al. (1997) qui ont prouvé que
les rendements de leur échantillon, composé de 14 titres boursiers internationaux n’étaient
pas distribués selon une loi normale.

Souvent les distributions empiriques des rendements présentent des queux épaisses et
aussi de l’asymétrie, de ce fait l’existence du skewness, du kurtosis et des autocorrélations
entre les titres semble être une évidence des distributions des rendements. Une autre hy-
pothèse simplificatrice sur laquelle est fondée le critère moyenne-variance est que la fonction
d’utilité est quadratique puisque seuls les deux premiers moments sont pris en considération
dans le programme d’optimisation. Plusieurs auteurs dont Lai (1991), Jondeau & Rockinger
(2006) Mhiri & Prigent (2010) ont montré que les moments d’ordre élevé ne peuvent pas
être négligés dans le choix de portefeuille. Pour une bibliographie plus riche sur ce sujet voir
la thèse de Ben Salah (2015).

Afin d’étudier le problème de sélection de portefeuille en tenant compte des moments


d’ordre élevé, plusieurs auteurs comme Jondeau & Rockinger (2006) ont proposé de résoudre
le programme de la maximisation de l’espérance de l’utilité en incorporant les moments
d’ordre élevé. Pour ce faire, ils se sont servis du développement en séries de Taylor. En effet,
il a été montré que la fonction de l’utilité espérée peut être approximée en fonction des
moments d’ordre centré. Ce développement permet d’écrire l’utilité de la richesse finale en
fonction des moments centrés de la variable aléatoire richesse.

2.4.1 Le Skewness et le Kurtosis

Pour une distribution donnée, le skewness et le kurtosis sont deux indices de forme.

Le skewness est un élément d’information important qui mesure le degré d’asymétrie.


Le skewness correspond donc à un cœfficient d’asymétrie. Lorsque ce coefficient est nul, la
distribution est dite symétrique par rapport à la moyenne, c’est-à-dire que les valeurs de la
variable étudiée sont dispersées de manière égale de part et d’autre de la moyenne. C’est
le cas de la distribution normale, par exemple. Dans le cas d’une distribution asymétrique,
un skewness positif indique que la distribution des rendements est asymétrique à gauche
étalée à droite, côté où se situent généralement les gains réalisés. Inversement, si le skewness
est négatif cela signifie que la distribution est asymétrique à droite étalée à gauche, côté
des pertes réalisées. Ce coefficient est d’autant plus grand que l’asymétrie est forte. Selon
sa définition statistique, le skewness, noté S 0 (X), d’une variable aléatoire X, s’exprime en
fonction du moment centré d’ordre trois, noté M 3 (X) et de l’écart type σ(X). Le skew-
ness correspond, donc, au moment centré d’ordre trois standardisé, donné par l’expression
2.4. MODÈLES INCORPORANT LES MOMENTS D’ORDRE ÉLEVÉ 45

suivante :
M 3 (X)
S 0 (X) = ,
σ 3 (X)
avec
M 3 (X) = E(X − E(X))3 .
Notons qu’un skewness non standardisé (non normalisé) peut être défini par le moment
centré d’ordre 3 et sera noté S(X).

Le kurtosis (bosse en Grec) modélise la probabilité d’occurrence des évènements extrêmes


et donc la forme des queues des distributions. Le Kurtosis correspond donc à un cœfficient
d’aplatissement. Une distribution est dite à queues épaisse ou (distribution leptokurtique)
lorsque la queue de la distribution a une densité supérieure à celle prédite sous l’hypothèse
de normalité. C’est à dire une distribution de probabilités dont la cloche est plus aiguë que
celle de la loi gaussienne, avec des queues plus importantes. A l’opposé, une distribution
est dite à queues fines ou (distribution platikurtique) est lorsque la queue de la distribution
a une densité inférieure à celle prédite sous l’hypothèse de normalité. Une distribution est
d’autant plus plate que la dispersion des observations autour des valeurs centrales est forte.
Notons que le Kurtosis d’une distribution normale est égal à 3. Ainsi si une distribution a
un kurtosis égal à 3 alors la distribution est dite normale ou mésokurtique. L’importance
particulière accordée au kurtosis est due à son caractère quantitatif qui permet de mesurer le
degré d’aplatissement des distributions. Si le kurtosis est supérieur à 3 alors la distribution
est dite leptokurtique, si non elle est dite platikurtique. Selon sa définition statistique, le
Kurtosis, noté K 0 (X), d’une variable aléatoire X, s’exprime en fonction du moment centré
d’ordre quatre, noté M 4 (X) et de l’écart type σ(X). Le kurtosis correspond, donc, au moment
centré d’ordre quatre standardisé, donné par l’expression suivante :

M 4 (X)
K 0 (X) = ,
σ 4 (X)
avec
M 4 (X) = E(X − E(X))4 .
Notons qu’un kurtosis non standardisé (non normalisé) est donné par le moment centré
d’ordre 4 et sera noté K(X).

Des études faites par Lux (1996), Levy (1969) et plusieurs autres ont montré que la
plupart des séries financières ne sont pas normales et présentent des queues épaisses. De ce
fait, nous nous intéresserons à prendre en considération les préférences de l’investisseur en
ce qui concerne ces faits par l’incorporation du kurtosis dans les programmes de choix de
portefeuille.
46 CHAPITRE 2. MODÈLES D’OPTIMISATION DE PORTEFEUILLE

2.4.2 Méthode de résolution des problèmes avec des moments


d’ordre supérieur à 2

Pour déterminer l’allocation du portefeuille optimal en incorporant les moments d’ordre


supérieur à 2, on considére la méthode de la maximisation de l’utilité polynomiale.

Cette méthode est aussi connue par la méthode de l’expansion du critère de la maximi-
sation de l’utilité espérée en incorporant les moments d’ordre élevés. Elle consiste à utili-
ser une expansion en série de Taylor pour déduire l’approximation de la fonction d’utilité
espérée. Müller & Machina (1987) ont trouvé, pour la maximisation de l’utilité espérée, une
équivalence entre les préférences à n moments et l’utilité polynomiale à n degrés. Jondeau
& Rockinger (2006) ont proposé de résoudre le programme de la maximisation de utilité
espérée en incorporant les moments d’ordre élevé en utilisant le développement des séries de
Taylor qui permet d’écrire l’utilité de la richesse finale en fonction des moments centrés. En
effet, il a été montré que la fonction de l’utilité espérée peut être approximée en fonction des
moments d’ordre centrés. Supposons qu’un investisseur désire allouer son portefeuille entre
n titres risqués tel que son but est de maximiser l’utilité espérée de sa richesse finale.

Supposons que la richesse initiale W0 est égale à l’unité, on aura W = W0 (1 + x0 R) =


(1+Rp ) comme richesse à la fin de la période d’investissement . L’utilité espérée de la richesse
finale est donnée par E(U (W )).

Formellement, l’allocation optimale du portefeuille est obtenue en résolvant le programme


suivant : Z
max
x
E(U (W )) = U (W )f (w)dw.
w

sous contraintes x0 e = 1 et x0 ≥ 0 et où f (w) est la fonction de la distribution de probabilité


de W . Le développement des séries de Taylor d’ordre infini de la fonction d’utilité de la
richesse est donné par :

X U (k) (W̄ )(W − W̄ )k
U (W ) = (2.4)
k=0 k!
où W̄ = E(W ) = 1 + x0 µ = 1 + µp est la richesse espérée en fin de période. Ainsi l’espérance
de l’utilité est obtenue par

X U (k) (W̄ )E[(W − W̄ )k ]
E(U (W )) ≈ (2.5)
k=0 k!

où E[(W − W̄ )k ] est le moment centré d’ordre k de la distribution de probabilité de W .

Il est important de noter que l’approximation de l’utilité espérée par les séries de Taylor
est reliée aux préférences de l’investisseur vis-à-vis de tous les moments de la distribution de
la richesse finale. Ces préférences sont données directement par les dérivées de la fonction
d’utilité. On se contente généralement d’approximer l’utilité espérée pour un certain ordre
de développement donné k. En particulier, lorsque k = 2, le moment centré est dit d’ordre
2.4. MODÈLES INCORPORANT LES MOMENTS D’ORDRE ÉLEVÉ 47

deux et correspond à la variance.

Plus généralement, lorsque la fonction d’utilité est décrite par une fonction polynomiale
d’ordre n, alors la maximisation de cette fonction d’utilité, en utilisant le développement des
séries de Taylor au niveau n, donne la même solution que celle obtenue par la maximisa-
tion directe de l’espérance de l’utilité. En effet, lorsque la fonction d’utilité est quadratique
(polynôme d’ordre 2), les résultats d’allocation de portefeuille obtenus par la maximisation
directe de l’utilité espérée sont les mêmes que ceux obtenus par le critère standard moyenne-
variance, c’est-à-dire lorsque le niveau de développement des séries de Taylor est k = 2.
Mais a priori, on ne peut pas déterminer à quel ordre les séries de Taylor doivent être
développées et il existe des conditions qui permettent de restreindre les préférences des
investisseurs aux quatre premiers moments de la distribution des rendements des titres fi-
nanciers. Une de ces conditions consiste à supposer que la fonction d’utilité de l’investisseur
appartient à la classe des fonctions satisfaisant les propriétés suivantes :

(U (W ) : U (1) (W ) > 0 U (2) (W ) < 0 U (3) (W ) > 0 U (4) (W ) < 0) (2.6)

où U (i)(W ) est la dérivée d’ordre i de U (W ) pour i ∈ 1, . . . , 4. Une deuxième condition est
intuitive et consiste à supposer que les rentabilités des titres suivent des distributions de
probabilités dont les quatre premiers moments existent.

2.4.3 Modèle Moyenne-Variance-Skewness : M-V-S

Dans le cas où les distributions étudiées sont asymétriques, le critère  moyenne-variance
 doit être amélioré en tenant compte du skewness lors du choix du portefeuille optimal,

puisque le degré de positivité du skewness peut mieux nous renseigner sur les préférences de
l’investisseur. Le critère de choix d’un portefeuille optimal Moyenne-Variance-Skewness peut
être résolu sous la forme d’un programme d’optimisation triple-objectif sous contraintes, dans
lequel l’investisseur doit, d’un côté, maximiser le rendement espéré et le skewness et d’un
autre côté, minimiser la variance. En général, un investisseur averse au risque et rationnel
préfère, d’une part, avoir une distribution des rendements peu dispersée par rapport à la
moyenne, et par conséquent, il cherche à minimiser la variance de son portefeuille. D’autre
part, il préfère avoir une distribution des rendements dans laquelle la probabilité d’avoir
des gains est plus élevée que celle d’avoir des pertes. C’est pour cette raison, qu’il préfère,
donc, avoir un skewness positif plutôt qu’un skewness négatif et c’est dans ce sens que
le skewness permet de renseigner sur les préférences d’un investisseur. Pour résoudre le
programme d’allocation de portefeuille en incorporant le skewness nous devons définir la
matrice des skewness et co-skewness non normalisés M3 de dimension (n, n2 ). Soit

M3 = E[(R − µ)(R − µ)0 ⊗ (R − µ)0 ] = {si,j,k } ,

où ⊗ et le produit kroneker et si,j,k est le co-skewness entre les titres i, j et k donné par

si,j,k = E[(Ri − µi )(Rj − µj )(Rk − µk )], i, j, k = 1, . . . , n.


48 CHAPITRE 2. MODÈLES D’OPTIMISATION DE PORTEFEUILLE

Si i = j = k, alors dans se cas si,j,k correspond au skewness non normalisé. Par exemple si
n = 3 alors la matrice M3 de dimension (3, 9) est donnée par :

 
s111 s112 s113 s211 s212 s213 s311 s312 s313
M3 = s121 s122 s123 s221 s222 s223 s321 s322 s323 

 = [S1jk S2jk S3jk ]
s131 s132 s133 s231 s232 s233 s331 s332 s333

Afin de résoudre le problème de choix du portefeuille par le critère moyenne-variance–skewness,


on applique le développement des séries de Taylor à la fonction de l’utilité espérée jusqu’au
troisième terme, c’est-à-dire le cas ou k = 3 dans (2.4) ; on obtient alors l’expression suivante
qui doit être maximiser :

1
E(U (W )) = U (W̄ ) + U (1) (W̄ )E[(W − W̄ )] + U (2) (W̄ )E[(W − W̄ )2 ]
2 (2.7)
1 (3)
+ U (W̄ )E[(W − W̄ )3 ] + O(W 3 )
3!
avec
E(W ) = W̄ = x0 µ = µp




 σ2 = E[(W − W̄ )2 ] = E[(Rp − µp )2 ]


p
(2.8)



 Sp = E[(W − W̄ )3 ] = E[(Rp − µp )3 ]

Ainsi l’utilité espérée est approximée par


1 1
E(U (W )) ≈ U (W̄ ) + U (2) (W̄ )σp2 + U (3) (W̄ )Sp (2.9)
2 3!
avec
µ p = x0 µ




σp2 = x0 Σx



(2.10)




Sp = x0 M3 (x ⊗ x)

En choisissant une fonction d’utilité vérifiant la condition (2.6), le programme moyenne-


variance-skewness s’écrit :
 max U (µp ) − λ1 σp2 + λ2 Sp

x




 S.C.
0
(2.11)



 xe=1
x0 ≥ 0


2.4. MODÈLES INCORPORANT LES MOMENTS D’ORDRE ÉLEVÉ 49

2.4.4 Modèle de Moyenne-Variance-Skewness-Kurtosis : M-V-S-


K

De nombreuses études, ont révélé l’importance de l’inclusion du troisième et du qua-


trième moment dans le cadre du choix de portefeuille. En effet, lorsque les distributions des
rendements ne sont pas normales, la prise en compte de l’asymétrie et de l’aplatissement de
la distribution des rendements boursiers permet de se prémunir contre les événements rares
ou encore les queues épaisses caractérisant ces distributions.

De ce fait, nous nous intéresserons à prendre en considération les préférences de l’inves-


tisseur en ce qui concerne ces faits par l’incorporation du kurtosis dans le critère de choix
 Moyenne-Variance-Skewness . Pour résoudre le programme d’allocation de portefeuille

en incorporant le kurtosis nous devons définir la matrice des kurtosis et co-kurtosis non
normalisés M4 de dimension (n, n3 ). Soit

M4 = E[(R − µ)(R − µ)0 ⊗ (R − µ)0 ⊗ (R − µ)0 ] = {ki,j,k,l } ,

où ki,j,k,l est le co-kurtosis entre les titres i, j, k et l donné par

ki,j,k,l = E[(Ri − µi )(Rj − µj )(Rk − µk )(Rl − µl )], i, j, k, l = 1, . . . , n.

Si i = j = k = l, alors dans se cas si,j,k,l correspond au kurtosis non normalisé. Similairement


à la matrice skewness-co-skewness on a la matrice kurtosis-co-kurtosis donnée par

M4 = [K11kl K12kl K13kl K21kl K22kl K23kl K31kl K32kl K33kl ]


où K11kl est une sous matrice de M4 qui correspond au titre j = i = 1, ∨k, l ∈ (1, . . . , n).

Le problème d’optimisation du critère M-V-S-K de sélection de portefeuille consiste


à trouver un compromis entre les quatre objectifs visés par un investisseur. En effet, ce
problème se traduit par un programme d’optimisation à quatre-objectif. En choisissant le
portefeuille optimal, un investisseur doit simultanément :

— Maximiser le rendement espéré.

— Minimiser la variance.

— Maximiser le skewness.

— Minimiser le kurtosis.

Afin de résoudre le problème de choix du portefeuille par le critère moyenne-variance–skewness-


kurtosis, on applique le développement des séries de Taylor sur la fonction de l’utilité espérée
jusqu’au quatrième terme, c’est-à-dire le cas ou k = 4 dans (2.4) ; on obtient alors l’expression
suivante qui doit être maximiser :
50 CHAPITRE 2. MODÈLES D’OPTIMISATION DE PORTEFEUILLE

1
E(U (W )) = U (W̄ ) + U (1) (W̄ )E[(W − W̄ )] + U (2) (W̄ )E[(W − W̄ )2 ]
2 (2.12)
1 (3) 1 (4)
+ U (W̄ )E[(W − W̄ ) ] + U (W̄ )E[(W − W̄ )4 ] + O(W 4 )
3
3! 4!
Ainsi l’utilité espérée est approximée par
1 1 1
E(U (W )) ≈ U (W̄ ) + U (2) (W̄ )σp2 + U (3) (W̄ )Sp + U (4) (W̄ )Kp , (2.13)
2 3! 4!
avec
Kp = E[(W − W̄ )4 ] = E[(Rp − µp )4 ]. (2.14)

En choisissant une fonction d’utilité vérifiant la condition (2.6), le programme moyenne-


variance-skewness-kurtosis s’écrit :
max U (µp ) − λ1 σp2 + λ2 Sp − λ3 Kp

x





 S.C.
0
(2.15)



 xe=1
x0 ≥ 0

2.5 Modèles VaR et CVaR

Après la théorie moyenne-variance de sélection de portefeuille, la question de la perti-


nence de la mesure de risque variance a été soulevée (e.g. Campbell et al. (2001), Wang
(2000)). En effet, l’écart-type est symétrique et mesure la déviation à la hausse et à la baisse
des rendements par rapport à la moyenne. Ainsi par sa minimisation on pénalise notre choix
des gains possibles. Des nouvelles approches fondées sur les mesures de risque Value At Risk
(VaR) et Conditionnal Value At Risk (CVaR) (voir section 1.2) ont été utilisées en optimi-
sation de portefeuille. Ces approches ont été analysées et testées dans plusieurs applications
voir e.g.Kaura (2005) dans lequel l’auteur présente une analyse de la méthode d’optimisation
de portefeuille moyenne-VaR sur une seule période et présente une extension dans un cadre
multi périodique. L’optimisation VaR consiste en la minimisation de la mesure de risque
VaR sous contrainte de rendement. Les mesures de risque VaR et (CVaR) sont fréquemment
utilisées pour mesurer le risque et sont devenues de plus en plus importants dans divers
domaines en lien avec la gestion des risques tels que l’optimisation de portefeuille (voir e.g.
Mausser & Rosen (1999), Sarykalin et al. (2008)). Notons que la possibilité d’utilisation de
la VaR et d’autres mesures de risque qui y sont liées dans d’optimisation de portefeuille
a commencé avec les travaux de Rockafellar & Uryasev (2000) et de Uryasev (2000). Une
littérature pertinente qui décrit les propriétés de l’optimisation VaR du portefeuille inclut
Basak & Shapiro (2001), Gaivoronski & Pflug (1999), Krokhmal et al. (2002), Mausser &
Romanko (2014). On note que le problème d’optimisation de la VaR n’est pas convexe et
peut avoir plusieurs minimum locaux. De plus Artzner et al. (1999) ont souligné la non
2.5. MODÈLES VAR ET CVAR 51

cohérence de la VaR ce qui rend le problème d’optimisation difficile. Pour cela une autre ap-
proche d’optimisation de portefeuille développée par Uryasev (2000) et fondée sur la CVaR
a connu un grand succès. Le problème de la minimisation de la CVaR est lié directement au
problème de la minimisation de la VaR (voir définition de ces deux mesures). Dans l’article
Gaivoronski & Pflug (2005) les auteurs donnent une méthode pour trouver le portefeuille
qui minimise la VaR parmi l’ensemble des portefeuilles ayant un taux de rendement espéré
supérieur à un certain seuil. De plus, les auteurs présentent une comparaison, en terme de
frontière efficiente, des résultats et propriétés d’optimisation VaR, CVaR et variance dans
un contexte de sélection de portefeuille. Voir aussi le travail de Sarykalin et al. (2008) pour
une illustration avec des exemples de la différence entre l’optimisation avec la VaR comme
mesure de risque et celle avec la CVaR. Notons que Wang (2000) a prouvé que la frontière
efficiente moyenne-variance n’est pas égale à la frontière efficiente moyenne-VaR et que les
deux frontière sont de structures différentes. Une description simple de l’optimisation de
portefeuille en minimisant la CVaR et du calcul de la VaR est donnée dans Uryasev (2000).
Plusieurs autres études donnent une comparaison entre l’approche classique de sélection de
portefeuille moyenne-variance et celle moderne moyenne-CVaR (voir e.g. Campbell et al.
(2001), Parrák et al. (2010)).

2.5.1 Formalisation du programme d’optimisation

On considère un investisseur disposant (sans perte de généralité) d’une unité monétaire.


Soit le programme d’optimisation suivant pour un portefeuille composé de n titres :

0

 ≥ µ,
x E(R)
0
min R(x R) S.C. x0 e = 1, (2.16)
x 


x ≥ 0.

Avec
— R = (R1 , . . . , Rn ) : les rendements générés par les n titres durant une période donnée.
Ces rendements sont inconnus au moment de l’allocation de portefeuille et sont traités
comme des variables aléatoires.
— x = (x1 , . . . , xn ) : les proportions investies dans chaque titre.
— X l’ensemble des portefeuilles réalisables.
— e est le vecteur unité.
— La contrainte x ≥ 0 signifie que la vente à découvert n’est pas autorisée.
— x0 e = 1 définie la contrainte de budget.
— x0 E(R) le rendement espéré du portefeuille à la fin de la période d’observation.
— R est une mesure de risque.
Soit x0 R la variable aléatoire, le rendement du portefeuille à la fin de la période d’observation
considérée. Lorsque la mesure de risque R est l’écart-type, le programme d’optimisation
coı̈ncide avec le programme moyenne-variance.
52 CHAPITRE 2. MODÈLES D’OPTIMISATION DE PORTEFEUILLE

2.5.2 Optimisation VaR

L’une des motivations pour utiliser la mesure de risque VaR pour l’optimisation de por-
tefeuille est liée au fait que la VaR est qualifiée de mesure de risque de baisse ou de perte
(en anglais on parle de downside risk) puisqu’elle mesure le risque au-dessous d’un seuil ou
encore le risque que le rendement actuel soit inférieur au rendement espéré. Dans ce cas la
fonction objective du Programme d’optimisation (2.16) devient :

min R(x0 R) = min VaRα (f (x, R)) (2.17)


x x

Avec α le niveau de confiance associé au calcul de la VaR. Pour un horizon de temps T , soit
f (x, R) la variable aléatoire perte du portefeuille associée au vecteur de décision x ∈ Rn et la
variable aléatoire R ∈ Rn désignant la valeur des rendements générés par les n titres durant
la période T . Supposons que le vecteur aléatoire R a une densité de probabilité P(R). Pour
un portefeuille donné x, la probabilité que la perte ne dépasse pas un seuil β est donnée par
la fonction de distribution cumulative Ψ(x, β)telle que
Z
Ψ(x, β) = P(R)dR
f (x,R)≤β

Cette distribution décrit le comportement de la variable aléatoire f (x, R) et est fondamentale


pour le calcul de la VaR et de la CVaR. La fonction Ψ(x, β) est croissante en fonction de
β. Supposons que la distribution Ψ(x, β) est continue par rapport à β. Dans ce cas la VaRα
associée au portefeuille x pour un niveau de confiance α et un horizon T est donnée par

VaRα (x) = inf {β ∈ R : Ψ(x, β) ≥ α}

(voir Rockafellar & Uryasev (2000), Alexander et al. (2006) pour plus de détails). La VaR
possède des propriétés indésirables puisqu’elle est non convexe (voir équation 2.3 pour une
définition des fonctions convexes) et non sous-additive. Ce qui n’est pas en concordance avec
l’effet de diversification selon lequel la diversification doit permettre de réduire le risque. Un
autre inconvénient de la VaR est qu’elle ne prend pas en compte les pertes au-delà de la
VaR. Ces faits incitent à avoir une autre mesure de risque qui a des propriétés mathématiques
désirables. La CVaR est une mesure concurrente.

2.5.3 Optimisation CVaR

Un programme d’optimisation convexe a été proposé Rockafellar & Uryasev (2000) pour
calculer le portefeuille optimal selon le critère CVaR. Les auteurs ont montré que la CVaR
a des propriétés intéressantes telle que la caractéristique de convexité (voir e.g. Ogryczak &
Ruszczyński (2002) et Gaivoronski & Pflug (2005) pour un aperçu détaillé sur la CVaR). De
plus, il est intéressant de noter que la minimisation de la CVaR conduit à un portefeuille
avec une VaR minimum. La mesure de risque CVaRα au niveau α, telle qu’elle a été définie
dans Pflug (2000), Rockafellar & Uryasev (2002) pour la perte d’un portefeuille est donnée
2.5. MODÈLES VAR ET CVAR 53

par :
CVaRα (x) = inf (β + (1 − α)−1 E([f (x, R) − β]+ )) (2.18)
β
avec (
f (x, R) − β sif (x, R) − β > 0,
[f (x, R) − β]+ = (2.19)
0 sinon,
Lorsque la distribution des pertes Ψ(x, β) est continue, la CVaR correspond à la perte espérée
conditionnelle au fait qu’elle soit supérieur ou égale à la VaRα (x) et elle est donnée par

Z
CVaRα (x) = (1 − α)−1 f (x, R)P(R)dR. (2.20)
f (x,R)≥VaRα (x)

On définit la fonction
Z
−1
Fα (x, β) = β + (1 − α) [f (x, R) − β]+ P(R)dR. (2.21)
R∈Rn

Sous l’hypothèse que la fonction de perte f (x, R) est convexe et que la de distribution de la
perte est continue, alors la fonction Fα (x, β) est convexe et continue par rapport à β et la
CVaRα (x) est convexe par rapport à x (voir e.g. Rockafellar & Uryasev (2000)). De plus, la
minimisation de la CVaR pour tout x ∈ X où x est un sous ensemble de Rn est équivalent
à la minimisation de Fα (x, β) i.e.

min CVaRα (x) = min Fα (x, β).


x∈X (x,β)∈x×R

Si de plus, x est un ensemble convexe alors le programme de minimisation CVaR, est un


programme d’optimisation convexe (voir Théorème 2 dans Rockafellar & Uryasev (2000)).
Chapitre 3

Risque Action dans le cadre de


Solvabilité II et Ajustement
symétrique

3.1 Introduction

La solvabilité d’un organisme d’assurance consiste, d’une part, en sa capacité à honorer les
engagements pris à l’égard des assurés et plus largement des bénéficiaires des contrats, d’autre
part, d’avoir un amortisseur financier qui permet d’assurer sa pérennité et son développement
sur un horizon donné.

La marge de solvabilité est l’un des principaux éléments de la surveillance des sociétés
d’assurance. Elle permet de s’assurer de la solidité financière des compagnies d’assurance
et de voir leurs aptitudes à supporter une dégradation de leurs engagements techniques.
La constitution d’une marge de solvabilité doit permettre de faire face aux conséquences
défavorables d’une situation non prévue. Cette marge doit être respectée de manière perma-
nente.

Le monde européen a mis en œuvre un nouveau référentiel prudentiel résultant du projet


Solvabilité II qui a commencé à être appliqué par les organismes assureurs depuis Janvier
2016. Ce projet de nouvelles normes de solvabilité a été lancé par la commission européenne en
2001 et a pour principaux objectifs la protection des assurés et aussi une meilleure lisibilité
d’un Etat européen à un autre. Selon la réglementation précédente Solvabilité I, seuls les
risques du passif sont pris en compte. Vu le rôle important que joue le secteur d’assurance sur
les marchés financiers, il s’avère judicieux d’identifier et de quantifier les risques inhérents au
passif et aussi à l’actif d’un organisme d’assurance. Le projet Solvabilité II permet d’intégrer
tous les risques qui pèsent de manière effective sur l’activité d’assurance afin de pouvoir
allouer suffisamment de capital pour les couvrir.

54
3.1. INTRODUCTION 55

Les principes généraux de Solvabilité II se sont considérablement affinés au fur et à


mesure de l’élaboration des études quantitatives d’impact : les QIS1, QIS2, QIS 3, QIS4 et le
QIS 5 lancés par le CEIOPS (Committee of European Insurance and Occupational Pension
Supervisors et depuis janvier 2011 l’EIOPA European Insurance and Occupational Pensions
Authority crée en 2010). Ces études ont permis le calibrage des formules standards du calcul
du capital de solvabilité requis SCR et du capital de solvabilité minimum MCR.

Le SCR est le principal outil de surveillance des autorités de contrôle. La compagnie


d’assurance qui n’est pas en mesure d’avoir le niveau de fonds propres nécessaires pour
couvrir ses risques est soumise à des mesures d’accompagnement proposées par les autorités
de contrôle. En effet, être en deçà de ce capital cible entrainerait l’exigence d’un plan de
redressement proposé par les autorités de contrôle. Le SCR est calculé de manière à ce que
tous les risques quantifiables auxquels l’entité est exposée soient pris en considération. Les
compagnies devraient avoir le choix entre deux options. Elles pourront soit adopter une
approche standard, soit un modèle interne. Les modèles internes permettent généralement
une meilleure maı̂trise des activités de l’assureur.

Le modèle interne de  Solvabilité II  prévoit que les compagnies d’assurance doivent


disposer d’un niveau de fonds propres et de plus-value latentes sur les placements financiers
qui leur permet de faire face à une probabilité de ruine au niveau de prudence 99.5%, à un
horizon d’un an. En effet, la ruine se produit si le niveau des actifs est inférieur au montant
des engagements de l’assureur représentés principalement par les provisions.

La détermination des quantiles très élevés en assurance est très délicate, cela fait inter-
venir les méthodes de simulation, les outils de la statistique inférentielle et la théorie des
valeurs extrêmes puisque la loi des queues de distribution n’est généralement pas la même
que celle des valeurs centrales de la distribution.

Dans le cadre des études quantitatives d’impact, le CEIOPS a instauré une formule
standard pour le calcul du capital de solvabilité. Le calibrage de cette formule est fait de
manière à approcher autant que possible le critère de probabilité de ruine à un niveau de
confiance de 99.5% sur un horizon d’un an. La formule proposée vise à mesurer le chargement
en capital pour chaque risque puis à procéder à l’agrégation de ces capitaux en tenant compte
des corrélations entre les différents risques (à travers l’utilisation de matrices de corrélations
préétablies par le CEIOPS). La formule standard de calcul du SCR est divisée en modules
comme présentée dans la figure 3.1 :

Les modules de risque pris en compte sont :


1. SCRmkt : le risque de marché (risque de taux, risque de spread, risque immobilier,
risque de change, risque action et le risque de concentration).
2. SCRnl : le risque non vie.
3. SCRlif e : le risque vie.
4. SCRhealth : le risque santé (risque santé court terme, long terme, risque Workers’com-
pensation).
5. SCRdef : le risque de contrepartie.
56 CHAPITRE 3. RISQUE ACTION ET AJUSTEMENT SYMÉTRIQUE

Figure 3.1 – Divers modules de risque selon solvabilité II. Source : QIS4 Technical Specifi-
cations (MARKT/2505/08).

Les modules standards du calcul des SCR sont construits sous forme d’un seul choc ou
facteur qu’on applique pour chaque segment de risque. Le principe est d’appliquer un test de
sensibilité à un scénario. Ce test de sensibilité est calibré de manière prudente équivalente à
une mesure de VaR 99.5%. Il permet donc de déterminer un capital de solvabilité requis qui
protège la compagnie d’une probabilité de ruine de 0.5% sur un horizon d’un an.

Dans ce mémoire on s’intéresse au calibrage du risque action, ce risque résulte du niveau


ou de la volatilité de la valeur de marché des actions.
3.2. CALIBRAGE DU RISQUE ACTION SOUS SOLVABILITÉ II 57

3.2 Calibrage du risque Action sous Solvabilité II

Le risque action est le risque résultant de la variabilité ou de la volatilité de la valeur du


marché actions. En particulier, l’exposition au risque sur action concerne tous les éléments
de l’actif dont la valeur est sensible aux variations des cours de bourse. Le calibrage du
sous module risque action doit être fait conformément aux articles 111 et 304 de la directive
2009/138/EC. Pour ce risque, l’EIOPA distingue les actions globales (actions de type 1),
qui correspondent à celles cotées sur les marchés règlementés dans le EEE ou l’OCDE, des
actions dites autres (actions de type 2) qui regroupent les actions cotées en bourse hors EEE
et OCDE, les actions non cotées, les matières premières et l’alternatif. Deux approches sont
possibles pour calculer le capital de solvabilité pour le sous module action : une approche
standard qui doit être compléter par un mécanisme d’ajustement symétrique (voir l’article
106 de la directive 2009/138/EC) et une approche dite Duration Dampener. La calibration
de l’approche standard correspond à un niveau de Value-at-Risk de 99.5% pour les actions
globales et autres.

Ainsi le choc action consiste donc à appliquer des chocs sur les expositions en actions
pour se couvrir contre une probabilité de ruine de 0.5%. Selon la méthode standard, le SCR
action est calibré en se fondant sur l’indice MSCI World (Morgan Stanley Capital Interna-
tional) composé de 23 types d’actions des pays développés en Europe, Etats-Unis et l’Asie.
Le choix de cet indice est supporté par une majorité. Pour des raisons de simplification sur
les distributions des rendements, la calibration standard considére que les rendements à un
horizon long (annuel ou mensuel) suivent une loi Normale alors que celles de fréquences
hebdomadaires ou journalières suivent des distributions non normales. Les rendements an-
nuelles sont calculés sur une période de 36 ans de 1973 à 2009 et sont obtenus à partir
des prix journaliers avec une fenêtre glissante pour avoir le nombre le grand possible des
rendements annuels (voir CEIOPS-DOC-65/10). Dans le tableau 3.2, on présente l’étude de
l’EIOPA pour le calibrage standard du choc action.

Sous l’hypothèse de normalité on remarque que le choc action défini sur la base des
rendements annuels de l’indice MSCI World correspond à une VaR à 99.5% égale à un choc
de 39% avant ajustement symétrique (voir tableau 3.3). Cette valeur est sous-estimée par
rapport à la VaR déterminée selon la méthode empirique qui correspond à un choc de 44%.
Ce constat reflète que l’hypothèse de normalité peut sous-estimer le risque action puisqu’elle
ne prend pas en compte la modélisation des queues de la distribution. En utilisant la théorie
des valeurs extrêmes, ce choc s’élève à 45% pour les actions globales et il est calculé sur base
des rendements annuels de la dernière année 2009. Ce niveau de choc action est supporté par
un grand nombre des membres de l’EIOPA, le choc de 39% est supporté par une minorité.
De plus on remarque la sensibilité de la mesure VaR par rapport à l’indice de référence, en
effet, si on considère l’indice MSCI Europe alors on remarque que le choc action correspond
à 43% sous l’hypothèse de normalité des rendements annuels et 53% selon la VaR empirique.

Dans notre étude on s’intéresse à l’évaluation du choc actions de type globales pour un
portefeuille fictif d’un assureur qui est bien diversifié et dont les poids sont obtenus selon
58 CHAPITRE 3. RISQUE ACTION ET AJUSTEMENT SYMÉTRIQUE

Figure 3.2 – Etude EIOPA pour le calibrage standard du risque action. Source : CEIOPS-
DOC-65/10

différentes méthodes d’optimisation. On compare les résultats obtenus avec un portefeuille


dont les poids sont uniformes. Notre méthode consiste à modéliser dans un premier temps
les séries des rendements journaliers avec des modèles à variance conditionnelles et dans
un deuxième temps les excès par une distribution de Pareto généralisée. Une fois les séries
modélisées on en déduit les rendements annuels et on calcul la VaR globale du portefeuille
de niveau 99.5%. Le choc action correspond à la mesure de risque VaR estimée. Il permet
d’évaluer le capital de solvabilité requis pour le risque action c’est à dire le SCR Action.
Ce choc calibré sur le portefeuille hypothétique sera comparé au choc standard fixé dans
Solvabilité II c’est à dire le choc 39% majoré d’un ajustement maximal de 10% pour les
actions globales. En d’autres termes on propose de comparer le choc action qui correspond
à la VaR de la valeur des investissements de l’organisme d’assurance ou de réassurance à
un horizon d’un an au seuil maximal de 49%. L’objectif est de voir si le calibrage standard
extrême d’un maximum de 49% permet de faire face à une probabilité de ruine de 0.5%.
3.3. CONTEXTE DE L’AJUSTEMENT SYMÉTRIQUE 59

Notons que l’ajustement maximal de +10% a été calibré en analysant l’évolution de l’in-
dice MSCI Europe. En effet, selon une étude de l’EIOPA effectuée sur la période 01/01/1998-
01/07/2009, la borne sup de la perte annuelle maximale est de l’ordre de 49% et doit être
considérée comme la borne supérieure de l’intervalle d’amortissement (dampener interval en
anglais) du SCR action.

3.3 Contexte de l’ajustement symétrique

Conformément à l’article 106 de la directive 2009/138/EC, le calcul du risque action


selon la méthode standard doit inclure un ajustement symétrique pour couvrir les risques
découlant des changements du niveau des prix des actions. Dans ce cadre le choc standard de
39% est complété par un mécanisme d’ajustement calculé sur la base d’un panier d’indices
actions proposé par l’EIOPA pour le calcul du Dampener. Cet indice de référence spécifique
de l’EIOPA est composé d’un ensemble d’indice actions et est défini de manière à représenter
le plus possible les investissements en actions des compagnies concernées par Solvabilité II.
Les poids des indices composant le portefeuille de référence de l’EIOPA ont été fixés de
manière à représenter les poids des différents marchés actions dans le portefeuille agrégé des
assureurs européens. Cet indice de référence est présenté dans le rapport de l’EIOPA (2015) :
EIOPA-BoS-15/20. Il est composé par les indices suivants avec entre parenthèses les pro-
portions correspondantes : AEX (0.14), CAC40 (0.14), DAX (0.14), FTSE All-Share DAX
(0.14), FTSEMIB (0.08), IBEX 35 (0.08), Nikkei 225 (0.02), OMX Stockholm 30 (0.08), SP
500 (0.08), SMI (0.02), WIG30 (0.08).

Les marchés financiers sont caractérisés par des mouvements exceptionnels et les auto-
rités de contrôle doivent prendre en compte le potentiel pro-cyclique affectant leurs actes.
L’ajustement symétrique appliqué au choc action est donc un mécanisme d’ajustement qui
recouvre la charge standard de 39% pour arriver à l’approche complète standard. Notons
qu’un mécanisme d’ajustement du risque lié au taux d’intérêt a été introduit dans Le Maistre
& Planchet (2014) pour corriger le choc standard.

L’obligation légale sur la détermination de l’ajustement symétrique et l’indice de calcul


de l’EIOPA sont présentées dans la directive 2009/138/EC (modifiée par la directive de
2014/51/EU).
L’implémentation de cette mesure d’ajustement est exposée dans l’ITS (implementing tech-
nical standard) avec un exemple de calcul disponible sur le site de l’EIOPA.

Cet ajustement est fonction de la position dans le cycle et permettra d’éviter les compor-
tements pro-cycliques des investisseurs. En effet, en période de bas de cycle l’économie est en
expansion et va être favorable aux actions et la réaction des investisseurs sera d’acheter un
grand nombre d’actions. En d’autres termes, on prévoit une hausse de la valeur des actions.
Pour prendre en considération ce fait, on corrige le choc par un mécanisme d’ajustement
symétrique, le dampener pour atténuer le choc action lorsque les marchés sont en bas de
60 CHAPITRE 3. RISQUE ACTION ET AJUSTEMENT SYMÉTRIQUE

cycle. Inversement, lorsque les marchés sont en haut de cycle, on prévoit une période de
récession, c’est à dire de baisse de la valeur des actions, la meilleure stratégie des investis-
seurs et également des assureurs sera de vendre des titres composants leurs portefeuilles. Afin
d’éviter cette situation qui peut mettre en cause le rôle des assureurs dans le financement de
l’économie, on ajuste à la hausse le choc action (c’est à dire on l’augmente). La calibration
globale du risque action est donc comme suit :
Ajustement global du choc action=choc action standard + ajustement du choc ×β.
Ce β peut être approché par 1 (voir CEIOPS-DOC-65/10) ou estimé en régressant le niveau
de l’indice par rapport à une moyenne pondérée du niveau de l’indice.

Cet ajustement permet donc d’atténuer le choc action et ainsi de réduire le SCR en bas
de cycle c’est à dire quand la probabilité de hausse de la valeur des actions est importante.
Inversement, en haut de cycle, c’est à dire quand la probabilité de baisse de la valeur des
actions est importante, cet ajustement permet d’augmenter le choc action. Le choc actions
est ainsi ajusté par l’EIOPA de +/-10 % et ventile entre 29% et 49% pour les actions globales,
voir figure 3.3.

Un ajustement de -10 % correspond à l’ajustement symétrique pour une baisse maximale


de la valeur du marché action Type 1de 12% par rapport à la moyenne des trois dernières
années. C’est à dire si le marché action est en baisse de plus de 12% par rapport à la moyenne
des trois dernières années, alors on ai en période d’expansion (cycle bas) et on prévoit une
hausse des marchés, on applique un ajustement de −10% et le choc action est donc égal
à 39% − 10% = 29%. Notons qu’un choc est par définition positif. Un ajustement à la
hausse de +10 % correspond à l’ajustement symétrique pour une hausse maximale de la
valeur du marché action Type 1 de 28% par rapport à la moyenne des trois dernières années.
C’est-à-dire si le marché action est en hausse de plus de 28% par rapport à la moyenne des
trois dernières années, alors on est en période de récession (cycle haut) et on prévoit une
baisse des marchés et on applique un ajustement maximal de +10%. Le choc action est donc
39% + 10% = 49%.

Selon l’article 172 de la commission de régulation déléguée l’EIOPA, le dampener est


donné par l’équation (3.1)

Dampener = max[min[SA, 10%], −10%], (3.1)

tel que SA désigne la valeur de l’ajustement symétrique avant d’être majoré ou minoré :on
dit capé et floré. En décembre 2014 et jusqu’a aujourd’hui la formule de calcul du SA est
donné par (3.2).
1 CI − AI
SA = ( − 8%), (3.2)
2 AI
de plus dans (3.2), on note
CIi − AIi
Di = , (3.3)
AIi
où

— Di est la distance en pourcentage de la valeur de l’indice par rapport à sa moyenne


3.3. CONTEXTE DE L’AJUSTEMENT SYMÉTRIQUE 61

Figure 3.3 – Le calibrage standard du risque action selon Solvabilité II. Source : CEIOPS-
DOC-65/10.

mobile sur trois ans.


— CI est la valeur courante du panier d’indices actions de référence proposé par l’EIOPA
— AI correspond au niveau moyen sur les trois dernières années de la valeur de l’indice
de référence, il est calculé comme étant une moyenne pondérée des valeurs journalières
de l’indice sur les 36 derniers mois.
Dans le graphique 3.4 on donne la représentation de l’ajustement symétrique depuis 01/07/1991-
29/02/2016.

On note que le CEIOPS’advice recommande l’utilisation d’une période d’une année au


lieu de trois ans pour calculer la moyenne pondérée. Toutefois, une étude présentée dans le
CEIOPS-DOC-65/10 (voir CEIOPS (2010)) a montré que l’utilisation de courte période sous-
estime la VaR des rendements de l’indice MSCI World modélisé par un modèle autorégressif
(voir section 1.5) et dont le comportement pro cyclique est calculé en utilisant le filtre de
62 CHAPITRE 3. RISQUE ACTION ET AJUSTEMENT SYMÉTRIQUE

0.1

0.08

0.06

0.04

0.02

−0.02

−0.04

−0.06

−0.08

−0.1
0 2000 4000 6000 8000 10000

Figure 3.4 – L’évolution de l’ajustement symétrique sur la période 01/07/1991-29/02/2016

Hodrick-Prescott (voir CEIOPS-DOC-65/10). La même étude a montré qu’en utilisant une


période de cinq ans on minimise le potentiel que la VaR soit sous-estimée. Son inconvénient
est qu’elle peut même surestimer le choc action. Ainsi le dampener est calculé par l’EIOPA
en fonction de la distance d’un indice action et sa moyenne mobile sur les trois dernières
années. Le calcul proposé par l’EIOPA, dans chaque date, nécessite la mise à jour des données
et le recalcule de l’historique de l’indice sur les 36 derniers mois. Soit un assureur qui veux
anticiper son action d’ajuster son SCR action c’est à dire qui désire prévoir s’il va appliquer
durant la prochaine période un ajustement à la hausse, à la baisse ou d’un niveau κ% de son
choc action. Il souhaite également savoir la probabilité d’appliquer l’ajustement maximal à
la hausse (+10%) ou à la baisse (-10%) durant la prochaine période. On note qu’un choc
positif amplifie le capital action (e.g. 39%+10%) alors qu’un choc négatif réduit le capital
action (e.g. 39%-10%).

Dans ce mémoire on propose d’estimer la probabilité que l’ajustement soit d’un niveau
κ%, en d’autres termes on propose d’estimer la probabilité de variation de α% de la valeur
d’un portefeuille action. On note qu’un justement symétrique de valeur κ% correspond à
un niveau α telle que 2 ∗ κ% + 8% = α% (voir (3.2)). Par exemple dans le cas extrême, si
on désire estimer la probabilité d’avoir un ajustement de κ = −10% alors on s’intéresse à
une baisse des marchés de plus de α = 12%. Inversement si on désire estimer la probabilité
d’avoir un ajustement de κ = 10% alors on s’intéresse à une hausse des marchés de plus de
α = 28%.
Deuxième partie

Partie empirique : Application

63
64
Chapitre 4

Présentation des données

4.1 Type des données

Les données dont on dispose sont les prix des indices boursiers. La période qu’on a choisi
est celle entre janvier 2000 et décembre 2015, soit 16 années d’observations avec 256 jours
de cotation par an. On dispose en tout de 4090 observations correspondantes aux prix de
clôture journalier des indices boursiers non ajustés aux dividendes. Le choix de cette période
est motivé par deux raisons, la première est que cette période est suffisamment longue pour
inclure différentes crises récentes. En effet, cette période inclus le Krach boursier de 2001-
2002, la crise financière 2007-2008 et la crise de la dette souveraine de 2010-2012. La deuxième
raison est que la période est suffisamment courte pour représenter l’état actuel de l’économie
en Europe.

4.2 Calcul des rendements : annuels et journaliers

Soient (pi )1≤i≤n . les prix d’un indice boursier à différentes dates i.
— Le rendement périodique journalier pour la période i est calculé par la formule suivante
des rendements logarithmiques

ri = ln(pi /pi−1 ). (4.1)

On note que lorsque les ri suivent une loi normale les prix suivent une loi lognormale.
— Le rendement périodique annuel pour la période i est calculé par la formule suivante
des rendements arithmétiques
pi − pi−256
Ri = . (4.2)
pi−256

65
66 CHAPITRE 4. PRÉSENTATION DES DONNÉES

Cette formule sera utilisée lors de l’optimisation des portefeuilles puisqu’il s’agit des
rendements discrets sur un horizon long (une année). Les rendements annuels obtenus
selon la formule (4.2) sont des rendements annuels glissants.

4.3 Description des rendements journaliers

Dans ce paragraphe on prend l’exemple de la série des rendements journaliers de l’indice


CAC40.

La figure 4.1 de la série des rentabilités journalières du CAC40 montre que le processus
caractérisant l’indice boursier est stationnaire au sens faible et oscille d’une manière aléatoire
autour de zéro. On constate la présence de plusieurs valeurs aberrantes et des variations
positives et négatives qui rendent compte du caractère de la non constance de la volatilité
au cours du temps. De plus on remarque un phénomène de variation de la valeur de l’indice
par paquets groupés. On parle d’un fait stylisé de la volatilité.

12

10

8
Rendements Journaliers en (%)

−2

−4

−6

−8

−10
0 500 1000 1500 2000 2500 3000 3500 4000
Périodes

Figure 4.1 – Rendements logarithmiques journaliers du CAC40.

On note que ces constatations sont aussi valables pour les autres indices qui seront traités
dans ce mémoire et qui sont : le DAX, le AEX, le FTSEMIB, le FTSE100, le SP500 et le
SMI.
4.3. DESCRIPTION DES RENDEMENTS JOURNALIERS 67

4.3.1 Corrélation des données

Dans le tableau 4.1 on donne les coefficients de corrélation des rendements journaliers.
Cette matrice révèle d’une forte corrélation positive des rendements.

CAC40 Dax Aex Ftsemib Ftse100 SP500 Smi


CAC40 1.0000 0.8796 0.8769 0.8899 0.8851 0.5476 0.7983
Dax 0.8796 1.0000 0.8145 0.8109 0.7974 0.5936 0.7638
Aex 0.8769 0.8145 1.0000 0.7964 0.8290 0.5093 0.7769
Ftsemib 0.8899 0.8109 0.7964 1.0000 0.8000 0.5166 0.7223
Ftse100 0.8851 0.7974 0.8290 0.8000 1.0000 0.5240 0.7812
SP500 0.5476 0.5936 0.5093 0.5166 0.5240 1.0000 0.4809
Smi 0.7983 0.7638 0.7769 0.7223 0.7812 0.4809 1.0000

Table 4.1 – Matrice des corrélations des rendements journaliers.

4.3.2 Etude de la stationnarité et de l’autocorrélation

Pour étudier la stationnarité de la série on analyse les fonctions d’auto corrélations (AFC).
D’aprés la figure 4.2 relative à la AFC de l’indice CAC40 on constate une décroissance
exponentielle des autocorrélations dès l’ordre un des retards, ce qui confirme la stationnarité
du processus. L’autocorrélogramme de la série permet de rendre compte rapidement que
la série est stationnaire. Pour confirmer ce constat on utilise le test de racine unitaire de
Phillips-Perron au seuil de 5% (voir Bourbonnais & Terraza (2008)). Selon ce teste on test
l’hypothèse
H0 : yt = yt−1 + t contre H1 : yt = c + ayt−1 + t ,
avec c une constante et a < 1 avec t est un bruit blanc. Sous H0 : (yt )t>≥1 est une marche
aléatoire et sous H1 (yt )t>≥1 est un processus autorégressive avec constante. Ce test est plus
robuste que le test de Dickey-Fuller (voir Bourbonnais & Terraza (2008)) puisque dans notre
cas on remarque la présence d’une variance conditionnelle non constante dans le temps. L’ap-
plication de ce test confirme la stationnarité de la série des rendements journaliers du CAC40.
Le graphique 4.3 représente les rendements des autres séries d’indices considérées dans notre
étude. On note que le test de Phillips-Perron au seuil de 5% confirme la stationnarité de ces
processus.

De plus on note que l’application du test de Box et Pierce indique la présence d’auto-
corrélation significative d’ordre un de la série des rendements CAC40. Ceci est claire d’après
la figure 4.2. Ce constat est en faveur d’une modélisation autorégressive de la série des rende-
ments CAC40. On note que le même phénomène est observé pour les autres séries temporelles
68 CHAPITRE 4. PRÉSENTATION DES DONNÉES

Sample Autocorrelation Function

0.8

Sample Autocorrelation
0.6

0.4

0.2

−0.2
0 2 4 6 8 10 12 14 16 18 20
Lag

Figure 4.2 – Fonction d’autocorrélation des rendements logarithmiques journaliers du


CAC40.

des rendements.

Les rendements oscillent autour d’un niveau contant et présentent un effet de clustering
de volatilité (voir chapitre I) où les grands changements dans les rendements ont tendance
à se regrouper et les petits changements ont tendance à se regrouper. Autrement dit la série
présente une hétéroscédasticité conditionnelle.

4.3.3 Etude de la normalité

L’ajustement des observations empiriques par une loi normale n’est pas suffisant car
d’après le graphique du quantile quantile plot (qqplot) ; on remarque que cette loi gaussienne
permet de modéliser les valeurs centrales de la série mais pas les queues. ceci est confirmé
par l’histogramme des fréquences ajusté à une loi normale et par le QQPLOT (voir Figure
4.4).

Pour tester la normalité des rendements on utilise le test de Jarque-Bera. Ce test de nor-
malité sert dans le cas où il y a hétéroscédasticité. En effet, l’hétéroscédasticité se manifeste
sur le graphique de la distribution par des queues de probabilité plus épaisses (leptokurtique)
que les queues de la loi normale. En appliquant ce test sur les différents indices, l’hypothèse
de normalité des rendements a été refusée fortement à un seuil de risque de 5%.
4.3. DESCRIPTION DES RENDEMENTS JOURNALIERS 69

Rendements journaliers en % du DAX


20
0

−20
0 500 1000 1500 2000 2500 3000 3500 4000 4500
Rendements journaliers en % du AEX
20
0
−20
0 500 1000 1500 2000 2500 3000 3500 4000 4500
Rendements journaliers en % du FTSEMIB
20
0
−20
0 500 1000 1500 2000 2500 3000 3500 4000 4500
Rendements journaliers en % du FTSE100
10
0

−10
0 500 1000 1500 2000 2500 3000 3500 4000 4500
Rendements journaliers en % du SP500
20
0

−20
0 500 1000 1500 2000 2500 3000 3500 4000 4500
Rendements journaliers en % du SMI
20
0
−20
0 500 1000 1500 2000 2500 3000 3500 4000 4500

Figure 4.3 – Rendements logarithmiques journaliers du DAX. AEX. FTSEMIB. FTSE100.


SP500 et SMI

Histgramme des rendements journaliers en % du CAC40


500

400

300

200

100

0
−10 −5 0 5 10 15

QQ Plot of Sample Data versus Standard Normal


15
Quantiles of Input Sample

10

−5

−10
−4 −3 −2 −1 0 1 2 3 4
Standard Normal Quantiles

Figure 4.4 – Histogramme et QQplot des rendements logarithmiques journaliers du Cac40.


70 CHAPITRE 4. PRÉSENTATION DES DONNÉES

4.3.4 Caractéristiques des Rendements journaliers

Dans le tableau 4.2, on donne une description et quelques indices de tendance centrale de
risque et de forme des séries des rendements journaliers historiques utilisées dans ce mémoire.

Moyenne Ecart Skewness Kurtosis VaR VaR VaR Min


en % -Type en % (95%) (99%) (99.5%) en %
CAC40 -0.0060 1.5005 0.0069 7.6057 -2.4345 -4.3010 -5.2565 -9.4715
DAX 0.0114 1.5503 0.0090 7.2134 -2.4727 -4.6909 -5.2900 -8.5315
AEX -0.0104 1.4769 -0.0828 9.1369 -2.3350 -4.4919 -5.3208 -9.5903
FTSEMIB -0.0159 1.5394 -0.0836 7.2046 -2.5206 -4.5625 -5.3091 -8.5991
FTSE100 -0.0026 1.2218 -0.1559 9.1857 -1.9276 -3.5271 -4.7792 -9.2645
SP500 0.0083 1.2674 -0.1844 10.8989 -1.9821 -3.5079 -4.7769 -9.4695
SMI 0.0047 1.2078 -0.1643 9.8653 -1.8658 -3.6056 -4.5819 -9.0705

Table 4.2 – Statistiques descriptives : cas des rendements logarithmiques journaliers.

D’après le tableau 4.2 on remarque que tous les indices sont caractérisés par un Kurtosis
supérieur à 3 révélant de la présence des queues leptokurtiques dans les séries des rendements
journaliers. De plus ces séries sont caractérisées par des skewness non nul révélant de la
présence de l’asymétrie par rapport aux pertes et gains des séries des rendements journaliers.

4.4 Description des rendements annuels

Nous considérons les rendements annuels glissants obtenus selon la formule (4.2). Dans la
figure (4.5) on note le caractère non stationnaire des séries des rendements annuels. D’après
le graphique 4.6 on remarque le non ajustement de la série des rendements annuels par
rapport à une loi normale. Ce constat est confirmé par le test de normalité de Jarque-Bera
qui indique que ses séries ne sont pas normales. Dans le tableau 4.3 on donne un résumé des
caractéristiques des séries de rendements annuel arithmétiques. On remarque que le Kurtosis
pour ces rendements est proche de celui d’une distribution normale (c’est à dire de 3). Ces
valeurs de Kurtosis sont considérablement moins élevés que ceux des rendements journaliers
(voir le tableau 4.2). De plus on remarque que la Value-At-Risk au niveau de 99.5% est en
moyenne d’une valeur de −45%.

On note que les VaR estimées dans le tableau 4.3 sont calculées selon la méthode histo-
rique. Si on estime ces VaR selon la méthode normale des rendements annuels c’est à dire
4.4. DESCRIPTION DES RENDEMENTS ANNUELS 71

Rendements annuels du CAC40


60

40
Rendements (%)

20

−20

−40

−60
0 500 1000 1500 2000 2500 3000 3500 4000
Periodes

Rendements annuels du CAC40, DAX, AEX, FTSEMIB


100

50
Rendements (%)

CAC40
DAX
−50 AEX
FTSEMIB

−100
0 500 1000 1500 2000 2500 3000 3500 4000
Périodes

Figure 4.5 – Rendements arithmétiques annuels des indices CAC40. DAX. AEX et FTSE-
MIB.

Histgramme des rendements arithmétiques annuels en % du CAC40


200

150

100

50

0
−80 −60 −40 −20 0 20 40 60 80

QQ Plot of Sample Data versus Standard Normal


100
Quantiles of Input Sample

50

−50

−100
−4 −3 −2 −1 0 1 2 3 4
Standard Normal Quantiles

Figure 4.6 – Histogramme et QQplot des rendements arithmétiques annuels du CAC40.


72 CHAPITRE 4. PRÉSENTATION DES DONNÉES

Moyenne Ecart-Type Skewness Kurtosis VaR VaR VaR Min


en % en % (95%) (99%) (99.5%) en %
CAC40 0.6053 20.5596 -0.4513 2.1714 -36.5295 -42.9226 -44.6184 -47.3363
DAX 6.0253 24.0677 -0.4852 2.4564 -39.1817 -47.2024 -51.2437 -58.2441
AEX 0.5467 22.3689 -0.5283 2.8724 -44.7696 -51.8943 -53.3067 -57.6535
FTSEMIB -2.0205 21.7397 -0.3362 2.3759 -37.8663 -50.4422 -53.9583 -60.7788
FTSE100 1.4947 15.6033 -0.3204 3.1328 -28.2645 -34.5301 -36.7763 -42.1747
SP500 4.1794 17.7968 -0.5932 3.2639 -30.0945 -41.2965 -42.8405 -48.8228
SMI 2.8469 18.9969 -0.1544 2.3808 -30.7240 -36.0864 -38.3278 -43.0435

Table 4.3 – Statistiques descriptives : cas des rendements arithmétiques annuels.

VaRα = µ − σ ∗ q(α) où q(α) est le quantile d’ordre α d’une loi normale, alors on obtient les
résultats donnés dans le tableau 4.4 suivant :

VaR VaR VaR


(95%) (99%) (99.5%)
CAC40 -34.4238 -48.4331 -53.5627
DAX -40.1915 -56.5912 -62.5961
AEX -37.3413 -52.5835 -58.1645
FTSEMIB -33.7391 -48.5526 -53.9766
FTSE100 -27.1606 -37.7927 -41.6857
SP500 -33.4534 -45.5801 -50.0204
SMI -34.0949 -47.0394 -51.7791

Table 4.4 – VaR des rendements arithmétiques annuels selon la méthode normale.

Ces résultats montrent que dans le cas où on considère une fenêtre glissante pour calculer
les rendements annuels on risque d’avoir une grande dispersion entre les rendements observés.

L’application du test de Phillips-Perron permet de conclure que les séries des rendements
annuels des indices CAC40, DAX, AEX, FTSEMIB, FTSE100, SP500 et SMI, sont non sta-
tionnaires.

Dans le tableau 4.5 on donne les rendements annuels. Cette matrice révèle d’une forte
corrélation positive des rendements annuels.
4.4. DESCRIPTION DES RENDEMENTS ANNUELS 73

Cac40 Dax Aex Ftsemib Ftse100 SP500 Smi


Cac40 1.0000 0.9619 0.9596 0.9517 0.9315 0.8919 0.9398
Dax 0.9619 1.0000 0.9496 0.8706 0.9239 0.8963 0.9029
Aex 0.9596 0.9496 1.0000 0.8940 0.9403 0.8996 0.9233
Ftsemib 0.9517 0.8706 0.8940 1.0000 0.8561 0.8459 0.8674
Ftse100 0.9315 0.9239 0.9403 0.8561 1.0000 0.9155 0.9041
SP500 0.8919 0.8963 0.8996 0.8459 0.9155 1.0000 0.8382
Smi 0.9398 0.9029 0.9233 0.8674 0.9041 0.8382 1.0000

Table 4.5 – Matrice des corrélations des rendements annuels.


Chapitre 5

Optimisation MV, CVaR et moments


d’ordre supérieur à deux

5.1 Introduction

On considère deux portefeuilles d’indice action qui peuvent être composés à partir des
portefeuilles actions suivants :

1. Le premier fond : CAC40, DAX, AEX, FTSEMIB.

2. Le deuxième fond : CAC40, DAX, AEX, FTSEMIB, FTSE100, SP500, SMI.

On a choisit de travailler sur ces indices car ils composent l’indice global MSCI sur lequel
l’EIOPA se base pour modéliser le choc action. Pour chaque fond on propose de

1. Déterminer la composition du portefeuille optimale :

(a) Selon le critère de Markowitz ou moyenne variance (MV) : l’objectif sera d’at-
teindre le rendement cible en minimisant la variance du portefeuille.

(b) Selon le critère CVaR dont la mesure de risque à optimiser sera la CVaR au lieu
de l’écart type utilisé dans l’optimisation moyenne variance.

(c) Selon les critères incorporants les moements d’ordre supérieurs à deux (unique-
ment pour le fond numéro 1).

2. Comparer les compositions des portefeuilles déterminées selon chaque critère.

3. Calculer la VaR historique du portefeuille optimal selon chaque critère.

74
5.2. OPTIMISATION SELON LE CRITÈRE DE MARKOWITZ : MOYENNE-VARIANCE75

5.2 Optimisation selon le critère de Markowitz : moyenne-


variance

5.2.1 Introduction

L’utilisation de l’optimisation moyenne-variance peut être justifiée lorsque la fonction


d’utilité de l’investisseur est quadratique ou lorsque les rendements des titres sont supposés
suivre une loi normale multivariée. Ces deux hypothèses sont fortes puisque une fonction
d’utilité quadratique n’est généralement pas intuitive et la normalité des rendements est
rejetée. Toutefois, le critère moyenne-variance peut être valide pour des préférences et des
distributions de rendements arbitraires, ceci est vu à partir du développement de Taylor de
l’espérance de l’utilité.
Nous introduisons deux types de contraintes :
— Une contrainte sur la rentabilité du portefeuille en fixant un rendement cible à at-
teindre.
— Une contrainte sur la composition du portefeuille en supposant que les ventes à découvert
ne sont pas autorisées.
Le taux de rentabilité cible est généralement déterminé en prenant en considération des
contraintes liées aux engagements de l’assureur. Dans l’application ci-après on considére trois
exemples dans lesquels le rendement journalier minimum du portefeuille actions doit être
égale à 0.6%, 0.7% ou 0.8%. On note que lorsque le critère moyenne-variance est considéré,
le développement de taylor de la fonction d’utilité espérée est tronqué à l’ordre deux.

5.2.2 Programmes d’optimisation

Soit N le nombre de titre composant le portefeuille à optimiser, et soit R = (R1 , , RN )0


le vecteur des rendements de ces N titres.
— W̄ = E(W ) = (1 + x0 E(R)) = (1 + x0 µ) = (1 + µp ).
— µ = (µ1 , . . . , µN ) est le vecteur des espérances des rendements des titres.
— µp est l’espérance du rendement du portefeuille en fin de période.
— Σ est la matrice variance-covariance des rendements des titres.

1. On considère la fonction d’utilité quadratique suivante, c’est à dire :


1
U (W ) = W − W 2 .
2
Dans ce cas l’utilité espérée à maximiser est la suivante :
1 1 0 2 1 0
E(U (W )) = − (x µ) − x Σx.
2 2 2
76 CHAPITRE 5. OPTIMISATION DE PORTEFEUILLE

2. On considère la fonction d’utilité logarithmique

U (W ) = ln(W ),

dans ce cas, la fonction à maximiser est :


1
E(U (W )) = ln(1 + x0 µ) − 0 0
x0 Σx.
2 (1 + x µ)(1 + x µ))

3. On considère la fonction d’utilité exponentielle suivante

U (W ) = − exp−λW , avec λ = 1.

La fonction à maximiser est donc :


1
E(U (W )) = − exp(−(1 + x0 µ)) − exp(−(1 + x0 µ)) ∗ x0 Σx.
2

On note que le résultat d’optimisation de portefeuille avec contrainte de rendement selon


le critère moyenne-variance n’est pas influencé par le choix de la fonction d’utilité. Pour
n’importe quelle fonction d’utilité, le portefeuille optimal est le même. En effet, le rende-
ment du portefeuille étant fixe, le programme d’optimisation est réduit à un programme de
minimisation de la variance.

5.2.3 Discussion des résultats de l’optimisation moyenne-variance

Dans le tableau 5.1 on présente le portefeuille optimal obtenu selon le critére moyenne
variance pour différents taux de rentabilités cibles pour les deux fonds 1 et 2.
On remarque que pour le fond numéro 1 composé par le CAC40, le DAX, le AEX et le
FTSEMIB, le portefeuille optimal est composé de plus de 70% de l’indice Dax et le reste
par l’indice AEX. On remarque que le rendement journalier moyen le plus élevé est celui du
DAX, de plus ce même titre a le ratio de performance le plus élevé sur l’ensemble des quatre
titre composant le fond numéro 1. On rappelle que le ratio de performance est égal au rapport
du rendement par l’écart-type. Il représente le rendement d’un titre par unité de risque et
mesure la performance d’un titre ou d’un portefeuille par rapport à son risque total. On
remarque que pour le fond numéro 2 composé par le CAC40, le DAX, le AEX, le FTSEMIB,
le FTSE100, le SP500 et le SMI, le portefeuille optimal est composé en majorité de l’indice
SP500 suivis du titre SMI. On note que ces deux titres ont les ratios de performance les plus
attractifs par rapport à l’ensemble de tout les autres titres.

Dans le tableau 5.2, on reporte les caractéristiques du portefeuille optimal pour différents
taux de rentabilité cible pour les deux fonds. On remarque que pour un même taux de ren-
dement moyen, le portefeuille optimal (P.O.) du fond numéro un est plus risqué en terme
d’écart-type que celui du fond numéro 2. Toutefois, le skewness et le kurtosis du P.O. du
fond numéro un sont plus faibles en valeur absolue que ceux du fond numéro 2.
5.2. OPTIMISATION SELON LE CRITÈRE DE MARKOWITZ : MOYENNE-VARIANCE77

RJ moyen égale à 0.6% RJ moyen égale à 0.7% RJ moyen égale à 0.8%


Fond 1 Fond 2 Fond 1 Fond 2 Fond 1 Fond 2
CAC40 0 0 0 0 0 0
DAX 0.7527 0 0.7987 0.0578 0.8446 0.2031
AEX 0.2473 0 0.2013 0 0.1554 0
FTSEMIB 0 0 0 0 0 0
FTSE100 - 0.0548 - 0 - 0
SP500 - 0.4690 - 0.5291 - 0.5378
SMI - 0.4762 - 0.4131 - 0.2591

Table 5.1 – Proportions investies dans chaque titre selon le critère d’optimisation Moyenne-
Variance.

Les portefeuilles efficients, c’est-à-dire ceux offrant le meilleur profil possible en terme de
rentabilité pour un niveau de risque donné, sont représentés par la frontière efficiente. Dans
un portefeuille efficient, il n’y a aucun moyen de réduire le risque sans réduire le rendement,
ni d’avoir un meilleur rendement sans accroı̂tre son risque. C’est donc un portefeuille qui
donne le meilleur rendement pour un taux de risque donné. La combinaison de tout les titres :
le CAC40, le DAX, le AEX, le FTSEMIB, le FTSE100, le SP500 et le SMI fournissent une
meilleure courbe (en termes de volatilité et de rendement) que la combinaison des 4 indices :
le CAC40, le DAX, le AEX et le FTSEMIB ; (voir figure 5.1).

−3 Frontière efficiente
x 10
12

10

8
Rendement du portefeuille

4 Frontière efficiente du fond numéro 1


Frontière efficiente du fond numéro 2
2

−2

−4
1 1.1 1.2 1.3 1.4 1.5 1.6 1.7
Ecart−type du portefeuille des rendements

Figure 5.1 – Comparaison des frontières efficientes des fonds 1 et 2 selon le critère Moyenne-
Variance.
78 CHAPITRE 5. OPTIMISATION DE PORTEFEUILLE

RJ moyen égale à 0.6% RJ moyen égale à 0.7% RJ moyen égale à 0.8%


Fond 1 Fond 2 Fond 1 Fond 2 Fond 1 Fond 2
Moyenne 0.006 0.006 0.007 0.007 0.008 0.008
Ecart-type 1.4796 1.0580 1.4904 1.0807 1.5022 1.1279
Skewness -0.0564 -0.2018 -0.0456 -0.1861 -0.0341 -0.1119
Kurtosis 7.5730 10.9122 7.4880 10.8653 7.4103 10.3182
VaR(95%) -2.3568 -1.6591 -2.3658 -1.7219 -2.3855 -1.7781
VaR(99%) -4.6518 -3.1547 -4.6833 -3.2590 -4.6938 -3.2870
VaR(99,5%) -5.2016 -4.2415 -5.1916 -4.2638 -5.1825 -4.2617
Min -8.0389 -7.5799 -8.1306 -7.7671 -8.2220 -7.9424
Utilité 8.0389 7.5799 8.1306 7.7671 8.2220 7.9424

Table 5.2 – Caractéristiques du portefeuille optimal selon le critère d’optimisation moyenne-


variance.

5.3 Optimisation selon le modèle CVaR

Dans cette section on applique l’optimisation CVaR de portefeuille introduite dans Ro-
ckafellar & Uryasev (2000).

5.3.1 Programme d’optimisation

L’optimisation CVaR considérée fonctionne de la même manière que l’optimisation moyenne


variance en considérant à la place de la variance comme mesure de risque à minimiser pour
un rendement cible la mesure de risque CVaR. La CVaR d’un portefeuille de composition
x ∈ X est donnée par
Z
CVaRα (x) = (1 − α)−1 f (x, ξ)P(ξ)dξ. (5.1)
f (x,ξ)≥VaRα (x)

avec
— f (x, ξ) est la fonction de perte pour un portefeuille de composition x et de rendements
des titres donnés par ξ. Pour plus de précision, si Y est la série des rendements, alors
−Y représente la série des pertes. On dit rendement y = −2% ou perte de 2%.
— P(ξ) est la densité des probabilité des rendements.
— VaRα (x) est la value-at-risk pour un niveau de confiance α, du portefeuille x avec
0 < α < 1. Typiquement α ∈ {0.995, 0.99, 0.95}. Pour un niveau α donné, la VaRα (x)
5.3. OPTIMISATION SELON LE MODÈLE CVAR 79

pour un portefeuille de composition x est telle que la probabilité que la perte du


portefeuille dépasse le niveau VaRα (x) est (1 − α).
— La VaRα est donnée par VaRα (x) = min {β, P(f (x, ξ) ≤ β) ≥ α}.
— Etant donné VaRα pour un portefeuille x, la CVaRα du portefeuille est la perte espérée
du portefeuille des rendements au-delà de la VaRα .
On note qu’une formulation alternative de (5.1), est
1 Z
CVaRα (x) = VaRα (x) + max {0, (f (x, ξ) − VaRα )} P(ξ)dξ.
(1 − α) Rn

On note aussi que la VaRα est estimée lorsque la CVaRα est estimée. Le programme d’opti-
misation considéré est le suivant :

0

 = µ,
x E(ξ)
0
min CVaRα (x)S.C. x l = 1, (5.2)
x 


x ≥ 0.

où CVaR est donnée par (5.1) et la fonction de perte f (x, ξ) est donnée par f (x, ξ) = −x0 ξ.

5.3.2 Discussion des résultats

D’après la figure 5.4 dans laquelle on donne la frontière efficiente du fond numéro 1 et
de celle du fond numéro 2 selon le critère CVaR, on remarque que, comme pour le critère
MV, le fond numéro 2 surperforme le fond numéro 1 en terme de rapport rendement/risque.
Dans le tableau 5.3, on remarque que pour le fond numéro 1, selon le critère CVaR avec
α = 99%, le portefeuille est réparti entre les titres DAX et CAC40. Dans le tableau 5.1,
on remarque que selon le critère moyenne-variance l’allocation était reparti entre le DAX
et le AEX. Notons que les indices DAX et AEX sont ceux à écart-type minimum parmi les
quatre titres du fond numéro 1, alors que selon le critère CVaR, les titres DAX et CAC40
sont ceux avec les VaR les moins élevées. Ce constat se généralise à l’ensemble des trois
portefeuilles de la frontière efficiente déterminées selon le critère CVaR pour les taux 0.6%,
0.7% et 0.8% (voir figure 5.5). Pour le fond 2, la répartition est effectuée dans les deux
programmes d’optimisation (MV et CVaR) entre les FTSE100, DAX, SP500 et SMI avec
une augmentation des poids de FTSE100 et de DAX dans l’allocation CVaR (voir figure 5.6)

Selon la figure 5.2 et 5.3, la frontière efficiente (Rendement/ CVaR) pour un niveau de
confiance α = 95% est au-dessus de celle avec un niveau de confiance α = 99%.

Rockafellar & Uryasev (2000) ont montré que pour des distributions normales, il n’y a
pas de différence significatives entre les frontières efficientes obtenues selon le critère MV
et CVaR. Toutefois, dans le cas ou les distributions sont asymétriques et non normales, les
critères d’optimisation CVaR et MV peuvent conduire à des différences significatives.
80 CHAPITRE 5. OPTIMISATION DE PORTEFEUILLE

RJ moyen égale à 0.6% RJ moyen égale à 0.7% RJ moyen égale à 0.8%


Fond 1 Fond 2 Fond 1 Fond 2 Fond 1 Fond 2
CAC40 0.3103 0 0.2526 0 0.1949 0
DAX 0.6897 0.0811 0.7474 0.1238 0.8051 0.2272
AEX 0 0 0 0 0 0
FTSEMIB 0 0 0 0 0 0
FTSE100 - 0.1224 - 0.0428 - 0
SP500 - 0.4552 - 0.4932 - 0.4932
SMI - 0.3413 - 0.3403 - 0.2797

Table 5.3 – Proportions investies dans chaque titre selon le critère d’optimisation CVaR,
α = 99%.

−3 Frontière efficiente
x 10
12

10

8
Rendement du portefeuille

−2

−4 alpha=95%
alpha=99%
−6
3 3.5 4 4.5 5 5.5 6
CVaR du portefeuille des rendements

Figure 5.2 – Comparaison des frontières efficientes selon le critère CVAR, α = 95%, α =
99%, Fond 1.

Dans les figures 5.7 et 5.8 on représente respectivement pour le fond 1 et 2, la frontière
efficiente selon le critère MV en comparaison avec celle selon le critère CVaR pour des seuils
α ∈ {95%, 99%}. On remarque que la différence entre le critère MV et CVaR pour α = 95%
est moins importante que celle enregistrée pour un niveau de confiance α = 99% plus élevé.
On note aussi que pour un rendement fixé, le portefeuille CVaR optimale a un écart type
plus élevé que celui obtenu par le portefeuille optimale MV.
5.3. OPTIMISATION SELON LE MODÈLE CVAR 81

RJ moyen égale à 0.6% RJ moyen égale à 0.7% RJ moyen égale à 0.8%


Fond 1 Fond 2 Fond 1 Fond 2 Fond 1 Fond 2
Moyenne 0.006 0.006 0.007 0.007 0.008 0.008
Ecart-type 1.4953 1.0732 1.5030 1.0923 1.5118 1.1292
Skewness -0.0217 -0.1694 -0.0173 -0.1526 -0.0122 -0.1006
Kurtosis 6.9526 10.4830 6.9688 10.4768 6.9985 10.1134
VaR(95%) -2.3912 -1.7038 -2.3965 -1.7384 -2.4205 -1.7769
VaR(99%) -4.5593 -3.1330 -4.5503 -3.2031 -4.5879 -3.3054
VaR(99,5%) -5.2860 -4.1381 -5.3057 -4.2406 -5.3073 -4.2355
Min -7.9983 -7.7220 -7.8751 -7.7714 -7.7518 -7.8000

Table 5.4 – Caractéristiques du portefeuille selon le critère d’optimisation CVaR α = 99%.

−3 Frontière efficiente
x 10
12

11

10
Rendement du portefeuille

alpha=95%
9 alpha=99%

3
2.5 3 3.5 4 4.5 5 5.5 6
CVaR du portefeuille des rendements

Figure 5.3 – Comparaison des frontières efficientes selon le critère CVAR, α = 95%, α =
99%, Fond 2.

On note aussi selon les tableaux 5.4 et 5.2 que pour un rendement fixé, le portefeuille MV
optimale a une VaR99% plus élevée que celle obtenue par le portefeuille optimale CVaR99% .

En conclusion, on peut dire que le critère d’optimisation sous contrainte de minimisation


de la CVaR, peut être utilisé dans différentes applications en gestion des risques pour borner
la perte au-delà d’un seuil.
82 CHAPITRE 5. OPTIMISATION DE PORTEFEUILLE

−3 Frontière efficiente
x 10
12

10

Rendement du portefeuille 8

2
Frontière efficiente du fond numéro 1
0 Frontière efficiente du fond numéro 2

−2

−4
4.2 4.4 4.6 4.8 5 5.2 5.4 5.6 5.8 6
CVaR du portefeuille des rendements

Figure 5.4 – Comparaison des frontières efficientes des fonds 1 et 2 selon le critère CVAR,
α = 99%.

5.4 Optimisation en considérant les moments d’ordre


supérieur à deux

Dans ce qui suit on propose d’étudier l’effet de la non-normalité des rendements des
titres sur l’allocation de la richesse pour les investisseurs qui souhaitent maximisant l’utilité
espérée de leurs richesses. On propose pour cela de comparer les allocations obtenues
1 Selon le critère moyenne-variance.
2 Selon le critère moyenne-variance-skewness (MVS) : l’objectif sera d’atteindre le ren-
dement cible en minimisant la variance et en maximisant le Skewness. On note que
la détermination du programme d’optimisation se fait en utilisant le développement
de Taylor de la fonction d’utilité de la richesse finale. Le développement d’ordre deux
coı̈ncide avec le critère de Markowitz, le développement d’ordre trois correspond à la
fonction à optimiser selon le critère MVS.
3 Selon le critère moyenne-variance-skewness-kurtosis (MVSK) : l’objectif sera d’at-
teindre le rendement cible en minimisant la variance, maximisant le Skewness et mi-
nimisant le Kurtosis. Le développement d’ordre quatre correspond à la fonction à
optimiser selon le critère MVSK.

La question qui se pose est quelle fonction d’utilité doit-on choisir afin de tenir compte
des moments d’ordre élevé sous l’hypothèse de l’expansion de la fonction d’utilité ?

Jondeau & Rockinger (2006) ont montré que les fonctions d’utilité les plus appropriées
lors de la considération du skewness et du kurtosis dans le problème de choix de por-
tefeuille sont principalement la fonction d’utilité logarithmique et la fonction d’utilité
exponentielle. En particulier la fonction exponentielle est largement utilisée dans la
5.4. OPTIMISATION EN CONSIDÉRANT LES MOMENTS D’ORDRE SUPÉRIEUR À DEUX83

Poids des titres selon le critére MV Poids des titres selon le critére CVaR
1 1

0.8 0.8

0.6 0.6
CAC40
DAX
AEX
0.4 0.4
FTSEMIB

0.2 0.2

0 0
1 1.5 2 2.5 3 1 1.5 2 2.5 3

Figure 5.5 – Frontière efficiente selon les programmes d’optimisation CVAR (α = 99%) et
moyenne-variance. Représentation sous forme d’aire pour le Fond 1.

Poids des titres selon le critére MV Poids des titres selon le critére CVaR
1 1

0.9 0.9

0.8 0.8

0.7 CAC40 0.7


DAX
0.6 0.6
AEX
0.5 FTSEMIB 0.5
FTSE100
0.4 0.4
SP500
0.3 SIM 0.3

0.2 0.2

0.1 0.1

0 0
1 1.5 2 2.5 3 1 1.5 2 2.5 3

Figure 5.6 – Frontière efficiente selon les programmes d’optimisation CVAR (α = 99%) et
moyenne-variance. Représentation sous forme d’aire pour le Fond 2.
84 CHAPITRE 5. OPTIMISATION DE PORTEFEUILLE

−3 Frontière efficiente
x 10
12

10

8
Rendement du portefeuille

4
Moyenne−Variance
2 CVaR, alpha=0.95
CVaR, alpha=0.99
0

−2

−4

−6

−8
1.4 1.42 1.44 1.46 1.48 1.5 1.52 1.54 1.56
Ecart−type du portefeuille des rendements

Figure 5.7 – Comparaison des frontières efficientes rendement/CVaR selon le programme


d’optimisation CVaR : α = 95%, 99% et moyenne variance pour le fond 1.

−3 Frontière efficiente
x 10
12

11

10
Rendement du portefeuille

9
Moyenne−Variance
8 CVaR, alpha=0.95
CVaR, alpha=0.99
7

3
1 1.1 1.2 1.3 1.4 1.5 1.6 1.7
Ecart−type du portefeuille des rendements

Figure 5.8 – Comparaison des frontières efficientes rendement/CVaR selon le programme


d’optimisation CVaR : α = 95%, 99% et moyenne variance pour le fond 2 .
5.4. OPTIMISATION EN CONSIDÉRANT LES MOMENTS D’ORDRE SUPÉRIEUR À DEUX85

littérature vue sa simplicité dans la prise en compte des moments d’ordre supérieur à
deux. C’est cette fonction que nous allons considérer dans l’application ci-après.

La fonction d’utilité exponentielle négative est donnée par U (W ) = − exp(−λW ) où W


est la variable aléatoire richesse et λ est une constante représentant l’aversion absolue
au risque. Une mesure de l’aversion absolue au risque (AAR) (Absolute Risk Aversion)
est donnée par −U (2) (W )/U (1) (W ). Une aversion absolue au risque constante signifie
que lorsque la richesse augmente le montant investi en actif risqué ne change pas.
La loi exponentielle négative se caractérise par une aversion absolue constante et décrit
les préférences des investisseurs averses au risque. De plus, on a



 U (1) (W ) = λ exp(−λW ) > 0

U (2) (W ) = −λ2 exp(−λW ) < 0



(5.3)




U (3) (W ) = λ3 exp(−λW ) > 0

U (4) (W ) = −λ4 exp(−λW ) < 0

Ces propriétés dans (5.3) vérifient la condition (2.6) et donc montrent que la fonction
d’utilité exponentielle est adaptée pour les modèles de sélection de portefeuille en in-
corporant les moments d’ordre supérieur à deux.

5.4.1 Implémentation sous Matlab


Nous avons implémenté sous Matlab des programmes d’optimisation de la maximi-
sation de l’utilité espérée, moyenne-variance, moyenne-variance-skewness et moyenne-
variance-skewness-kurtosis. Nous avons considéré la fonction d’utilité exponentielle et
nous avons utilisé la méthode de l’expansion de la fonction d’utilité pour résoudre le
problème d’allocation de portefeuille. En se référant à (2.5), on a pour un niveau de
richesse W = 1 + Rp , W̄ = E(W ) = 1 + µp . De ce fait (2.13) devient :
1
E(U (W )) ≈ − exp(−λ) exp(−λµp ) − λ2 exp(−λ) exp(−λµp )σp2
2
1 3 1
+ λ exp(−λ) exp(−λµp )Sp − λ4 exp(−λ) exp(−λµp )Kp (5.4)
3! 4!
1 2 2 1 3 1
 
− exp(−λ) exp(−λµp ) 1 + λ σp − λ Sp + λ4 Kp
2 3! 4!
Ainsi,
1 1 1
 
max E(U (W )) = max − exp(−λµp ) 1 + λ2 σp2 − λ3 Sp + λ4 Kp
x x 2 3! 4!  (5.5)
1 2 2 1 3 1 4

= min exp(−λµp ) 1 + λ σp − λ Sp + λ Kp .
x 2 3! 4!
Une partie de l’implémentation concerne aussi le calcul des matrices de grande dimen-
sion du skewness-coskewness et du kurtosis-cokurtosis. Par exemple, pour un porte-
86 CHAPITRE 5. OPTIMISATION DE PORTEFEUILLE

feuille composé de n indices, la matrice variance covariance est de dimension (n, n), la
matrice skewness-coskewness est de dimension (n, n2 ), et celle de kurtosis-cokurtosis
est de dimension (n, n3 ).

5.4.2 Résultats
Les résultats d’allocation optimale pour le Fond numéro 1 sont reportés dans le tableau
5.5. Les résultats sont donnés pour un taux de rendement journalier fixé à 0.6%. Soit
w1 , w2 , w3 , w4 les poids respectifs des titres CAC40, DAX, AEX, FTSEMIB. σp2 , Sp et
Kp représentent respectivement, la variance du portefeuille, le skewness et le kurtosis
du portefeuille optimale. Des différences sont à noter entre les poids obtenus lorsque
l’optimisation est fondée sur les deux, trois ou quatre premiers moments. Selon les
résultats obtenus, pour un niveau λ d’aversion au risque, les poids optimaux changent
lorsqu’on introduit un nouveau moment. Il apparaı̂t clairement que les variations des
poids des portefeuille découlent des valeurs des coefficients d’asymétrie, de kurtosis et
des valeurs de la mesure de risque VaR rapportées pour les portefeuilles de rendements.

On remarque que, lorsqu’il s’agit d’optimisation MVS, le poids du titre CAC40 aug-
mente par rapport à l’optimisation MV en contrepartie d’une diminution du poids des
titres DAX et AEX. Ceci est lié au fait que les rendements du CAC40 sont positive-
ment asymétriques. Le titre AEX, est quant à lui négativement asymétrique. Plus λ le
coefficient d’aversion au risque est élevé plus l’augmentation du poids du CAC40 est
importante et plus le poids du AEX est faible et devient nul pour λ ∈ {5, 10}. Par rap-
port au portefeuille MV on remarque que pour tout λ, Sp et Kp sont considérablement
plus faibles que ceux du portefeuille optimale MV. Toutefois, on note que le portefeuille
MV à la variance la plus faible par rapport à tout autre portefeuille obtenu par les
autres critères d’optimisations.

Comme montré dans le tableau 4.2, l’hypothèse de normalité des séries des rendements
des indices boursier est rejetée à cause de l’asymétrie et des queues épaisses.
Pour un niveau λ d’aversion au risque, le critère MV donne un poids important pour
le DAX et AEX avec des rendements moyens les plus intéressants parmi l’ensemble
des quatre indices composant le fond numéro 1 sans prendre en considération le fait le
skewness négatif et le kurtosis élevé du titre AEX. Lorsqu’on introduit le skewness et le
kurtosis dans l’optimisation de portefeuille, le poids de AEX diminue voire devient nul
pour des niveaux d’aversion au risque λ élevés en faveur d’une augmentation des poids
du CAC40 et du DAX qui sont positivement asymétriques et qui ont un faible kurtosis
en comparaison avec le AEX. On note que lorsque λ augmente, alors l’augmentation
du CAC40 baisse en faveur d’une augmentation du DAX ce qui peut s’expliquer par
le faible niveau du kurtosis du DAX par rapport à celui du CAC40. Il est claire que
pour la mesure de risque VaR, les valeurs obtenues pour tout niveau α selon le critère
d’optimisation MV sont inférieures à ceux obtenues par les critères MVS et MVSK. En
particulier, pour VaR99.5 , on remarque qu’elle est croissante en fonction de λ qui est le
coefficient d’aversion au risque et aussi en fonction des moments d’ordre supérieurs à
deux.
5.4. OPTIMISATION EN CONSIDÉRANT LES MOMENTS D’ORDRE SUPÉRIEUR À DEUX87

Poids des titres Moments VaR


λ w1 w2 w3 w4 σp2 Sp Kp VaR95% VaR99% VaR99.5%
Optimisation MV
0 0.7527 0.2473 0 1.4796 -0.0564 7.573 -2.3568 -4.6518 -5.2016
Optimisation MVS
1 0.1238 0.7276 0.1486 0 1.4827 -0.0402 7.3136 -2.3708 -4.6161 -5.1797
2 0.2227 0.7075 0.0698 0 1.4882 -0.0296 7.1177 -2.3708 -4.5835 -5.2208
5 0.3103 0.6897 0 0 1.4953 -0.0217 6.9526 -2.3912 -4.5593 -5.2861
10 0.3103 0.6897 0 0 1.4953 -0.0217 6.9526 -2.3912 -4.5593 -5.2861
Optimisation MVSK
1 0.1796 0.7359 0.0079 0.0767 1.4944 -0.0276 6.9188 -2.4028 -4.5331 -5.2743
2 0.1537 0.7469 0 0.0994 1.4958 -0.0283 6.8844 -2.3955 -4.5176 -5.2860
5 0.1363 0.7533 0 0.1105 1.4962 -0.0290 6.8763 -2.4023 -4.5180 -5.2894
10 0.1317 0.7549 0 0.1134 1.4963 -0.0292 6.8742 -2.4054 -4.5172 -5.2940

Table 5.5 – Proportions investies dans chaque titre selon le critère d’optimisation.
Chapitre 6

Risque Action dans le cadre du


modèle interne de Solvabilité II

6.1 Introduction

Les critiques de la calibration du risque action dans Solvabilité II ne cessent d’aug-


menter. Arias et al. (2010) ont indiqué que les indices qui ont été choisi pour calibrer
le choc action ne sont pas adéquats. Sandström (2007), a indiqué que les capitaux de
solvabilité des sous modules de Solvabilité II doivent être corrigés si les distributions de
probabilité sont asymétriques. Pfeifer & Strassburger (2008) ont analysé la stabilité de
la formule standard par rapport aux paramètres des distributions des indices. D’autant
plus la formule standard fixe comme objectif d’éviter les risques au lieu d’équilibrer les
risques et les opportunités. Braun et al. (2015) s’intéressent à l’effet de l’allocation de
portefeuille d’actifs (actions, bons de trésor, hedge funds . . . ) sur la probabilité de ruine
et à l’effet des divergences par rapport à la cible de 0.5% proclamé par le régulateur.

Ainsi après avoir déterminé les portefeuilles optimaux selon les différentes méthodes
d’optimisation, l’étape suivante consiste à l’évaluation du choc action pour chaque
allocation de portefeuille. Dans ce chapitre on s’intéresse à la modélisation des rende-
ments des indices boursiers avec des modèles à variance conditionnelles. Notre objectif
à travers cette modélisation est le calcul du choc action en évaluant la VaR annuelle
du portefeuille action et la quantification du risque de base lié au choc action. En pre-
mier lieu nous allons tester plusieurs types de modèles de séries temporelles à variance
conditionnelle, en suivant la procédure de Box et Jenkins. Par la suite, après avoir
sélectionné le modèle le plus adéquat nous proposons d’introduire une approche fondée
sur la modélisation des valeurs extrêmes. Dans ce travail nous proposons d’analyser la
sensibilité des résultats par rapport à différentes pondérations des indices composants le
portefeuille et qui sont issues de l’application de plusieurs programmes d’optimisation
de portefeuille.

88
6.2. MODÉLISATION AR(1) − EGARCH(1, 1) 89

6.2 Modélisation AR(1) − EGARCH(1, 1)


Avant de procéder à la modélisation de rendements journaliers par les modèles à va-
riance conditionnelle, on commence par tester l’hétéroscédasticité des séries des rende-
ments logarithmiques journaliers. On note que dans cette partie, l’étude sera restreinte
à un portefeuille composé par des indices : CAC40, DAX, AEX et FTSEMIB.

6.2.1 Estimation

On commence par l’application du test Ljung-Box (voir Bourbonnais & Terraza (2008))
à la série des résidus avec :

résidu = rendement − moyenne des rendements.

Ce test permet de tester l’hypothèse H0 : les résidus ne sont pas autocorrelés contre
l’hypothèse H1 : les résidus sont aucorrelés. Le résultat de ce test pour l’ensemble des
séries des rendements indique que les résidus ne sont pas autocorrelés. Toutefois l’ap-
plication de ce même test au seuil de 5% à la série des résidus au carrés indique que
les résidus au carrés sont autocorrelés d’où l’existence d’un effet ARCH significatif des
résidus des rendements.

L’application du test ARCH (voir Bourbonnais (2015)) à la série des résidus indique
que l’hypothèse nulle d’homoscédasticité des résidus est rejetée en faveur de l’hypothèse
d’heteroscedasticité ce qui confirme le résultat du test Ljung-Box appliqué à la série
des résidus au carrés.
La présence du phénomène d’hétéroscédasticité indique la présence d’une variance
conditionnelle non constante au cours du temps. On propose donc de modéliser les
séries financières des rendements par les modèles GARCH, AR(1) − GARCH(1, 1),
EGARCH et GJR − GARCH et de sélectionner le modèle le plus adéquat selon le
critère de choix de maximum du logvraisemblance et du critère de choix AIC. Dans
le tableau 6.1 on donne les résultats des vraisemblances issues des modèles testés. On
note que les modèles AR(1)-EGARCH(1,1) et EGARCH(1,1) avec innovation Student
sont deux modèles concurrents pour la modélisation des séries des rendements logarith-
miques journaliers. On reporte dans le tableau 6.2 les valeurs du critère de choix AIC
qui montrent que le modèle AR(1)-EGARCH(1,1) avec innovation Student est plus
adéquat que le modèle EGARCH(1, 1) pour la modélisation des séries des rendements
des indices CAC40, DAX, AEX et FTSEMIB.

Les résultats correspondants aux paramètres estimés des modèles AR(1)-EGARCH(1,1)


sont reportés dans le tableau A.1 (voir annexe A).
90 CHAPITRE 6. MODÉLISATION DES RENDEMENTS ET RISQUE ACTION

CAC 40 DAX AEX F T SEM IB


GARCH(1,1) (In. gaussienne) -6.7924 -6.8688 -6.4254 -6.8628
GARCH(1,1) (In. Student) -6.7531 -6.8347 -6.3914 -6.8128
AR(1)-GARCH(1,1) (In. gaussienne) -6.7884 -6.8671 -6.4253 -6.8586
AR(1)-GARCH(1,1) (In. Student) -6.7488 -6.8332 -6.3912 -6.8092
EGARCH(1,1)(In. gaussienne) -6.6738 -6.7801 -6.3077 -6.7840
EGARCH(1,1) (In. Student) -6.6542 -6.7597 -6.2947 -6.7467
AR(1)-EGARCH(1,1) (In. gaussienne) -6.6712 -6.7792 -6.3075 -6.7815
AR(1)-EGARCH(1,1) (In. Student) -6.6515 -6.7569 -6.2940 -6.7437

GJR (In. gaussienne) -6.6985 -6.7984 -6.3209 -6.7984

GJR (In. Student) -6.6752 -6.7677 -6.3059 -6.7606

Table 6.1 – Log vraisemblance (en 103 ) des modèles estimés.

CAC 40 DAX AEX F T SEM IB


EGARCH(1,1) (In. Student) 1.3318 1.3531 12602 13505
AR(1)-EGARCH(1,1) (In. Student) 13317 13528 12601 13501

Table 6.2 – AIC des modèles estimés.

6.2.2 Validation
Dans la figure 6.1 on présente les résidus standardisés et la volatilité conditionnelle
de la série des rendements selon la modélisation AR(1)-EGARCH(1,1). Pour vali-
der le modèle AR(1)-EGARCH(1,1) on applique le test Ljung-Box pour tester l’au-
tocorrélation des résidus standardisés. Ce test confirme le non autocorrélation des
résidus standardisés issues de la modélisation AR (1)-EGARCH (1,1) de la série des
rendements. On note que les résidus standardisés sont calculés de la manière suivante :

résidu standardisé = résidus/volatilité conditionnelle.

Pour tester si la série des résidus standardisés présente une hétéroscedasticite condi-
tionnelle, on applique le test ARCH qui teste l’hypothèse nulle : la série des résidus stan-
dardisés ne présente pas un phénomène d’hétéroscédasticité. On note qu’on peut aussi
utiliser le test Ljung-Box qu’on l’applique à la série des résidus au carrés. Le résultat
du test ARCH confirme que la série des résidus standardisés est homoscédastique. La
figure 6.2 représente la fonction d’autocorrélation (ACF) des résidus et des résidus au
carrés du titre CAC40, on peut conclure que les résidus standardisés paraissent i.i.d
6.2. MODÉLISATION AR(1) − EGARCH(1, 1) 91

Résidus standardisés
0

−5
0 500 1000 1500 2000 2500 3000 3500 4000
Date
Volatilité conditionnelle

0
0 500 1000 1500 2000 2500 3000 3500 4000
Date

Figure 6.1 – Résidus standardisés et volatilité conditionnelle des rendements logarithmiques


journaliers du CAC40 issus d’une modélisation AR(1)-EGARCH(1,1).

au vu de ces données.
Le modèle EGARCH ou encore le modèle exponentiel GARCH asymétrique pour la
modélisation de la variance conditionnelle permet de prendre en compte l’asymétrie
dans l’équation de la variance. Dans le cadre d’une modélisation EGARCH, les valeurs
de la VaR à un an sont sensibles à la prise en compte de la modélisation de l’asymétrie
dans l’équation de la variance. Notons par I le modèle

AR(1) − GARCH(1, 1) − Student (I)

et par II le modèle
AR(1) − EGARCH(1, 1) − Student. (II)
Une comparaison des résultats issus des modèles (I) et (II) est donnée dans l’annexe
B.

6.2.3 VaR journalière individuelle


On propose de simuler par la méthode de Monte Carlo, les processus des rendements
journaliers pour les différents titres CAC40, DAX, AEX et F T SEM IB selon les
deux modèles I et II.
1. Tout d’abord on génère m = 10000 rendements logarithmiques journaliers. Ainsi
on obtient une distribution des rendements journalier de taille m.
2. Nous pouvons donc en déduire le choc à 0.5% sur les log-rendements en prenant
le quantile empirique de cette distribution. Les résultats obtenus sont présentés
dans le tableau 6.3.
On remarque que les estimations de la VaR données par la méthode paramétrique issues
de la modélisation des rendements journaliers par les modèles I et II (voir tableau 6.3)
et par la méthode non paramétrique qui correspond à la VaR historique (voir tableau
92 CHAPITRE 6. MODÉLISATION DES RENDEMENTS ET RISQUE ACTION

Sample ACF of Standardized Residuals


1

Sample Autocorrelation
0.5

−0.5
0 5 10 15 20
Lag
Sample ACF of Squared Standardized Residuals
1
Sample Autocorrelation

0.5

−0.5
0 5 10 15 20
Lag

Figure 6.2 – Fonction d’autocorrélation des résidus et des carrés des résidus des rendements
logarithmiques journaliers du Cac40 issus d’une modélisation AR(1)-EGARCH(1,1).

VaR(95%) VaR(99%) VaR(99.5%)


(I) (II) (I) (II) (I) (II)
CAC40 -2.664 -2.486 -4.752 -4.255 -5.648 -5.272
DAX -2.694 -2.342 -4.519 -4.062 -5.429 -4.772
AEX -2.584 -2.198 -4.616 -3.895 -5.589 -5.030
FTSEMIB -2.614 -2.427 -4.423 -4.162 -5.279 -5.099

Table 6.3 – VaR paramétrique des rendements Journaliers selon les modèles I et II, m =
10000.

4.2) sont différentes pour un même titre. On remarque que les estimations données
par le modèle AR(1) − GARCH(1, 1)-Student sont plus élevées en valeur absolue que
celles données par le modèle AR(1) − EGARCH(1, 1)-Student.

6.2.4 Backtesting des modèles estimés


Pour établir la procédure de Baktesting de différents modèles d’estimation de la VaR
on commence par estimer la VaR sur une fenêtre de test de taille 256 jours. La période
concernée par le test commence à partir du 02 janvier 2015 au 31/12/2015 dernière
date de notre échantillon. On fait les estimations pour trois niveaux de confiance 95%,
99% et 99,5%. Cela veut dire qu’on a un risque au plus de 5%, 1% et 0,5%, respecti-
vement, que la perte observée à la date t dépasse le la VaR estimée.
6.2. MODÉLISATION AR(1) − EGARCH(1, 1) 93

Les quatre méthodes considérées sont :


1. Méthode paramétrique avec distribution normale des rendements.
2. Méthode non paramétrique de simulation historique.
3. Méthode paramétrique AR(1)-EGARCH(1,1)-Student.
4. Méthode paramétrique AR(1)-GARCH(1,1)-Student.
Pour chaque modèle, on compare la VaR prédite à la date t − 1 pour la date t avec
la valeur du rendement observé à la fin de la date t. Le niveau des différences entre
la valeur prédite et la valeur réalisée réellement ou observée donne une indication sur
le pouvoir de prédiction du modèle à sous-estimer ou surestimer le risque. C’est ainsi
que le Backtesting permet d’examiner rétrospectivement les données et aide à évaluer
le modèle VaR.

Dans la méthode Normale, on calcul la VaR en multipliant le quantile d’ordre α par


l’écart-type des rendements. La VaR prédite pour une date t est calculée sur la base
des rendements des 256 derniers jours sans inclure celui de la date t. Cette méthode
fait partie des méthodes paramétriques puisqu’on estime l’écart-type des rendements.

La méthode de simulation historique suppose que les rendements passés peuvent être
utilisés comme étant la distribution des gains et pertes pour la période suivante. Ainsi
la VaR journalière correspond au quantile d’ordre α des 256 derniers rendements sans
considérer la valeur d’aujourd’hui.

Dans le figure 6.3 on donne les résultats de prédiction de la VaR à partir de la méthode
normale et de la méthode Historique pour le titre CAC40. On remarque que les estima-
tions de la VaR selon ces deux modèles ont l’allure d’une courbe constante par morceau
ceci explique la réaction lente de ces deux modèles aux changements de marché.

Estimation de la VaR selon la distribution Normale


5

0
VaR

−5

−10
3850 3900 3950 4000 4050
Date
Estimation de la VaR selon la méthode de simulation historique
5

0
VaR

95% niveau de confiance


−5 99% niveau de confiance
99,5% niveau de confiance
Rendements observés
−10
3850 3900 3950 4000 4050
Date

Figure 6.3 – Estimation de la VaR selon les méthodes historique et normale pour le CAC40.
94 CHAPITRE 6. MODÉLISATION DES RENDEMENTS ET RISQUE ACTION

Pour prédire la VaR selon la méthode d’estimation paramétrique AR(1)-GARCH(1,1)-


Student et AR(1)-EGARCH(1,1)-Student, on modélise à la date t la série des ren-
dements des 256 derniers jours par les modèles a variance conditionnelle cités, sans
inclure la valeur d’aujourd’hui c’est à dire de la date t, puis on génère une réalisation
aléatoire du processus des rendements passés. Une réalisation aléatoire du processus
des rendements est donc une série de 256 valeurs des rendements générés selon les
modèles paramétriques considérés sans inclure la valeur du rendement observé à la
date t. La VaR prédite de la date t sera tout simplement le quantile d’ordre α de la
série générée aléatoirement. Dans la figure 6.4 on donne les résultats d’estimation de la
VaR selon les modèles AR(1)-GARCH(1,1)-Student et AR(1)-EGARCH(1,1)-Student.
Dans cette figure on remarque que la réaction du processus prédit est très rapide suite
à la variation à la hausse ou à la baisse de la série des rendements.

Estimation de la VaR selon la méthode paramétrique AR(1)−GARCH(1,1)


5

0
VaR

−5

−10

−15
3850 3900 3950 4000 4050
Date

Estimation de la VaR selon la méthode paramétrique AR(1)−EGARCH(1,1)


5

−5
VaR

95% niveau de confiance


−10 99% niveau de confiance
995% niveau de confiance
−15 Rendements observés

−20
3850 3900 3950 4000 4050
Date

Figure 6.4 – Previsions de la VaR selon les méthodes AR(1)-GARCH(1,1)-Student et


AR(1)-EGARCH(1,1)-Student pour le CAC40, T = 256.

Le rôle du backtesting est d’évaluer la performance du modèle VaR. La première étape


dans l’analyse du backtesting de la VaR est de présenter les rendements et la VaR à
un niveau α estimée par les quatre méthodes dans le même graphique et les comparer.
Notons que les défaillances de la VaR ne doivent pas être regroupées sinon cela peut
indiquer que les estimations de la VaR sont non indépendantes, renseignant que la
réaction du modèle d’estimation da la VaR est très lente face aux changements des
conditions du marché.

Dans la figure 6.5 on reporte les prévisions de la VaR selon les méthodes Nomale,
Historique, AR(1)-GARCH(1,1)-Student et AR(1)-EGARCH(1,1)-Student et ceci pour
différent niveaux de risques (α ∈ {0.5%, 1%, 5%}). On prend comme exemple l’indice
6.2. MODÉLISATION AR(1) − EGARCH(1, 1) 95

CAC40. Comme le montre ce graphique, les modèles à variance conditionnelle sont


plus rapides que les modèles historique et normale dans leurs réactivités face aux
changements des marchés.

Comparaisons des rendements et de la VaR à 99% pour différents modèles


5

−5
VaR

−10
Rendement Normal Historique AR−EGARCH AR−GARCH
−15

−20
3850 3900 3950 4000 4050
Date

Comparaisons des rendements et de la VaR à 99.5% pour différents modèles


5

−5
VaR

−10

−15

−20
3850 3900 3950 4000 4050
Date

Figure 6.5 – Previsions de la VaR selon les méthodes Normale, Historique, AR(1)-
GARCH(1,1)-Student et AR(1)-EGARCH(1,1)-Student,α ∈ {0.5%, 1%, }, Indice CAC40,
T = 250.

Dans le tableau 6.4 on donne le nombre de violation de la VaR journaliers estimées


pour chaque niveau α ∈ {0.5%, 1%, 5%} dans les 256 derniers jours, le chiffre entre
parenthèses représente le pourcentage de violations de la VaR pour chaque modèle.

5% 1% 0.5%
AR(1)-EGARCH(1,1) 18 (7,2%) 5 (2%) 3 (1.2%)
AR(1)-GARCH(1,1) 16 (6,4%) 4 (1.6%) 2 (0.8%)
Historique 18 (7,2%) 7 (2,8%) 3 (1.2%)
Normale 17 (6,8%) 6 (2,4%) 5 (2%)

Table 6.4 – Nombre de violation de la VaR, Indice CAC40, T = 256.

D’après ce tableau on remarque que pour tout α, le nombre de violation de la VaR


le plus petit est atteint avec le modèle AR(1)-GARCH(1,1)-Student en comparaison
avec les autres modèles. Après cette étude graphique on passe à une procédure en deux
étapes pour le choix du modèle de prévision de la VaR.
96 CHAPITRE 6. MODÉLISATION DES RENDEMENTS ET RISQUE ACTION

Dans la première étape on test la validation du modèle de prévision de la VaR et


dans la seconde étape on choisit le modèle le plus adéquats parmi ceux validés dans la
première étape. Pour la première étape, on considère cinq tests souvent utilisés dans
le backtesting la VaR (voir Hurlin & Tokpavi (2008)). En effet, on a utilisé le test de
couverture non conditionnel (LRU C ) connu par le test de Kupiec (1995), les tests de
ratio de vraisemblance d’indépendance (LRIN D ) et de couverture conditionnel (LRCC )
durée durée
de Christofferssen (1998) et les tests de durée LRIN D , LRCC de Christofferssen et
Pelletier (2004).

durée durée
LRU C LRIN D LRCC LRIN D LRCC
α = 95%
AR(1)-EGARCH(1,1) 0.1214 0.1621 0.1134 0.2508 0.2365
AR(1)-GARCH(1,1) 0.6369 0.0366 0.1006 0.2327 0.4825
Normale 0.1214 0.0340 0.0319 0.0751 0.0938
Historique 0.3071 0.0829 0.1320 0.1691 0.2977
α = 99%
AR(1)-EGARCH(1,1) 0.1554 0.6494 0.3287 0.1872 0.2814
AR(1)-GARCH(1,1) 0.0563 0.1207 0.0485 0.7944 0.3570
Normale 0.0179 0.1760 0.0242 0.9431 0.1657
Historique 0.3692 0.7167 0.6257 0.9328 0.9448
α = 99.5%
AR(1)-EGARCH(1,1) 0.1788 0.7859 0.3903 0.8992 0.8129
AR(1)-GARCH(1,1) 0.0107 0.6494 0.0348 0.3117 0.0865
Normale 0.1788 0.7859 0.3903 0.4931 0.6479
Historique 0.8052 0.8566 0.5267 0.8440 0.9576

Table 6.5 – P-value des tests statistiques du Backtesting pour l’indice CAC40 pour un
risque de première espèce de 5%.

On considère que la capacité de prévision du modèle VaR est exacte si pour tous les
seuils testés, tous les tests sont valides. Pour l’indice CAC40, d’après le tableau 6.5 les
modèles validés sont le modèle AR(1)-EGARCH(1,1)-Student et le modèle historique.

Pour choisir le modèle le plus adéquat pour la prévision de la VaR et déterminer le


modèle le plus performant pour la modélisation de la VaR, on procède à l’évaluation de
la fonction de perte proposée par Sarma et al. (2003) et ceci pour les modèles validés
dans la première étape (voir chapitre I).
Prenons l’exemple du CAC40, on veut tester lequel parmi les deux modèles AR(1)-
6.2. MODÉLISATION AR(1) − EGARCH(1, 1) 97

EGARCH(1,1) (modèle A dans (1.3)) et le modèle historique (modèle B dans (1.3))


prédit mieux la VaR à un niveau de couverture α = 0.5% (ou encore VaR à un niveau de
confiance α). Pour cela, on applique le test (DM) en utilisant la fonction de perte 1.2. Le
résultat est le suivant DM S = −0.7594 > −1.645, il n’y a pas différences significative
entre les deux modèles. Toutefois une valeur négative de la fonction de perte évaluée
implique que le modèle AR(1)-EGARCH(1,1) est préférable au modèle historique. La
moyenne des différences étant dans ce cas négative, le modèle AR(1)-EGARCH(1,1)-
Student est plus adéquat pour la prédiction de la VaR. Pour les autres titres on procède
de la même manière, pour tous les autres titres le modèle AR(1)-EGARCH(1,1) est
validé par les cinq tests précités pour la validation de la VaR. Ce modèle a un pouvoir
prédictif significativement supérieur à celui du modèle AR(1)-GARCH(1,1)-Student et
un pouvoir non significativement différent de la méthode historique au seuil de 5%.

6.2.5 Calcul de la VaR paramétrique à un an


On commence par une description de la procédure suivie pour calculer la VaR pa-
ramétrique à un an d’un titre à partir de la modélisation des rendements logarithmiques
journaliers.
1. Pour chaque titre CAC40, DAX, AEX et F T SEM IB on génère m processus
des rendements logarithmiques issues d’une modélisation AR(1)-EGARCH(1,1)-
Student des marginales. Chaque processus est de taille 256 puisqu’on cherche à
calculer un rendement annuel correspondant à 256 jours de cotations boursière.
2. On calcul pour chaque processus le rendement arithmétique annuel à partir de
la relation suivante :
256
Y
RA = [ exp(ri )] − 1
i=1

Ainsi on obtient une distribution des rendements annuelle de taille m.


3. Nous pouvons donc en déduire le choc action à 0.5%, 1%, 5% appliqué à la série
des rendements annuels en calculant les quantiles empiriques de cette distribu-
tion.
Dans la première étape, on procède à la simulation des séries aléatoires des rendements
en générant des simulations de taille m = 2000 et m = 5000 pour voir la stabilité des
résultats. Les résultats sont présentés dans le tableau 6.6.
On suppose que pendant une année, période de temps correspondant à l’horizon d’esti-
mation de la VaR, la composition du portefeuille reste inchangée. On note que grâce à
la propriété de l’homogénéité de la VaR on a pour un titre j, VaR(wj Rj ) = wj VaR(Rj ).
D’après le tableau 6.7, on remarque que le Skewness des titre est proche de 0 et que le
Kurtosis des titres est proche de 3 de plus, on peut voir d’après le graphique 6.6 des
histogrammes des fréquences le rapprochement entre la courbe de la densité de la loi
normale et l’histogramme des fréquences. Toutefois, le test de Jarque-Bera appliqué
aux séries des rendements annuels simulés ne permet pas de valider l’hypothèse de
normalité des rendements arithmétiques annuels.
98 CHAPITRE 6. MODÉLISATION DES RENDEMENTS ET RISQUE ACTION

VaR(95%) VaR(99%) VaR(99.5%)


m=2000 m=5000 m=2000 m=5000 m=2000 m=5000
CAC40 -33.2654 -32.3591 -51.1046 -50.6823 -56.3447 -56.2841
DAX -34.1785 -33.8146 -51.4200 -49.0971 -56.9621 -55.1407
AEX -30.6192 -31.0521 -48.6700 -47.4872 -52.4518 -52.4782
FTSEMIB -31.5509 -53.6665 -46.1358 -49.5204 -52.7105 -53.6665

Table 6.6 – VaR paramétrique des rendements annuels (en %) selon le modèle AR(1)-
EGARCH(1,1)-Student.

CAC40 DAX AEX FTSEMIB


Skewness -0.5223 -0.3523 -0.6468 -0.4656
Kurtosis 3.3109 3.0803 3.5719 3.4440

Table 6.7 – Skewness et Kurtosis des séries de rendements annuels arithmétiques générés
selon le modèleAR(1)-EGARCH(1,1)-Student.

D’après le tableau 6.7 on note que l’annualisation des rendements peut éliminer les
queues épaisses (voir Mittnik (2016)).

6.2.6 Estimation de la VaR du portefeuille

Etant donné un portfeuille de pondération w = (w1 , . . . , wn ), on propose de déterminer


la VaR du portefeuille des rendements annuels selon deux méthodes.

— Dans la première méthode on ne prend pas en considération les corrélations qui peuvent
exister entre les rendements du portefeuille. La VaR sous cette méthode est donnée par :
VaRSC = pj=1 wi VaRi . Par la suite on détermine un quantile d’ordre α correspondant
P

à la VaR du portefeuille de niveau α. Les résultats de cette estimation sont donnés


dans le tableau 6.9.
— On utilise la formule 6.1 pour calculer la VaR du portefeuille des rendements annuels
en tenant compte de la corrélation entre les titres. Cette méthode sera notée VaRAC .
q
VaRAC = (VaR1 , . . . , VaRn )C(VaR1 , . . . , VaRn )0 . (6.1)

avec C est la matrice de corrélation des rendements annuels et (VaR1 , . . . , VaRn ) le


vecteur des VaR individuelles des indices. L’utilisation de cette formule est justifiée
dans le cas gaussien où la VaR est proportionnelle à la volatilité pour un seuil de
confiance donné et pour n’importe quel l’horizon. De ce fait la VaR est proportionnelle
6.2. MODÉLISATION AR(1) − EGARCH(1, 1) 99

CAC40 DAX
200 200

150 150

100 100

50 50

0 0
−80 −60 −40 −20 0 20 40 60 80 −80 −60 −40 −20 0 20 40 60 80

AEX FTSEMIB
200 250

200
150

150
100
100

50
50

0 0
−80 −60 −40 −20 0 20 40 60 −80 −60 −40 −20 0 20 40 60 80

Figure 6.6 – Histogramme des fréquences des rendements annuels simulés par le modèle
AR(1)-EGARCH(1,1)-Student.

à la variance du portefeuille. Malgré que cette méthode peut induire des erreurs dans
le cas ou les séries ne sont pas gaussiennes, on utilisera cette méthode puisque d’après
les résultats du tableau 6.7 et de la figure 6.6 on remarque un rapprochement des ca-
ractéristiques des séries avec la distribution gaussienne.

Rappelons que notre objectif lors du calcul du SCR action est de prendre en considération
la pondération des rendements composants le portefeuille d’un assureur et ceci en res-
pectant sa stratégie d’investissement.
On veux donc voir la sensibilité de la VaR du portefeuille aux différentes stratégies
d’optimisation de portefeuille MV, MVS, MVSK et CVaR.
Dans le tableau 6.8 on donne les résultats d’estimation par la méthode historique et la
méthode normale de la VaRAC du portefeuille pondéré de manière uniforme.

VaR VaR VaR


(95%) (99%) (99.5%)
Normale -35.4757 -50.1921 -55.6306
Historique -38.5509 -46.8240 -49.4096

Table 6.8 – VaR en % selon la méthode normale et historique des rendements arithmétiques
annuels pour un portefeuille uniforme.

Dans le tableau 6.9 on donne les résultats d’estimation de la VaR par la méthode
paramétrique. En effet, on se fondant sur les résultats de la modélisation AR(1) −
100 CHAPITRE 6. MODÉLISATION DES RENDEMENTS ET RISQUE ACTION

EGARCH(1, 1)−Student, on calcul la VaR des portefeuilles obtenus selon les différents
critères d’optimisation de portefeuille. On considère de plus le cas d’un portefeuille
uniforme ou les différents indices sont equipondérés. On remarque de plus que ces
résultats sont supérieurs à ceux obtenus par la méthode historique appliquée à la série
des rendements observés (voir tableau 6.8). La différence est supérieure à 3%.

VaRSC VaRAC
95% 99% 99.5% 95% 99% 99.5%
Optimisation MV
-32.6935 -47.9027 -52.5568 -31.7345 -48.24 -53.9707
Optimisation CV aR
-32.6968 -48.7521 -52.7574 -32.0943 -49.1778 - 55.0375
Optimisation MVS
1 -32.8873 -48.2036 -52.6034 -31.8582 -48.5822 -54.3627
5 -32.6962 -48.7530 -52.7572 -32.09416 -49.1781 -55.0375
Optimisation MVSK
1 -32.7441 -48.2865 -52.6351 -31.8243 -48.7353 -54.39731
5 -32.9402 -48.2528 -53.1048 -31.7284 -48.5941 -54.1751
Pondération uniforme
-31.4132 -47.6697 -52.3754 -30.8829 -47.91649 -52.6995

Table 6.9 – Estimation de la VaR du portefeuille des rendements modélisés par le modèle
AR(1)-EGARCH(1,1)-Student en considérant les pondérations des indices selon différents
critères d’optimisation de portefeuille.

Rappelons que les VaR sont négatives puisqu’on s’intéresse aux chocs appliqué en cas
de perte. On remarque que selon toutes les méthodes d’optimisation de portefeuille, les
résultats d’estimation de la VaR de portefeuille en considérant la corrélation entre les
indices sont supérieurs à ceux sans considération de la corrélation. On remarque donc
qu’il y a un bénéfice de mutualisation qui est négatif. Cela peut s’expliquer par le fait
que les indices sont tous positivement corrélés entre eux (voir matrice de corrélation
4.3). De plus, on note que la VaRAC à 99.5% la plus élevée est atteinte pour le porte-
feuille optimisé selon le critère CVaR suivi de celle du modèle MVS puis MVSK, puis
MV puis celle avec pondération uniforme. Ces résultats montrent que les pondérations
des portefeuilles ne doivent pas être négligés dans le calcul des VaR.
6.3. ESTIMATION GP D − AR(1) − EGARCH(1, 1) 101

6.3 Estimation GP D − AR(1) − EGARCH(1, 1)


6.3.1 Estimation
Selon cette approche on s’intéresse à la modélisation des queues inférieure et supérieure
des séries de rendements logarithmique journaliers par une distribution de Pareto
généralisé (GPD) conçue pour la modélisation de la loi des excès au-delà d’un seuil
élevé et par un Kernel pour la modélisation de la partie centrale de la distribution des
rendements.

Notons que l’estimation GPD nécessite des séries de v.a.s indépendantes et identique-
ment distribuées. On a déjà vu précédemment que ceci n’est pas le cas pour les séries
des rendements. Toutefois on a déjà montré que les séries des résidus standardisés qui
sont issues de la modélisation AR(1) − EGARCH sont i.i.d. Pour cela, nous allons
appliquer le modèle GP D − Kernel − GP D sur les résidus standardisés.

Dans ce qui suit on donne les étapes suivis pour générer les rendements annuelles selon
une modélisation GP D − AR(1) − EGARCH(1, 1) :
1. On ajuste la distribution marginale de chaque série des rendements logarith-
miques journaliers par une distribution AR(1) − EGARCH(1, 1).
2. On récupère les résidus standardisés issus de cette modélisation et on les ajuste
par un modèle GP D − Kernel − GP D.
3. On régénère les séries des résidus standardisés par simulation par la méthode
inverse.
4. On régénère les séries des rendements en utilisant les paramètres des marginales
issues de la première étape et les résidus standardisés de l’étape précédente.
5. On retrouve la série des rendements annuelle simulée et on détermine la VaR de
chaque titre.
6. On calcul la VaR du portefeuille en considérant la corrélation entre les indices
par la méthode variance-covariance.
Le graphique 6.7 montre que la courbe des moyennes des excès change de pente à
partir des seuils −1.7 pour les queues négatifs et 1.7 pour les queues positifs ce qui
correspond à un nombre d’observation minimales dans les queues égale à 5%.
McNeil & Frey (2000) ont fait des simulations de Monte Carlo afin d’évaluer les pro-
priétés de l’estimation de maximum de vraisemblance (MLE) des paramètres de la
GPD et ceci pour diverses distributions et tailles d’échantillons Les résultats montrent
que les estimations de MLE sont presque invariantes à la valeur du seuil u lorsque celui-
ci est fixé entre 5% et 13% des données de l’échantillon. Alexander (2008) a montré
que si l’échantillon est suffisamment grand (près de 2000 observations), alors il y a
suffisamment des données dans les 10% de la queue de la distribution des log des ren-
dements pour obtenir une estimation précise des paramètres d’échelle et de forme de
la GPD.
102 CHAPITRE 6. MODÉLISATION DES RENDEMENTS ET RISQUE ACTION

Résidus standardisés CAC40 Résidus standardisés DAX


5 6

5
4

4
Mean Excess

Mean Excess
3
3
2
2

1
1

0 0
−5 −4 −3 −2 −1 0 1 2 3 4 −6 −5 −4 −3 −2 −1 0 1 2 3 4
Threshold Threshold

Résidus standardisés AEX Résidus standardisés Ftsemib


5 4

3.5
4
3
Mean Excess

Mean Excess
3 2.5

2
2 1.5

1
1
0.5

0 0
−5 −4 −3 −2 −1 0 1 2 3 4 −4 −3 −2 −1 0 1 2 3
Threshold Threshold

Figure 6.7 – Fonction moyenne des excès

Ainsi, on estime les distributions marginales des résidus standardisés en utilisant une
densité de Kernel pour la distribution centrale et la méthode POT pour les queues en
utilisant 10% des données pour chaque queue. Les résultats d’estimations sont reportés
dans l’appendix C. Dans le graphique ci joint on reporte les fonctions de distributions
semi-paramétriques issues d’une modélisation GP D−Kernel−GP D pour les différents
indices.
Les indices des queues inférieures pour les séries des résidus stadardisés des indices
CAC40, DAX et AEX sont négatifs ce qui révéle que ces queues sont épaisses.
Afin de visualiser graphiquement l’adéquation de l’ajustement GPD aux queues, on
reporte dans le graphique 6.9 l’adéquation des queues inférieures des séries des rende-
ments ajustées par la GPD à la distribution empirique des différents indices. On ap-
plique le test Kolmogorov Smirnov aux séries des rendements pour tester l’hypothèse
H0 : la distribution des rendements est normale contre l’hypothèse alternative H1 : la
distribution des rendements est à queues plus épaisse que la normale. Ce test permet
de valider l’hypothèse alternative au seuil de 5% pour tous les indices excepté l’indice
CAC40 où l’hypothèse alternative est accepté au seuil de 10%.

De plus, dans le graphique 6.10 on présente le QQPLOT des rendements de l’indice


CAC40 estimés par la méthode GP D − AR(1) − EGARCH(1, 1) par rapport aux
quantiles normales et les quantiles empiriques. On remarque un bon ajustement des
quantiles de la modélisation GP D − AR(1) − EGARCH(1, 1) au niveau des queues.
La loi normale est loin d’être adéquate au niveau des queues des rendements journaliers.
6.3. ESTIMATION GP D − AR(1) − EGARCH(1, 1) 103

Empirical CDF Empirical CDF


1 1
Pareto Lower Tail Pareto Lower Tail
Kernel Smoothed Interior Kernel Smoothed Interior
0.8 Pareto Upper Tail 0.8 Pareto Upper Tail
Probability

Probability
0.6 0.6

0.4 0.4

0.2 0.2

0 0
−5 −4 −3 −2 −1 0 1 2 3 4 −6 −5 −4 −3 −2 −1 0 1 2 3 4
CAC40 Standardized Residual DAX Standardized Residual

Empirical CDF Empirical CDF


1 1
Pareto Lower Tail Pareto Lower Tail
Kernel Smoothed Interior Kernel Smoothed Interior
0.8 Pareto Upper Tail 0.8 Pareto Upper Tail
Probability

Probability
0.6 0.6

0.4 0.4

0.2 0.2

0 0
−5 −4 −3 −2 −1 0 1 2 3 4 −5 −4 −3 −2 −1 0 1 2 3 4
AEX Standardized Residual FTSEMIB Standardized Residual

Figure 6.8 – Distributions semi-paramétriques des résidus standardisés selon une


modélisation GP D − Kernel − GP D

Lower Tail of CAC40 Standardized Residuals Lower Tail of DAX Standardized Residuals
1 1

0.8 0.8
Probability

Probability

0.6 0.6

0.4 0.4

0.2 Fitted Generalized Pareto CDF 0.2 Fitted Generalized Pareto CDF
Empirical CDF Empirical CDF
0 0
−4 −3.5 −3 −2.5 −2 −1.5 −1 −0.5 0 −4 −3.5 −3 −2.5 −2 −1.5 −1 −0.5 0
Exceedance Exceedance

Lower Tail of AEX Standardized Residuals Lower Tail of FTSEMIB Standardized Residuals
1 1

0.8 0.8
Probability

Probability

0.6 0.6

0.4 0.4

0.2 Fitted Generalized Pareto CDF 0.2 Fitted Generalized Pareto CDF
Empirical CDF Empirical CDF

0 0
−3 −2.5 −2 −1.5 −1 −0.5 0 −4 −3.5 −3 −2.5 −2 −1.5 −1 −0.5 0
Exceedance Exceedance

Figure 6.9 – Distributions GP D des queues inférieures des résidus standardisés vs distri-
bution empirique.
104 CHAPITRE 6. MODÉLISATION DES RENDEMENTS ET RISQUE ACTION

Semi−Parametric/Piecewise Probability Plot: CAC40

0.9999
0.9995
0.999
0.995
0.99

0.95
0.9
0.75
Probability
0.5

0.25 Normal Distribution


Returns
0.1 ParetoTail Distribution
0.05

0.01
0.005
0.001
0.0005
0.0001
−10 −5 0 5 10 15
Data

Figure 6.10 – Quantile empirique vs quantile normale et quantile GP D − AR(1) −


EGARCH(1, 1) pour les queues de la distribution des rendements journaliers du CAC40.

6.3.2 Estimation de la VaR annuelle individuelle et agrégée


On donne dans le tableau 6.10 les VaR des rendements annuels des titres issues d’une
modélisation GP D − AR(1) − EGARCH(1, 1). En comparaison avec les résultats du
tableau 6.6, il est claire que l’ajustement des queues par une GPD permet d’amplifier
la valeur des VaR. Les différences ventilent entre 10% et 16%.
Ce constat montre l’instabilité du critère de la VaR par rapport aux modèles estimés.
Notons que ce problème a été signalé par Pfeifer & Strassburger (2008) qui ont analysé
l’instabilité de la VaR par rapport aux paramètres des distributions des indices.

VaR(95%) VaR(99%) VaR(99.5%)


CAC40 -41.3118 -59.2872 -66.6200
DAX -40.1461 -60.4263 -67.1085
AEX -43.4813 -62.7815 -68.6049
FTSEMIB -44.0435 -63.9418 -69.8883

Table 6.10 – VaR paramétrique des rendements annuels selon le modèle GP D − AR(1) −
EGARCH(1, 1)-Student par la méthode de simulation des résidus standardisés, m = 20000.

Dans le tableau 6.11 on donne les estimations de la VaR annuelle des portefeuilles de
rendements en utilisant la méthode de simulation des résidus standardisés pour générer
les rendements annuelles selon une modélisation GP D − AR(1) − EGARCH(1, 1).
Deux constats sont à retenir, la première est la stabilité des résultats par rapport
aux pondérations du portefeuille. En effet, on note que pour les différents portefeuilles
6.4. EVALUATION DU CHOC ACTION : (VAR À 99.5%) 105

la VaR à 99.5% est de l’ordre de -66%. La deuxième remarque est l’aggravation de


la valeur du choc passant par exemple de 52.6995% pour la modélisation AR(1) −
EGARCH(1, 1) à 66.2621% pour la modélisation GP D − AR(1) − EGARCH(1, 1) et
ceci dans le cas d’une pondération uniforme des indices.

95% 99% 99.5%


Optimisation MV
-40.5754 -59.6953 -66.2874
Optimisation CV aR
- 40.1724 -59.5852 -66.4107
Optimisation MVS
λ=1 -40.1726 -59.5846 -66.4102
λ=5 -40.3785 -60.0430 -66.6157
Optimisation MVSK
λ=1 -40.1101 -59.6779 -66.3274
λ=5 -40.0750 -59.6953 -66.2874
Pondération uniforme
41.1311 -59.9780 - 66.2621

Table 6.11 – Estimation de la VaR du portefeuille des rendements modélisés par le modèle
GP D − AR(1) − EGARCH(1, 1)-Student en considérants la méthode de calcul de la VaR
d’un portefeuille variance-covariance et avec pondérations des indices selon les poids obtenues
par les différents critères d’optimisation du portefeuille.

6.4 Evaluation du choc action : (VaR à 99.5%)


La réglementation Solvabilité-II impose aux assureurs de constituer un capital réglementaire
nommé capital de solvabilité requis pour couvrir les différents risques auxquels un or-
ganisme assureur peut être exposé. Le régime prudentiel Solvabilité II introduit pour
les organismes d’assurance un besoin de capital (SCR) sur l’ensemble de leur profil
de risque, y compris les risques financiers. Le risque de marché est le risque de perte
qui peut résulter des fluctuations des prix des instruments financiers qui composent
un portefeuille. En particulier, le risque de baisse des marchés actions, sous module du
risque de marché, donne lieu à un SCR actions.

Pour les actions globale (type 1), on propose d’évaluer le risque de déviation du choc
action calibré dans le cadre d’une modélisation interne du risque action pour un porte-
106 CHAPITRE 6. MODÉLISATION DES RENDEMENTS ET RISQUE ACTION

feuille hypothétique par rapport à une approximation standard du risque action. Cette
déviation correspondra au risque de base. Le risque de base est lié d’une part à la
différence dans la composition du portefeuille hypothétique par rapport à celui utilisé
par l’EIOPA pour la mesure de risque action et d’autre part à la différence entre les
modèles mis en œuvre pour l’estimation de la mesure de risque VaR à 99.5%.

6.4.1 Retour sur la formule standard


Quand il est calculé conformément à la formule standard (voir l’article R. 352-6 du
code des assurances), le SCR actions correspond à la perte de fonds propres de base
qui résulterait d’une diminution soudaine de la valeur des actions détenues par l’orga-
nisme. Il est proportionnel à : la valeur de marché du titre et à un coefficient (ou choc
standard) défini réglementairement par catégorie d’actions (voir chapitre I).

Pour les organismes assureurs qui utilisent la méthode standard il y a une mesure tran-
sitoire qui a été instauré pour le calcul de leur SCR actions et qui leurs donne un temps
d’adaptation avant d’appliquer les nouvelles dispositions. Cette mesure s’applique aux
actions acquises directement par les organismes assureurs avant le 1er janvier 2016 ou
indirectement via des fonds d’investissement lorsque l’organisme a réalisé un investis-
sement au plus tard le 1er janvier 2016 dans des actions de sociétés d’investissement à
capital variable (SICAV) ou des parts de fonds communs de placement. Cette mesure
transitoire permet de lisser l’impact financier du choc action dans le temps.

Selon cette mesure transitoire qui a été définie au II de l’article R. 352−27 des codes des
assurances, le besoin en capital pour le risque action est calculé sur la base d’un choc
de 22% la première année, ce niveau de choc progressant ensuite de manière au moins
linéaire pour correspondre au choc standard de 39% plus un ajustement symétrique
(actions de type 1) ou 49% plus ajustement symétrique (actions de type 2) le 1er janvier
2023 au plus tard.
En pratique, le choc à retenir s’écrit donc :

(1–a)22% + a[39% ou 49% + ajustement symétrique],

avec a valant 0% la première année de la transitoire (toute l’année 2016), et 100% à la


fin de la transitoire, à compter du 1er janvier 2023.

La mesure transitoire sur le choc actions s’applique en principe par défaut mais il est
toutefois admis que les organismes ne souhaitant pas utiliser ce dispositif peuvent uti-
liser le choc standard dès 2016.

6.4.2 Approche Interne


Il est possible que les organismes assureurs utilisent un modèle interne ou interne
partiel pour calculer leurs exigences en capital (voir article R. 352 − 13 du code des
6.4. EVALUATION DU CHOC ACTION : (VAR À 99.5%) 107

assurances). Dans ce cas selon l’article R. 352 − 2 du code des assurances ”le capital de
solvabilité requis correspond à la valeur en risque des fonds propres de base de l’entre-
prise d’assurance ou de réassurance, avec un niveau de confiance de 99.5% à l’horizon
d’un an ”. Ainsi le choc action sous module du module risque de marché correspond à
une VaR à 99.5%.
Une modélisation généralisée des valeurs extrêmes effectuées par l’EIOPA sur les ren-
dements annuels de l’indice MSCI Word permet de fixer un choc de 45%. Ce choc est
supporté par la majorité des membres de l’EIOPA.

Toutefois il y a une minorité qui a supporté le calibrage d’un choc standard fondé sur
l’indice MSCI Europe. La raison de ce choix est la bonne diversification géographique
du portefeuille alloué en Europe et sa similarité avec un portefeuille d’un assureur.
D’autant plus comme on peut le voir dans le tableau 3.2, ce choix permet d’avoir un
calibrage plus prudent que celui issu du MSCI World ou une forte diversification peut
donner un calibrage moins élevé.

Notre approche consiste à modéliser les rendements des indices boursiers par des
modèles à variances conditionnelles AR(1) − EGARCH(1, 1) en prenant en compte
des événements extrêmes à travers une modélisation GPD des extrêmes (voir les sec-
tions 6.2 et 6.3). Afin de prendre en compte la stratégie d’investissement de l’assu-
reur dans le calcul du choc action, on procède en premier lieu à optimiser le por-
tefeuille des rendements selon différentes approches qui prennent en compte les ca-
ractéristiques de dispersion, d’asymétrie et des queues épaisses des séries des rende-
ments financiers. Par la suite on modélise les séries des rendements par des modèles
mixtes GP D − AR(1) − EGARCH(1, 1).

Une fois les séries modélisées, on calcul la VaR agrégée du portefeuille en considérant
une formule qui prend en considération les corrélations entre les titres.

6.4.3 Risque de base


Notant qu’on choisissant le modèle adéquat de volatilité conditionnelle, on est dans
la mesure de prendre en compte le risque de changement de la volatilité action. En
effet, la loi des distributions des rendements ne peut pas être approximée par une loi
normale (ce que suppose un modèle simple type Black & Scholes, à volatilité constante).

Notre modèle à volatilité conditionnelle prend en compte le phénomène de clustering


de volatilité. Rappelons que ce phénomène peut se manifester à travers une hausse de
la variation de la volatilité lorsque les rendements sont faibles et inversement dans le
cas contraire, ce qui entraine qu’une volatilité forte a tendance à être suivie par une
autre volatité forte et inversement. Ainsi des périodes de fortes volatilités alternent
avec des périodes de faibles volatilités. Un modèle action Black-Scholes ne permet pas
de prendre en compte l’aléa de la volatilité, ainsi la sélection d’un tel modèle omet la
représentation du facteur de risque variation de la volatilité.
108 CHAPITRE 6. MODÉLISATION DES RENDEMENTS ET RISQUE ACTION

Rappelons que le fait de modéliser une série financière par les modèles de type AR(1)−
EGARCH(1, 1) permet de tenir compte du phénomène de l’effet de levier qui est lié
au fait qu’un choc négatif passé a tendance à avoir un impact plus important qu’un
choc positif de même ampleur.

Dans ce qui suit on calcule la sensibilité des résultats trouvés par rapport à un choc
standard ajusté de 49% qui est issus du calibrage de l’indice proxy MSCI World.
Rappelons que notre portefeuille est bien diversifié. On calcule ainsi la sensibilité des
résultats par rapport aux différentes pondérations obtenues selon les différents modèles
d’optimisation. Notons que l’utilisation du proxy MSCI World peut refléter un risque
action non adéquat pour certaines compagnies européennes. Pour cela, nous allons
calculer la sensibilité de nos résultats par rapport à un autre proxy supporté par une
minorité de l’EIOPA qui est l’indice MSCI Europe. Deux valeurs de choc feront notre
référence :
— Le premier choc correspond à 49% : c’est le choc standard de 39% sans formule
transitoire et qui est ajusté au maximum c’est à dire (39 + 10)% = 49%. En effet,
49% correspond à la VaR maximale après ajustement symétrique proposée par
L’EIOPA en considérant l’indice MSCI World et en supposant une modélisation
normale des rendements annuels.

— Le deuxième choc correspond à 55% : notons qu’une modélisation des valeurs


extrêmes selon l’EIOPA, permet de fixer un choc standard à 45%. Notons que
l’EIOPA a effectué un test pour voir le dépassement des seuils 45% + −10%
des rendements annuels déterminés selon une fenêtre glissante annuelle sur la
période 01/01/1973-01/01/2009. Les résultats montrent que la bande de +-10%
est dépassée dans 69% des cas (voir Ceiops-Doc-65/10), ce qui justifie notre
intérêt à contrôler, par la suite, la couverture de ce niveau de choc standard
ajusté au maximum. En particulier on s’intéresse au choc pour se couvrir contre
une baisse des marchés à savoir le choc de 55%. Cette valeur fera référence au
choc maximal suivant une modélisation des valeurs extrêmes par l’EIOPA.

6.4.4 Risque de base par rapport à une estimation normale et


historique
Dans ce cas on considère le cas de la VaR à 99.5% estimée par la méthode normale et
historique. Ces valeurs sont données dans le tableau 6.8.

On remarque que la VaR(99.5), estimée par la méthode normale et qui correspond à


55.631%, permet de couvrir le choc standard de 49% et aussi le choc de 55%. Toutefois le
choc historique, calibré sur notre portefeuille et qui correspond à 49%, n’est pas suffisant
pour couvrir le choc 55%. Cette première comparaison montre que le proxy MSCI Word
utilisé pour calibrer les chocs action peut ne pas refléter adéquatement le risque de marché
pour le portefeuille hypothétique considéré dans notre étude. L’utilisation du MSCI Europe
6.4. EVALUATION DU CHOC ACTION : (VAR À 99.5%) 109

VaR(99.5%) VaR(99.5%) − 49% VaR(99.5%) − 55%


Normale -55.6306 -6.6306 -0.6306
Historique -49.4096 -0.4096 5.5004

Table 6.12 – VaR(99.5%) selon la méthode normale et historique des rendements


arithmétiques annuels d’un portefeuille uniforme.

à la place du MSCI Word permet d’avoir sous l’hypothèse de normalité des rendements un
choc de 43% (voir tableau 3.2) qui, ajusté au maximum, peut atteindre 53%. Ce proxy parait
dans ce cas plus adéquat que le proxy MSCI Word.

6.4.5 Risque de base par rapport à une estimation


AR(1) − EGARCH(1, 1) − Student

Dans le tableau 6.13 on donne les écarts entre la VaR estimée par le modèle AR(1) −
EGARCH(1, 1) − Student et les chocs 49% et 55%.

On note que les valeurs estimées dans le tableau sont fondées sur la période 2000-2015.
On peut donner la constatation suivante :

— Selon une modélisation AR(1) − GARCH(1, 1) − Student des rendements observés sur
la période 2000-2015, un choc action égale à 49% n’est pas suffisants pour se couvrir
contre une probabilité de ruine de 0.5%. En effet, un écart négatif dans le tableau 6.13
signifie que le choc standard est insuffisant. Cet écart se ventile entre -3.699% pour une
pondération uniforme et -6.037% pour une pondération obtenue selon le critère CVaR.
— Un choc de 55% (calibré par l’EIOPA en tenant compte des valeurs extrêmes) est
suffisant dans les différents cas excepté le cas de l’optimisation CVaR.

Nous avons refait les estimations des VaR mais sur une période plus courte correspondant
aux trois dernières années. Les résultats reportés dans le tableau 6.14 donnent une VaR
à 99.5% égale à-43.7632% pour un portefeuille uniforme, -45.3650% pour un portefeuille
moyenne variance et -46.6312% pour un portefeuille CVaR. Ceci montre la sensibilité des
estimations par rapport à la profondeur des données utilisées d’une part et d’autre part par
rapport aux critères d’optimisation de portefeuille.

D’après les tableaux 6.13 et 6.14, on remarque qu’une estimation de la VaR sur la base
des rendements observés durant les trois dernières années sous-estime la VaR estimée sur la
base d’une période plus longue. Il est important de bien choisir la période appropriée pour
le calibrage du risque action.
110 CHAPITRE 6. MODÉLISATION DES RENDEMENTS ET RISQUE ACTION

VaR(99.5%) VaR(99.5%) − 49% VaR(99.5%) − 55%


Optimisation MV
-53.9707 -4.9707 1.029
Optimisation CV aR
- 55.0375 -6.0375 -0.375
Optimisation MVS (λ = 1)
-54.3627 -5.3627 0.6373
Optimisation MVSK (λ = 1)
-54.3973 -5.3973 0.6027
Pondération uniforme
-52.6995 -3.6995 2.3005

Table 6.13 – VaR à 99.5% des rendements arithmétiques annuels selon la méthode AR(1) −
EGARCH(1, 1) − Student pour un portefeuille diversifié sur une période de 2000-2015.

CAC40 DAX AEX FTSEMIB Port.uniforme Port. MV Port. CVAR


VaR à 99.5% -44.9879 -47.9133 -39.2818 -47.6355 -43.7632 -45.3650 -46.6312
VaR à 99% -40.7641 -42.279 -43,9046 -35.5430 -39.5437 -40.2436 -41.4720

Table 6.14 – VaR à 99.5% des rendements arithmétiques annuels selon la méthode AR(1) −
EGARCH(1, 1) − Student pour un portefeuille diversifié sur une période de trois ans de
2013-2015.

6.4.6 Risque de base par rapport à une estimation GP D − AR(1) −


EGARCH(1, 1) − Student

Notons que selon la méthode GP D − AR(1) − EGARCH(1, 1) − Student le choc action


appliqué au portefeuille est de l’ordre de 66%. Si on compare ce choc de avec le choc action
respectivement de 49% et 55% alors on remarque que la sous-estimation du choc action
atteint respectivement 17% et 11%. Ceci montre la forte sensibilité du choc action a la
modélisation des valeurs extrêmes des séries de rendements annuels. De plus on peut dire
que ce choc est sensible à la période considérée pour la modélisation des séries qui prend en
considérations différentes crises financière. En effet, si on ré-estime le choc du portefeuille
selon la méthode GP D − AR(1) − EGARCH(1, 1) − Student mais uniquement sur les trois
dernières années 2013-2015 alors on obtient les résultats du tableau 6.15 :
6.5. CONCLUSION 111

CAC40 DAX AEX FTSEMIB Port.uniforme Port. MV Port. CVAR


-46.8137 -46.6577 -45.1072 -43.7077 -44.400 -45.838 -46.323

Table 6.15 – VaR à 99.5% des rendements arithmétiques annuels selon la méthode GP D −
AR(1) − EGARCH(1, 1) − Student pour un portefeuille diversifié sur une période de trois
ans de 2013-2015.

Les résultats de ce tableau montrent qu’un choc standard de 39% plus un ajustement
symétrique n’est pas suffisant pour se couvrir contre une probabilité de ruine de 0.5%. Il
est plus raisonnable de considérer un choc de 45% plus un ajustement symétrique vu les
valeurs de la VaR à 99.5% obtenues dans le tableau 6.15 pour les différentes compositions
des portefeuilles diversifiés. On remarque aussi que les résultats obtenus dépendent de la
profondeur considérée du marché. En effet la prise en compte de plusieurs périodes de crise
(2000-2015) permet de calibrer un choc de 66%, alors que si on prend une période de stabilité
financière (2013-2015) ce choc est approximé par 45%. On note aussi que si les queues sont
modélisées par les valeurs extrêmes alors les résultats sont peu sensibles aux poids des indices
constituant le portefeuille fictif.

6.5 Conclusion

La première conclusion tirée de cette étude est l’insuffisance du choc standard calibré
sur base de l’MSCI WORLD considéré par L’EIOPA pour se couvrir contre une probabilité
de ruine de 0.5%. En effet, comme notre portefeuille est composé par des indices européen,
il est plus adéquat de considérer, si on se place dans un cadre de modèle standard, un
choc de 43% +10% d’ajustement calibré selon l’indice MSCI EUROPE. Ce choc semble
plus adéquat que le choc de 39+10% issu du proxy MSCI World. La deuxième conclusion
concerne l’effet des pondérations des indices sur le choc action. Cet effet est non négligeable
pour une modélisation AR(1)-EGARCH(1,1) et n’existe presque pas pour une modélisation
GP D − AR(1) − EGARCH(1, 1). Cela révèle que la modélisation par des valeurs extrême
élimine l’effet de la dépendance des queues des distributions des rendements (pas d’effet de
diversification). Toutefois, notre étude révèle un caractère erratique et instable de l’évaluation
de la VaR à 99.5% qui dépend de la profondeur des données et aussi du modèle considéré. Ce
problème peut être lié au fait d’utiliser des rendements annualisés à partir d’une fenêtre glis-
sante appliquée aux rendements journaliers. En effet cette procédure permet d’avoir, comme
conséquences, des rendements annuels élevés persistants dans le temps et une structure de
dépendance plus forte que celles observées sur les rendements journaliers directement. Ce
problème a été étudié en détail dans Mittnik (2016).

A l’issue de ses résultats obtenus dans ce chapitre on peut dire donc que l’implémentation
de la formule standard, qui suggère un choc action à 39% plus au moins un ajustement
symétrique, n’est pas prudente. On peut mettre en doute le fait que la formule standard,
112 CHAPITRE 6. MODÉLISATION DES RENDEMENTS ET RISQUE ACTION

telle qu’elle est actuellement proposée par l’EIOPA ne représente pas une réelle prise en
compte du risque action lié à l’activité des assurances.
Chapitre 7

Ajustement symétrique dans le cadre


du modèle standard de Solvabilité II

7.1 Introduction

Dans cette partie on propose d’évaluer la probabilitéé d’avoir un ajustement d’un niveau
κ%. Rappelons que la valeur de l’ajustement ou encore du dampener à une date i est donnée
par l’équation (7.1)
Dampeneri = max[min[SAi , 10%], −10%], (7.1)
où SAi désigne la valeur de l’ajustement symétrique avant d’être capé ou floré et est donnée
par (7.2).
1 CIi − AIi
SAi = ( − 8%), (7.2)
2 AIi
de plus dans (7.2), on note
CIi − AIi
Di = , (7.3)
AIi
où
— Di est la distance en pourcentage de la valeur de l’indice par rapport à sa moyenne
mobile sur trois ans.
— CIi est la valeur courante du panier d’indices action de référence proposé par l’EIOPA
— AIi correspond au niveau moyen sur les trois dernières années de la valeur de l’indice
de référence, il est calculé comme étant une moyenne pondérée des valeurs journalières
de l’indice sur les 36 derniers mois.
On désire estimer la probabilité d’avoir une valeur d’ajustement inférieure ou égale à
un niveau κ% ou en fonction de la position dans le cycle : −10% ≤ κ% ≤ 10%. Cette
estimation permet d’avoir un contrôle sur l’evolution du choc action qui sera appliqué dans
le cas où la compagnie utilise le modèle standard. Par exemple, un assureur averse au risque
ne s’interesse pas uniquement à la valeur espérée de l’ajustement symétrique appliquée au

113
114 CHAPITRE 7. AJUSTEMENT SYMÉTRIQUE

choc 39% mais, il veut avoir la probabilité qu’un choc extreme de 49% soit appliqué durant
la prochaine période. On a donc intérêt à evaluer la probabilité d’avoir une juste valeur des
chocs standards.

Rappelons que Di dans (7.3) est déterminée en fonction de la moyenne de la valeur de


l’indice sur les trois dernières années. Le choix de la période de trois ans dans le calibrage
de l’ajustement symétrique a fait l’objet de plusieurs critiques. En effet, une période plus
courte de trois mois qui a été testée sur l’indice de l’EIOPA permet de sous-estimer la valeur
de l’ajustement et permet d’avoir une valeur du choc action non stable et imprévisible. Au
contraire une période plus longue de cinq ans peut surestimer la valeur de l’ajustement.

On note qu’un ajustement symétrique de valeur κ% pour le Dampeneri correspond à une


valeur α% pour la distance Di telle que 2 ∗ κ% + 8% = α%. En effet, afin de réduire le SCR
en bas de cycle quand la probabilité de hausse est importante et de l’augmenter en haut de
cycle quand la probabilité de baisse est importante. Le choc actions est ajusté de +/-10 %
(de 29% à 49%).

Par exemple dans le cas extrême, si on désire estimer la probabilité d’avoir un ajustement
de κ = −10% par rapport à la valeur 39% (c’est à dire avoir un choc de 29%), alors on
s’intéresse à la probabilité que les marchés soient en baisse de plus de α = −12%. En effet, en
bas de cycle (lorsque les marchés sont en baisses), la probabilité de hausse est importante et
le SCR doit être réduit. Inversement si on désire estimer la probabilité d’avoir un ajustement
de κ = 10% alors on s’intéresse à la probabilité que les marchés soient en hausse de plus de
α = 28% en effet, en haut de cycle quand la probabilité de baisse est importante on a intérêt
à augmenter le SCR.

Soit DMi qui définit l’évolution de la distance Di en fonction de l’historique passé des
évolutions des distances : Di−1 , . . . , D1 . Soit Xi la variable modélisant la variation de DMi
de plus de α%. Rappelons qu’on s’intéresse à la probabilité de dépasser un niveau α% de
variation de la valeur du portefeuille. Dans ce cas notre variable dépendante Xi à expliquer
prend seulement deux états à savoir dépasser le seuil α% ou non. Xi est dite variable binaire
dépendante de nature discrète. Cette variable prend l’etat 1 si le seuil est dépassé et 0 si non.
Cette modélisation est connue par modélisation à réponse binaire ou modélisation à choix
binaire et permet de modéliser si un événement se produit ou pas. En d’autres termes, on
s’intéresse à la modélisation de la variable Xi = 1{DMi >α} , tel que :

1{DMi >α} = f (1{Di−1 >α} , . . . , 1{D1 >α} ).

C’est à dire DMi dépend de l’historique passé des évolutions de la distance D. Soit pi
la probabilité conditionnelle à un certain ensemble d’informations Ωi que l’événement se
produit pour l’observation i + 1. Ainsi un modèle à réponse binaire permet de modéliser
cette probabilité.
pi = P(Xi+1 = 1|Ωi ) = E(Xi+1 |Ωi )
L’objectif d’un modèle à réponse binaire est de modéliser cette espérance conditionnelle et
garantit d’avoir une valeur comprise entre 0 et 1.
7.2. MODÈLES POUR L’ESTIMATION DE PI 115

7.2 Modèles pour l’estimation de pi dans le contexte


de l’ajustement symétrique

Soit un facteur Vi modélisant l’évolution de plus de α% de l’indice à une date i par


rapport à la moyenne des trois dernières années. Considérant Xi+1 modélisant l’évolution
estimée de plus de α% de la valeur de l’indice à la date i + 1 par rapport aux valeurs des
moyennes (sur les 36 derniers mois) du portefeuille durant les i derniéres périodes. Dans ce
travail Xi+1 est une variable de Bernoulli prenant des valeurs 1 si l’évolution prédite est
supérieure à un niveau α% à la date i + 1 et zéro si non. On suppose que les variables Xi+1
sont conditionnellement indépendantes par rapport V i = (V1 , . . . , Vi ). Par l’indépendance
conditionnelle, on a pour tout j > i,

P[Xi+1 ∈ B|V i ] · P[Xj+1 ∈ B|V j ] = P[(Xi+1 , Xj+1 ) ∈ B × B|V j ]. (7.4)

On veut estimer la probabilité pi correspondante à la variation de plus de α% à la date i + 1


des marchés par rapport à la valeur moyenne du portefeuille pendant trois ans. Dans (7.4)
le conditionnement est fait par rapport à une mémoire non bornée dont la longueur varie au
cours du temps. Dans notre contexte, le facteur Vi modélise si Di (observé) est supérieur à
α%. Vi prend la valeur 1 si Di > α% et zéro sinon. Dans ce modèle, dans chaque période
i + 1, tout le passé du facteur V influence Xi+1 . En effet, il est souvent non satisfaisant de
considérer une mémoire finie, même si les événements récents ont plus d’importance que les
événements lointains dans le passé.

Considérons que la série (Vi )i∈N est donnée par une séquence de Bernoulli i.i.d. de pa-
ramètre ν. Ainsi chaque variable aléatoire a la même distribution de probabilité qu’une
variable aléatoire de Bernoulli V de paramètre ν telles que E(Vi ) = E(V ) = ν et Var(Vi ) =
Var(V ) = ν(1 − ν), pour tout i.

L’idée est de proposer une estimation dynamique de la probabilité de variation de plus


(ou moins) de α% de DMi et de prendre en considération au mieux la dépendance temporelle
qui peut exister au sein du processus (Xi )1≤i≤n . On propose l’estimateur suivant de cette
probabilité :

i
X
pi = P(Xi+1 = 1|V i ) = wi,j Vj , (7.5)
j=1

où à la date i, wi,j correspond au poids accordé à l’observation de la période passé j


du facteur. En d’autres termes la variable aléatoire Xi+1 |V i suit une loi de bernoulli de
paramètre pi .
116 CHAPITRE 7. AJUSTEMENT SYMÉTRIQUE

7.2.1 Modélisation avec faible dépendance

Dans ce cas on propose que l’évolution de Xi+1 , peut être modélisée en utilisant (A) qui
peut être considérée comme une marche aléatoire avec des incréments dépendants.
i
(1) X Vj
pi = P(Xi+1 = 1|V i ) = K i−j
, (A)
j=1 2

pour tout i ∈ N avec K une constante de normalisation telle que K ≤ 0.5, ceci pour assurer
que pi est une probabilité dans [0, 1]. Notons que ce type de modèle a été présenté et étudié
dans Kacem et al. (2016).
Dans l’équation, (A), la loi conditionnelle de Xi sachant V i est telle que les valeurs récentes
du facteur ont plus de poids que les valeurs anciennes.
On note que dans l’équation (A) la somme des poids est inférieure à 1 en effet,
i
X K 2i − 1
i−j
= 2K .
j=1 2 2i

Pour K = 12 , cette somme est égale à 1 − 1/2i qui tend vers 1 lorsque i tend vers l’infini.
Dans ce travail on prendra K = 0.5. Dans ce qui suit on présente les propriétés des moments
(1) (1)
de pi et de Xi . Il est facile de voir
i
(1)
1/2i−j → 2Kν,
X
E(pi ) = KE(V ) for i → +∞.
j=1

De plus,
 
(1)
Var(pi ) = (4K 2 /22i ) Var(V )(22i − 1)/3 + ν 2 (22i + 1 − 2i+1 ) − 4K 2 ν 2 (1 − (1/2i ))2 , (7.6)

Ainsi,
(1) 4 2
Var(pi ) → K Var(V ). (7.7)
3
(1)
On note que la variabilité de pi est une fonction croissante de la variabilité du facteur V .

Dans la figure 7.1 on présente des trajectoires arbitraires du paramètre (pi )1≤i≤n avec
(Vi )1≤i≤n une suite de v.a.s de Bernoulli i.i.d. de paramètre ν. On note que sachant V i = v i ,
pi est déterministe. Mais, tant que le facteur n’est pas connu, la suite pi est une marche
aléatoire dépendante. A partir de la figure 7.1 on note que plus le paramètre ν du facteur V
(1)
est extrémal (i.e. proche des valeurs 0 et 1) moins la suite (pi )1≤i≤n est dispersée.

On note que
(1)
E(Xj+1 ) = E(pj ), (7.8)
1 1
  
Var(Xj+1 ) = 2Kν(1 − ) 1 − 2Kν(1 − ) (7.9)
2j 2j
7.2. MODÈLES POUR L’ESTIMATION DE PI 117

nu=0.15 nu=0.45 nu=0.75 nu=0.95

1.0

1.0

1.0
0.8

0.9
0.8
0.8

0.8
0.6

0.6
0.6

0.7
p_i

p_i

p_i

p_i
0.4

0.4
0.4

0.6
0.2

0.5
0.2
0.2

0.4
0.0

0.0
0.0

0 200 400 600 0 200 400 600 0 200 400 600 0 200 400 600

i i i i

(1)
Figure 7.1 – Trajectoires arbitraires de (pi )1≤i≤n , pour n = 600, K = 0.5 et pour différentes
valeurs de ν.

d’où,
Var(Xj+1 ) → 2 K ν (1 − 2Kν), (7.10)
et , pour tout t > j,

(1) (1) 4 K 2 Var(V ) (4j − 1)


Cov(Xj+1 , Xt+1 ) = Cov(pj , pt ) = . (7.11)
3 · 2j+t

Ainsi à partir de (7.9), (7.11) (resp. (7.6) et (7.11)), la fonction d’autocorrélation pour
(1) (1) (1) (1)
tout t > j est donnée par ρ(Xj+1 , Xt+1 ) = ρ(Xj+1 , Xj+1+z ) (resp. ρ(pj , pt ) = ρ(pj , pj+z )),
avec z = t − j.
(1)
Remarquons que si Xi+1 est une v.a. de Bernoulli de paramètre E(pi ) alors Var(Xi+1 ) =
(1) (1) (1) (1) (1) (1) (1)
E(pi )(1 − E(pi )) = E(pi ) − E(pi )2 et Var(pi ) = E((pi )2 ) − E(pi )2 6= Var(Xi+1 ). Ceci
(1) (1)
n’est pas le cas pour Cov(Xj+1 , Xt+1 ), t 6= j puisque Cov(Xj+1 , Xt+1 ) = Cov(pj , pt ). En
effet, en utilisant la propriété d’indépendance conditionnelle on a

(7.12)
Cov(Xj+1 , Xt+1 ) = E(E(Xj+1 = 1, Xt+1 = 1|V sup{t,j} )) − E(Xj+1 )E(Xt+1 ) (7.13)
(1) (1) (1) (1) (1) (1)
= E(pj pt ) − E(pj )E(pt ) = Cov(pj , pt ). (7.14)
118 CHAPITRE 7. AJUSTEMENT SYMÉTRIQUE

7.2.2 Modélisation moyenne mobile

Pour cette deuxième modélisation, on considère une moyenne mobile pour les obsevations
passées du facteur de telle sorte que, à une date donnée i, la probabilité conditionnelle de
Xi sachant le facteur V i est donnée par
i
(2) 1X
pi = P(Xi+1 = 1|V i ) = Vj . (B)
j j=1

Il est trivial de voir que


(2)
E(pi ) = E(V ) (7.15)
et
(2) 1
Var(pi ) = Var(V ). (7.16)
i2

7.2.3 Méthodologie d’estimation

L’idée est de voir lequel des deux modèles p(1) et p(2) ajuste mieux la probabilité que le
dampener de la période suivante soit d’un niveau supérieur à κ.

A partir de la série des (Di )1≤i≤n qui est déjà disponible sur le site de l’EIOPA on
détermine la série des Vi : Vi prend 1 si Di > α% et zéro sinon. Une fois les V1≤i≤n déterminés,
(1) (2) (1) (2)
on calcul (pi )1≤i≤n et (pi )1≤i≤n . A chaque date i, pi (resp. pi ) correspond à l’estimation
de la probabilité que la variation de la valeur du portefeuille pendant la prochaine période
soit supérieur à α% selon le modèle (A) (resp. le modèle (B)).

Par la suite pour le backtesting du modèle, on utilise la technique de monte carlo pour
estimer l’erreur absolue moyenne des deux modèles et ceci par la formule suivante : soit m
le nombre de simulation monte carlo
m X n
1 X (j)A
EAMA = |Xi − Vi |. (7.17)
m j=1 i=2

et m X n
1 X (j)B
EAMB = |Xi − Vi |. (7.18)
m j=1 i=2
On s’intéresse également à l’ecart absolu moyen à une date fixé n
m
1 X A
EAMAn+1 = |Xn(j) − Vn |. (7.19)
m j=1
m
1 X B
EAMBn+1 = |Xn(j) − Vn |. (7.20)
m j=1
7.2. MODÈLES POUR L’ESTIMATION DE PI 119

On donne notre procedure de simulation dans le tableau 7.1 où pour chaque j ∈ [1, m] on a :

(1) (j)A (2) (j)B


Vi : observée pi : estimée Xi : simulée pi : estimée Xi : simulée
(1) (2)
V1 p1 V1 p1 V1
(1) (j)A (1) (2) (j)B (2)
V2 p2 X2 = B(p1 ) p2 X2 = B(p1 )
.. .. ..
. . .
(1) (j)A (1) (2) (j)B (2)
Vi pi Xi = B(pi−1 ) pi Xi = B(pi−1 )
.. .. ..
. . .
A (1) B (2)
Vn p(1)
n Xn(j) = B(pn−1 ) p(2)
n Xn(j) = B(pn−1 )
(j)A (j)B
- - Xn+1 = B(p(1)
n ) - Xn+1 = B(p(2)
n )

Table 7.1 – Méthodologie d’estimation

7.2.4 Comparaison des modèles selon le critère de la log vraisem-


blance

Pour déterminer lequel des deux modèles est le meilleur on calcul la log vraisemblance de
chacun d’eux. Rappelons que les Xi sont dépendantes mais conditionnellement indépendantes
par rapport à V i . Dans ce cas la vraisemblance du modèle conditionnelle est donnée par
n
Y
L= P(Xi+1 = xi+1 |V i = v i )
i=1

La Vraisemblance du modèle non conditionnelle peut être approchée par l’expression suivante

G = P(X2 = x2 , . . . , Xn = xn ) = E(P(X2 = x2 , . . . , Xn = xn |V n )) = E(L).

Ainsi n
X Y
G= P (V n = v n ) P(Xi+1 = xi+1 |V i = v i ).
(v∈{0,1})n i=1

Or
n P P
ν vi (1 − ν)1−vi = ν vi
(1 − ν)n− vi
Y X X
P (V n = v n ) = = P(V n = v n | vi = k)P( vi = k).
i=1
120 CHAPITRE 7. AJUSTEMENT SYMÉTRIQUE

D’où n n
X X X Y
G= P(V n = v n | vi = k)P( vi = k) × P(Xi+1 = xi+1 |V i = v i ) .
k=0 | {z } i=1
(1) | {z }
(?)

Le terme (1) de cette vraisemblance est connu et est le même pour les deux modèles de pi .
Par contre, le terme (?) dépend de V i . De plus, c’est le terme qui fait la différence entre
les deux modèles de pi . Pour cela, pour comparer les vraisemblances non conditionnelles des
modèles il suffit de comparer les vraisemblances conditionnelles des modèles données par L.
Rappelons que
P(Xi+1 = xi+1 |V i = v i ) = (pi )xi+1 × (1 − pi )(1−xi+1 )
Dans ce cas l’expression du log vraisemblance est donnée par
n
X n
X i
X i
X
`= xi+1 ln(pi ) + (1 − xi+1 ) ln(1 − pi ) = xi+1 ln( wi,j Vj ) + (1 − xi+1 ) ln(1 − wi,j Vj )
i i j=1 j=1

1) modèle A) :
n i i
X X KVj X KVj
`= xi+1 ln( i−j
) + (1 − x i+1 ) ln(1 − i−j
) (7.21)
i j=1 2 j=1 2

2) modèle B)
n i i
X 1X 1X
`= xi+1 ln( Vj ) + (1 − xi+1 ) ln(1 − Vj ) (7.22)
i i j=1 i j=1

On utilise la méthode de monte carlo pour calculer ces deux vraisemblances.

Les étapes à suivre sont les suivantes :

1) La première étape consiste à déterminer ν correspondante au paramètre du facteur V .


2) Simuler un vecteur du facteur V n de longueur n à partir de laquelle on génère la suite
(Xi+1 )1≤i≤n conditionné par rapport à V n−1 selon les deux modèle de pi . Il faut noter
que pour simuler Xi+1 il suffit de simuler Xi+1 |V i selon la probabilité pi .
3) On calcule la log vraisemblance du modèle pour les deux cas possibles de pi . Dans ce
cas on aura, pour la simulation j, `b1j et `b2j
4) Refaire les étapes 2) et 3) m fois.
5) Calculer `b1 = m1 m b1 b2 1 m b2
P P
j=1 `j et ` = m j=1 `j et puis comparer les résultats. Le modèle le
plus pertinent sera celui qui maximise la log vraisemblance.

7.3 Application à l’indice de l’EIOPA

On dispose de la série des données Di relative à l’indice de l’EIOPA sur la période juillet
1991 à fevrier 2016. Cette série est représentée dans la figure 7.2. Sur la figure 7.3, on constate
7.3. APPLICATION À L’INDICE DE L’EIOPA 121

que toutes les autocorrélations sont significativement différentes de zéro et diminuent très
lentement, et que la première autocorrélation partielle est significativement différente de
zéro. Ceci révèle d’une série non stationnaire.

0.8

0.6

0.4

0.2

−0.2

−0.4

−0.6
0 1000 2000 3000 4000 5000 6000 7000 8000 9000

Figure 7.2 – Représentation de la série Di de l’indice EIOPA sur la période 01/07/1991-


29/02/2016.
1.0
1.0

0.8
0.8

0.6
0.6

Partial ACF
ACF

0.4
0.4

0.2
0.2

0.0
0.0

0 10 20 30 40 0 10 20 30 40

Lag Lag

Figure 7.3 – Autocorrélation et autocorrélation partielle de la série (Di )1≤i≤n de l’indice


EIOPA.

On se place à la date n et on souhaite estimer pour la prochaine date n + 1 la probabilité


pn d’avoir un ajustement symétrique supérieur à κ%. Pour cela, on commence tout d’abord
par déterminer α% à partir de la relation suivante
1
(α − 8%) ≥ κ
2
122 CHAPITRE 7. AJUSTEMENT SYMÉTRIQUE

Notre objectif est de donner une meilleure estimation de pn , où pn est la probabilité que
DMn+1 ≥ α. Pour la modélisation de cette probabilité on a proposé deux modèles : un
modèle avec faible dépendance A et un modèle avec moyenne mobile B.

A partir de la série, Di, 1 ≤ i ≤ n, on détermine la série Vi , 1 ≤ i ≤ n, où Vi est une


Bernoulli qui prend 1 si Di ≥ α, 0 sinon. La moyenne de la série Vi , 1 ≤ i ≤ n est une
estimation du paramètre de la loi de Bernoulli du facteur V . Cette moyenne peut être elle
aussi une estimation de la probabilité d’avoir un ajustement supérieur à κ%. Sauf que cette
estimation est statique et n’est pas dynamique, c’est à dire elle ne dépend pas de la période
(de la date d’évaluation) de plus elle ne prend pas en considération la dépendance qui existe
entre les Di , 1 ≤ i ≤ n. Se sont les deux raisons pour lesquelles on propose d’étudier les
deux estimateurs dynamiques A et B.

Le meilleur modèle sera choisi en fonction du critère de vraisemblance (voir (7.21) et


(7.22)) et en fonction de l’écart absolu moyen (voir (7.17)).

7.3.1 Application pour κ = 10%

Rappelons que α = 28% correspond à un ajustement symétrique maximal de κ = 10% et


donc à un choc action de 49%. Dans la figure 7.4, on donne la représentation graphique de la
série V , qui révèle de l’existence d’un caractère cyclique au sein de cette série. Dans la figure
1.0

V
nu
0.8
0.6
V

0.4
0.2
0.0

0 2000 4000 6000 8000

Figure 7.4 – Représentation de la série (Vi )1≤i≤n de l’indice EIOPA pour κ = 10% avec ν
la moyenne de la série V .

7.5 on représente la fonction d’autocorrélation et d’autocorrélation partielle du facteur V ,


qui indique des autocorrélations significatives de la série V .
7.3. APPLICATION À L’INDICE DE L’EIOPA 123

1.0
1.0

0.8
0.8

0.6
0.6

Partial ACF
ACF

0.4
0.4

0.2
0.2

0.0
0.0

0 10 20 30 40 0 10 20 30 40

Lag Lag

Figure 7.5 – Autocorrélation et autocorrélation partielle de la série (Vi )1≤i≤n de l’indice


EIOPA pour κ = 10%.

L’estimation des probabilités (pi ), 1 ≤ i ≤ n selon les deux modèles A et B est représentée
dans le graphique 7.6. On note que dans le cas d’une estimation par le modèle à faible
(1)
dépendance (pi ), 1 ≤ i ≤ n, le caractère cyclique de V est gardé.

nu
0.8
p1

0.4
0.0

0 2000 4000 6000 8000

nu
0.20
p2

0.00

0 2000 4000 6000 8000

i
(1) (2)
Figure 7.6 – Séries (pi ) et (pi ), 1 ≤ i ≤ n de l’indice EIOPA pour κ = 10%.

(1) (2)
On représente dans le graphique 7.7, les séries Vi , (pi ) et (pi ), 1 ≤ i ≤ n superposées.
124 CHAPITRE 7. AJUSTEMENT SYMÉTRIQUE

(1)
Il est claire que la série des probabilités (pi ), 1 ≤ i ≤ n retrace la trajectoire de V . A partir
(1) (2)
de cette analyse graphique, la série (pi ), 1 ≤ i ≤ n rapproche mieux que (pi ), 1 ≤ i ≤ n
l’évolution de V .

1.0
V
p1
p2
0.8
0.6
0.4
0.2
0.0

0 2000 4000 6000 8000

(1) (2)
Figure 7.7 – Séries Vi , (pi ) et (pi ), 1 ≤ i ≤ n de l’indice EIOPA pour κ = 10%.

V p(1) p(2)

Moyenne 0.175 0.175 0.182

EAM 0.010 0.283

Table 7.2 – EAM selon 7.17 pour κ = 10%, m = 100.

On estime l’EAM selon la procédure suivie dans le tableau 7.1. On remarque d’après le
tableau 7.2 que sur toute la période d’observation, c’est le modèle A qui minimise l’écart
absolu moyen entre la série de la vrai évolution modélisée par V et la série estimée X.

7.3.2 Application pour différentes valeurs de κ

Dans le tableau 7.3 on donne la valeur ν du paramètre du facteur V


Le paramètre ν de la variable V représente la probabilité empirique d’avoir un ajustement
de valeur inférieure (ou supérieur) à un niveau κ et peut être calculé directement à partir de
la fonction de distribution empirique du dampener donnée dans le graphique 7.8 :

L’un de nos objectifs, à partir de la modélisation de la probabilité de réalisation d’un


dampener de valeur κ à travers les modèles A et B, est de proposer un modèle de prédiction
7.3. APPLICATION À L’INDICE DE L’EIOPA 125

κ(%) κ = −10 κ ≤ −8 κ ≤ −4 κ ≤ −2 κ≥0 κ≥2 κ≥4 κ≥8 κ = 10

α(%) α ≤ −12 α ≤ −8 α≤0 α≤4 α ≥ 8 α ≥ 12 α ≥ 16 α ≥ 24 α ≥ 28

ν 0.149 0.185 0.294 0.373 0.553 0.471 0.392 0.226 0.175

Table 7.3 – Moyenne ν du facteur V .

Empirical CDF
1

0.9

0.8

0.7

0.6
F(x)

0.5

0.4

0.3

0.2

0.1

0
−0.1 −0.08 −0.06 −0.04 −0.02 0 0.02 0.04 0.06 0.08 0.1
x

Figure 7.8 – Fonction de répartition empirique du dampener.

de la probabilité κ qui s’ajuste au mieux avec le caractère procyclique du dampener. Notre


but consiste aussi à avoir un modèle dynamique qui se met à jour en prenant en considération
les nouvelles observations liées à l’évolution du dampener.

D’après les tableaux 7.4 et 7.5 on remarque la surperformance du modèle A par rapport au
modèle B dans la prédiction de la probabilité d’avoir un dampener de valeur κ en moyenne.
De plus, on remarque que le modèle 7.4 est celui qui minimise l’EAM de prévision pour les
différentes valeurs κ testées. En contrôlant l’erreur de prédiction uniquement pour la dernière
période c’est à dire n, on remarque que EAM n+1 est nulle dans la plus part des cas pour le
modèle A, ceci signifie que sur les m = 100 simulations la probabilité de se tromper dans la
prédiction de l’évolution du dampener durant la prochaine période (ici 01/03/2016) est nulle,
ce qui n’est pas le cas avec le modèle B ou l’erreur de prédiction EAM n+1 est fréquente. En
effet, la valeur du dampener à la date 01/03/2016 observée ex-post est égale à -3.32% (voir
site de l’EIOPA). Ce taux est supérieur à -10%. Selon le modèle A la probabilité, estimée à
la date 29/02/2016 q’un ajustement de -10% sera appliqué demain le 01/03/2016, est égale
à zéro alors que cette probabilité est égale à 0.175 selon le modèle B.
126 CHAPITRE 7. AJUSTEMENT SYMÉTRIQUE

κ(%) κ = −10 κ ≤ −8 κ ≤ −4 κ ≤ −2 κ≥0 κ≥2 κ≥4 κ≥8 κ = 10

α(%) α ≤ −12 α ≤ −8 α≤0 α≤4 α≥8 α ≥ 12 α ≥ 16 α ≥ 24 α ≥ 28

Moyenne p(1) 0.149 0.185 0.294 0.372 0.553 0.471 0.392 0.226 0.175

EAM 7.17 0.010 0.010 0.014 0.012 0.015 0.012 0.014 0.014 0.010

EAM n+1 7.19 0 0.02 0 0 0 0 0 0 0

Table 7.4 – EAM pour le modèle A pour différentes valeurs de α, m = 100

κ(%) κ = −10 κ ≤ −8 κ ≤ −4 κ ≤ −2 κ≥0 κ≥2 κ≥4 κ≥8 κ = 10

α(%) α ≤ −12 α ≤ −8 α≤0 α≤4 α≥8 α ≥ 12 α ≥ 16 α ≥ 24 α ≥ 28

Moyenne p(2) 0.089 0.111 0.216 0.357 0.539 0.446 0.382 0.228 0.182

EAM 7.17 0.202 0.241 0.368 0.440 0.463 0.469 0.451 0.337 0.283

EAM n+1 7.19 0.18 0.21 0.73 0.71 0.49 0.53 0.39 0.16 0.23

Table 7.5 – EAM pour le modèle B pour différentes valeurs de α, m = 100

Dans le tableau 7.6 on donne les valeurs des log de vraisemblance estimées par méthode
de simulations monte carlo selon (7.21) et (7.22). Les résultats montrent que le modèle A
avec mémoire courte est le plus adéquat pour la modélisation de la probabilité d’evolution
du dampener.

7.4 Conclusion

Les résultats obtenus montre la performance du modèle type mémoire courte qui est le
modèle A dans la prédiction de la probabilité d’avoir un ajustement d’un niveau κ dans
la prochaine date. L’ajustement de la loi du dampener par une loi non paramétrique ne
semble pas facile vu que cette distribution est limité à droite et à gauche par les valeurs +-
10%. En d’autres termes nous avons une distribution d’une variable continue sur un support
[−10%, 10%] avec des grandes proportions aux points +10% et -10%. De plus, une telle
modélisation ne permet pas d’avoir un ajustement dynamique et journalier des données en
7.4. CONCLUSION 127

κ(%) κ = −10 κ ≤ −8 κ ≤ −4 κ ≤ −2 κ≥0 κ≥2 κ≥4 κ≥8 κ = 10

α(%) α ≤ −12 α ≤ −8 α≤0 α≤4 α≥8 α ≥ 12 α ≥ 16 α ≥ 24 α ≥ 28

Modèle -272.54 -306.71 -426.24 -472.08 -499.46 -500.73 -465.29 -351.65 -303.98
A

Modèle -414.08 -473.95 -601.39 -652.43 -686.92 -687.79 -663.62 -532.95 -466.47
B

Table 7.6 – Logvraisemblance pour différentes valeurs de α, m = 100

fonction de l’actualité des marchés. C’est pour cette raison que nous avons essayé dans ce
mémoire de trouver un modèle de prédiction de la probabilité d’avoir un ajustement donné
à une date fixée.
Conclusion et perspectives

128
129

Conclusion

Dans ce travail on s’intéresse à la modélisation et à l’évaluation du choc action sous la


nouvelle réforme Solvabilité II. Notons que la réglementation Solvabilité II impose aux com-
pagnies d’assurance européennes une exigence en fonds propres qui permet de couvrir tous
les risques qui pèsent de manière effective sur leurs activités. Cette exigence en fonds propres
correspond à une Value-At-Risk un an à 99.5%.

En particulier, on propose d’évaluer la sensibilité du choc action par rapport à différentes


pondérations des indices composants le portefeuille. Pour cela, on s’intéresse à la question
d’optimisation de portefeuille. Notons que le critère d’optimisation moyenne-variance de
Markowitz repose sur l’hypothèse de normalité des distributions des rendements, ce qui
n’est pas toujours réaliste. En effet, les distributions des séries des rendements des indices
boursiers sont caractérisées par des faits stylisés tels que l’asymétrie et les queues épaisses.
Notre première question dans ce travail était de déceler l’impact de différentes méthodes de
sélection de portefeuille.

On considère dans la première partie de l’étude empirique des portefeuilles d’indice action
qui peuvent être composés à partir des portefeuilles actions suivants : CAC40, DAX, AEX,
FTSEMIB, FTSE100, SP500 et SMI. On a choisi de travailler sur ces indices car ils composent
l’indice global MSCI sur lequel l’EIOPA se base pour modéliser le choc action. On propose
de déterminer la composition optimale du portefeuille sous contrainte de rendement et ceci
selon les critères d’optimisation suivants : moyenne-variance, moyenne-variance-skewness,
moyenne-variance-skewness-kurtosis et le critère CVaR. Des différences sont à noter entre
les poids obtenus lorsque l’optimisation est fondée sur les deux, trois ou quatre premiers
moments. De plus, puisque les distributions sont asymétriques et non normales, les critères
d’optimisation CVaR et MV ont conduit à des différences dans la pondération des indices.

Dans la deuxième partie de notre étude, on s’intéresse à l’évaluation du choc action dans
le cadre d’une modélisation interne du risque. Les rendements journaliers des actions sont
souvent caractérisés par un fait stylisé connu par le clustering de volatilité. Selon ce fait, les
périodes de forte volatilité alternent avec les périodes de faible volatilité. Plusieurs modèles
sont utilisés pour analyser et prévoir la volatilité dans ce cadre. On propose de modéliser les
rendements journaliers des indices boursiers par plusieurs modèles à variance conditionnelle
dont les modèles : GARCH(1,1), EGARCH(1,1), AR(1)-GARCH(1,1) et le modèle AR(1)-
EGARCH(1,1). Selon notre étude, le modèle AR(1)-EGARCH(1,1) est le plus adéquat pour
la modélisation des séries des rendements journaliers. Pour la validation du modèle, on a
établi une procédure de Baktesting à travers le critère de la VaR.

De plus, on propose de modéliser les extrêmes par un modèle Generalized Pareto Distri-
bution (GPD). Selon cette approche on s’intéresse à la modélisation des queues inférieures et
supérieures des séries de rendements logarithmiques journaliers par une GPD conçue pour la
modélisation de la loi des excès au-delà d’un seuil élevé et par un Kernel pour la modélisation
130 CONCLUSION ET PERSPECTIVES

de la partie centrale de la distribution des rendements.

Ainsi, après avoir modélisé les séries des rendements on a calculé la VaR(99.5) annuelle du
portefeuille. Le choc action était évalué pour les différentes pondérations des indices compo-
sant le portefeuille optimisé selon les critères d’optimisation considérés dans ce mémoire.
A l’issue de notre étude, on note l’insuffisance du choc standard, calibré par L’EIOPA
sur base de l’indice MSCI WORLD, pour couvrir notre portefeuille fictif contre une pro-
babilité de ruine de 0.5%. De plus, concernant l’effet des pondérations des indices sur
le choc action, on note que pour une modélisation AR(1) − EGARCH(1, 1) le choc ac-
tion est impacté par les poids des indices ce qui n’est pas le cas pour une modélisation
GP D − AR(1) − EGARCH(1, 1). Cela révèle que la modélisation par des valeurs extrêmes
peut éliminer l’effet de la dépendance des queues des distributions des rendements.

Dans la dernière partie de notre travail qui porte sur le dampener on s’intéresse à
l’évaluation de la probabilité que l’ajustement, durant la période suivante, dépasse un niveau
κ%. Ceci permet à l’assureur d’estimer à l’avance la probabilité de voir son choc réduit ou au
contraire amplifié. Notre objectif à partir de la modélisation de la probabilité de réalisation
d’un dampener de valeur κ est de proposer un modèle de prédiction de la probabilité κ qui
s’ajuste au mieux avec le caractère pro-cyclique du dampener. On a proposé deux estima-
teurs de cette probabilité qui prennent en compte la dépendance qui peut exister entre les
évolutions passées du dampener : l’un à mémoire courte et l’autre à mémoire longue. On
note que le modèle à mémoire courte a été présenté dans Kacem et al. (2016). Les résultats
montrent que le modèle avec mémoire courte est le plus adéquat.

Limites et Perspectives

Notre modélisation des séries des rendements des différents indices ne tient pas compte
de la corrélation dynamique qui peut exister entre les différents indices. Notre travail peut
être amélioré en considérant une modélisation de la dépendance spatiale entre les différents
indices à travers les copules et en considérant une allocation dynamique du portefeuille
d’indice. De plus, notons que les estimations de la VaR du portefeuille à un an sur la base
des rendements journaliers peut avoir une influence sur les résultats trouvés. Une autre limite
de notre travail est liée au choix de la profondeur de l’historique des données. En effet, selon
la période considérée, les résultats peuvent être considérablement différents.
Table des figures

3.1 Divers modules de risque selon solvabilité II. Source : QIS4 Technical Specifi-
cations (MARKT/2505/08). . . . . . . . . . . . . . . . . . . . . . . . . . . . 56

3.2 Etude EIOPA pour le calibrage standard du risque action. Source : CEIOPS-
DOC-65/10 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58

3.3 Le calibrage standard du risque action selon Solvabilité II. Source : CEIOPS-
DOC-65/10. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61

3.4 L’évolution de l’ajustement symétrique sur la période 01/07/1991-29/02/2016 62

4.1 Rendements logarithmiques journaliers du CAC40. . . . . . . . . . . . . . . 66

4.2 Fonction d’autocorrélation des rendements logarithmiques journaliers du CAC40. 68

4.3 Rendements logarithmiques journaliers du DAX. AEX. FTSEMIB. FTSE100.


SP500 et SMI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69

4.4 Histogramme et QQplot des rendements logarithmiques journaliers du Cac40. 69

4.5 Rendements arithmétiques annuels des indices CAC40. DAX. AEX et FTSE-
MIB. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71

4.6 Histogramme et QQplot des rendements arithmétiques annuels du CAC40. . 71

5.1 Comparaison des frontières efficientes des fonds 1 et 2 selon le critère Moyenne-
Variance. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77

5.2 Comparaison des frontières efficientes selon le critère CVAR, α = 95%, α =


99%, Fond 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80

5.3 Comparaison des frontières efficientes selon le critère CVAR, α = 95%, α =


99%, Fond 2. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81

131
132 TABLE DES FIGURES

5.4 Comparaison des frontières efficientes des fonds 1 et 2 selon le critère CVAR,
α = 99%. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82

5.5 Frontière efficiente selon les programmes d’optimisation CVAR (α = 99%) et


moyenne-variance. Représentation sous forme d’aire pour le Fond 1. . . . . . 83

5.6 Frontière efficiente selon les programmes d’optimisation CVAR (α = 99%) et


moyenne-variance. Représentation sous forme d’aire pour le Fond 2. . . . . . 83

5.7 Comparaison des frontières efficientes rendement/CVaR selon le programme


d’optimisation CVaR : α = 95%, 99% et moyenne variance pour le fond 1. . . 84

5.8 Comparaison des frontières efficientes rendement/CVaR selon le programme


d’optimisation CVaR : α = 95%, 99% et moyenne variance pour le fond 2 . . 84

6.1 Résidus standardisés et volatilité conditionnelle des rendements logarithmiques


journaliers du CAC40 issus d’une modélisation AR(1)-EGARCH(1,1). . . . . 91

6.2 Fonction d’autocorrélation des résidus et des carrés des résidus des rende-
ments logarithmiques journaliers du Cac40 issus d’une modélisation AR(1)-
EGARCH(1,1). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92

6.3 Estimation de la VaR selon les méthodes historique et normale pour le CAC40. 93

6.4 Previsions de la VaR selon les méthodes AR(1)-GARCH(1,1)-Student et AR(1)-


EGARCH(1,1)-Student pour le CAC40, T = 256. . . . . . . . . . . . . . . . 94

6.5 Previsions de la VaR selon les méthodes Normale, Historique, AR(1)-GARCH(1,1)-


Student et AR(1)-EGARCH(1,1)-Student,α ∈ {0.5%, 1%, }, Indice CAC40,
T = 250. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95

6.6 Histogramme des fréquences des rendements annuels simulés par le modèle
AR(1)-EGARCH(1,1)-Student. . . . . . . . . . . . . . . . . . . . . . . . . . 99

6.7 Fonction moyenne des excès . . . . . . . . . . . . . . . . . . . . . . . . . . . 102

6.8 Distributions semi-paramétriques des résidus standardisés selon une modélisation


GP D − Kernel − GP D . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103

6.9 Distributions GP D des queues inférieures des résidus standardisés vs distri-


bution empirique. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103

6.10 Quantile empirique vs quantile normale et quantile GP D−AR(1)−EGARCH(1, 1)


pour les queues de la distribution des rendements journaliers du CAC40. . . 104
TABLE DES FIGURES 133

(1)
7.1 Trajectoires arbitraires de (pi )1≤i≤n , pour n = 600, K = 0.5 et pour différentes
valeurs de ν. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117

7.2 Représentation de la série Di de l’indice EIOPA sur la période 01/07/1991-


29/02/2016. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121

7.3 Autocorrélation et autocorrélation partielle de la série (Di )1≤i≤n de l’indice


EIOPA. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121

7.4 Représentation de la série (Vi )1≤i≤n de l’indice EIOPA pour κ = 10% avec ν
la moyenne de la série V . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122

7.5 Autocorrélation et autocorrélation partielle de la série (Vi )1≤i≤n de l’indice


EIOPA pour κ = 10%. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
(1) (2)
7.6 Séries (pi ) et (pi ), 1 ≤ i ≤ n de l’indice EIOPA pour κ = 10%. . . . . . . 123

(1) (2)
7.7 Séries Vi , (pi ) et (pi ), 1 ≤ i ≤ n de l’indice EIOPA pour κ = 10%. . . . . . 124

7.8 Fonction de répartition empirique du dampener. . . . . . . . . . . . . . . . . 125

B.1 Résidus standardisés et volatilité conditionnelle des rendements logarithmiques


journaliers du CAC40 issus d’une modélisation AR(1)-GARCH(1,1). . . . . . 141
Liste des tableaux

4.1 Matrice des corrélations des rendements journaliers. . . . . . . . . . . . . . . 67

4.2 Statistiques descriptives : cas des rendements logarithmiques journaliers. . . 70

4.3 Statistiques descriptives : cas des rendements arithmétiques annuels. . . . . . 72

4.4 VaR des rendements arithmétiques annuels selon la méthode normale. . . . . 72

4.5 Matrice des corrélations des rendements annuels. . . . . . . . . . . . . . . . . 73

5.1 Proportions investies dans chaque titre selon le critère d’optimisation Moyenne-
Variance. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77

5.2 Caractéristiques du portefeuille optimal selon le critère d’optimisation moyenne-


variance. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78

5.3 Proportions investies dans chaque titre selon le critère d’optimisation CVaR,
α = 99%. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80

5.4 Caractéristiques du portefeuille selon le critère d’optimisation CVaR α = 99%. 81

5.5 Proportions investies dans chaque titre selon le critère d’optimisation. . . . . 87

6.1 Log vraisemblance (en 103 ) des modèles estimés. . . . . . . . . . . . . . . . . 90

6.2 AIC des modèles estimés. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90

6.3 VaR paramétrique des rendements Journaliers selon les modèles I et II, m =
10000. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92

6.4 Nombre de violation de la VaR, Indice CAC40, T = 256. . . . . . . . . . . . 95

6.5 P-value des tests statistiques du Backtesting pour l’indice CAC40 pour un
risque de première espèce de 5%. . . . . . . . . . . . . . . . . . . . . . . . . 96

6.6 VaR paramétrique des rendements annuels (en %) selon le modèle AR(1)-
EGARCH(1,1)-Student. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98

134
LISTE DES TABLEAUX 135

6.7 Skewness et Kurtosis des séries de rendements annuels arithmétiques générés


selon le modèleAR(1)-EGARCH(1,1)-Student. . . . . . . . . . . . . . . . . . 98

6.8 VaR en % selon la méthode normale et historique des rendements arithmétiques


annuels pour un portefeuille uniforme. . . . . . . . . . . . . . . . . . . . . . 99

6.9 Estimation de la VaR du portefeuille des rendements modélisés par le modèle


AR(1)-EGARCH(1,1)-Student en considérant les pondérations des indices se-
lon différents critères d’optimisation de portefeuille. . . . . . . . . . . . . . . 100

6.10 VaR paramétrique des rendements annuels selon le modèle GP D − AR(1) −


EGARCH(1, 1)-Student par la méthode de simulation des résidus standar-
disés, m = 20000. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104

6.11 Estimation de la VaR du portefeuille des rendements modélisés par le modèle


GP D − AR(1) − EGARCH(1, 1)-Student en considérants la méthode de cal-
cul de la VaR d’un portefeuille variance-covariance et avec pondérations des
indices selon les poids obtenues par les différents critères d’optimisation du
portefeuille. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105

6.12 VaR(99.5%) selon la méthode normale et historique des rendements arithmétiques


annuels d’un portefeuille uniforme. . . . . . . . . . . . . . . . . . . . . . . . 109

6.13 VaR à 99.5% des rendements arithmétiques annuels selon la méthode AR(1)−
EGARCH(1, 1) − Student pour un portefeuille diversifié sur une période de
2000-2015. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110

6.14 VaR à 99.5% des rendements arithmétiques annuels selon la méthode AR(1)−
EGARCH(1, 1) − Student pour un portefeuille diversifié sur une période de
trois ans de 2013-2015. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110

6.15 VaR à 99.5% des rendements arithmétiques annuels selon la méthode GP D −


AR(1) − EGARCH(1, 1) − Student pour un portefeuille diversifié sur une
période de trois ans de 2013-2015. . . . . . . . . . . . . . . . . . . . . . . . . 111

7.1 Méthodologie d’estimation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119

7.2 EAM selon 7.17 pour κ = 10%, m = 100. . . . . . . . . . . . . . . . . . . . . 124

7.3 Moyenne ν du facteur V . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125

7.4 EAM pour le modèle A pour différentes valeurs de α, m = 100 . . . . . . . . 126

7.5 EAM pour le modèle B pour différentes valeurs de α, m = 100 . . . . . . . . 126

7.6 Logvraisemblance pour différentes valeurs de α, m = 100 . . . . . . . . . . . 127

A.1 Estimation AR(1)-EGARCH(1,1) avec innovation Student. . . . . . . . . . . 139


136 LISTE DES TABLEAUX

B.1 Estimation AR(1)-GARCH(1,1). . . . . . . . . . . . . . . . . . . . . . . . . . 140

B.2 AIC des modèles estimés. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141

B.3 MSE pour les modèles AR(1)−EGARCH(1, 1)-Student et AR(1)−GARCH(1, 1)-


Student . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142

B.4 VaR paramétrique des rendements annuels, m = 1000 . . . . . . . . . . . . . 142


LISTE DES TABLEAUX 137

.
Appendix

138
Annexe A

Estimation des paramétres du modèle


AR(1) − EGARCH(1, 1)

CAC 40 DAX AEX F T SE M IB


Cas d’innovation Student
Constante 0.00923642 0.0396057 0.0130384 0.0234804
AR(1) -0.0378215 -0.0169672 0.0117727 -0.0349025
Constante 0.00497898 0.00640213 0.000944415 0.00227692
GARCH(1) 0.982162 0.981643 0.984633 0.987861
ARCH(1) 0.0954326 0.123461 0.112425 0.112776
Leverage -0.141479 -0.126839 -0.138079 -0.10431
Dof 13.6306 11.9037 14.7975 9.83089

Table A.1 – Estimation AR(1)-EGARCH(1,1) avec innovation Student.

139
Annexe B

Estimation AR(1) − GARCH(1, 1)

Dans le tableau B.1 on donne les résultats d’estimations du modèle AR(1)-GARCH(1,1) avec
innovations Student.

CAC 40 DAX AEX F T SE M IB


Cas d’innovation Student
Offset 0.0580185 0.0828394 0.0534079 0.0551107
AR(1) -0.046697 -0.0277516 0.00631668 -0.0422178
Dof 9.80471 9.80096 9.42343 8.24378
Constante 0.0181843 0.0178576 0.0168485 0.00816141
GARCH(1) 0.908488 0.904875 0.893886 0.923489
ARCH(1) 0.084858 0.0898836 0.0998683 0.0765108

Table B.1 – Estimation AR(1)-GARCH(1,1).

On note que l’application du test Ljung-Box pour tester l’autocorrélation des résidus stan-
dardisés et du test ARCH pour tester l’hypothèse nulle d’hétéroscédasticité, permet de valider la
non autocorrélation des résidus standardisés et de confirmer leurs homoscédasticités. De ce fait, le
modèle AR(1)-GARCH(1,1) (In. Student) est valide pour la modélisation des rendements CAC40.
On note que la même démarche est faite pour les autres titres.

Dans la figure B.1, on présente les résidus standardisés et la volatilité conditionnelle de la série
des rendements obtenus selon le modèle AR(1)-GARCH(1,1).

Notons par I le modèle


AR(1) − GARCH(1, 1) − Student (I)

140
141

CAC 40 DAX AEX F T SEM IB


GARCH(1,1) (In. Student) 13626 13674 12787 13630
AR(1)-GARCH(1,1) (In. Student) 13548 13671 12787 13623

Table B.2 – AIC des modèles estimés.

5
Résidus standardisés

−5

0 500 1000 1500 2000 2500 3000 3500 4000


Date
Volatilité conditionnelle

0
0 500 1000 1500 2000 2500 3000 3500 4000
Date

Figure B.1 – Résidus standardisés et volatilité conditionnelle des rendements logarithmiques


journaliers du CAC40 issus d’une modélisation AR(1)-GARCH(1,1).

et par II le modèle
AR(1) − EGARCH(1, 1) − Student (II)
. Dans le tableau 6.3on donne les rendements journaliers des titres selon les modèles (I) et (II).

Pour tester la performance des modèlesI et II et confirmer le choix du modèle II pour la


modèlisation de la série des rendements, on calcul des mesures souvent utiliser pour comparer
le pouvoir prédictif des modèles à variance conditionnelle. Cette mesure correspond à l’erreure
quadratique moyenne (MSE) donnée par
N
1 X
2 .
N t=1 t

Selon le tableau B.3 on remarque que pour chaque titre la mesure MSE obtenues pour le modèle I
sont supérieurs à ceux obtenues pour le modèle II. Selon ce critére le modèle AR(1)-EGARCH(1,1)-
Student à un pouvoir prédictif meilleur que celui du modèle AR(1)-GARCH(1,1)-Student.

Dans le tableau B.4 on donne les résultats d’stimation des VaR à un an selon le modèle
AR(1) − GARCH(1, 1)-Student :
142 ANNEXE B. ESTIMATION AR(1) − GARCH(1, 1)

CAC 40 DAX AEX F T SEM IB


Modéle AR(1)-GARCH(1,1)-Student
MSE 2.2533 2.4061 2.1853 2.3737
Modéle AR(1)-EGARCH(1,1)-Student
MSE 2.2490 2.4021 2.1822 2.3696

Table B.3 – MSE pour les modèles AR(1) − EGARCH(1, 1)-Student et AR(1) −
GARCH(1, 1)-Student

VaR(95%) VaR(99%) VaR(99.5%)


VaR selon le modéle AR(1)-GARCH(1,1)-Student
CAC40 -20.9383 -44.4200 -48.0907
DAX -19.4897 -47.7487 -51.2720
AEX -24.8838 -49.2526 -66.1896
FTSEMIB -26.7739 -49.6518 -60.4696

Table B.4 – VaR paramétrique des rendements annuels, m = 1000


Annexe C

Estimation des paramétres


GP D − Kernel − GP D sur les résidus
standardisés

— Distribution marginale du CAC40 : estimation par morceau avec trois segments


— −Inf < x < −1.33607(0 < p < 0.1) : lower tail, GP D(−0.0471903, 0.613439).
— −1.33607 < x < 1.22832(0.1 < p < 0.9) : interpolated kernel smooth cdf.
— 1.22832 < x < Inf (0.9 < p < 1) : upper tail, GP D(−0.0848214, 0.486233).
— Distribution marginale du DAX : estimation par morceau avec trois segments
— −Inf < x < −1.34824(0 < p < 0.1) : lower tail, GP D(−0.0422854, 0.60388).
— −1.34824 < x < 1.22855(0.1 < p < 0.9) : interpolated kernel smooth cdf.
— 1.22855 < x < Inf (0.9 < p < 1) : upper tail, GP D(−0.114463, 0.512497).
— Distribution marginale du AEX : estimation par morceau avec trois segments
— −Inf < x < −1.32646(0 < p < 0.1) : lower tail, GP D(−0.135054, 0.67671).
— −1.32646 < x < 1.22795(0.1 < p < 0.9) : interpolated kernel smooth cdf.
— 1.22795 < x < Inf (0.9 < p < 1) : upper tail, GP D(−0.178113, 0.546448).
— Distribution marginale du FTSEMIB : estimation par morceau avec trois segments
— −Inf < x < −1.34375(0 < p < 0.1) : lower tail, GP D(0.0277447, 0.586613)
— −1.34375 < x < 1.19783(0.1 < p < 0.9) : interpolated kernel smooth cdf
— 1.19783 < x < Inf (0.9 < p < 1) : upper tail, GP D(−0.0506692, 0.455459)

143
Bibliographie

Abad, P. & Benito, S. (2013), ‘A detailed comparison of value at risk estimates’, Mathematics
and Computers in Simulation 94, 258–276. 33

Abad, P., Muela, S. B. & Martı́n, C. L. (2015), ‘The role of the loss function in value-at-risk
comparisons’, The Journal of Risk Model Validation 9(1), 1. 33

Alexander, C. (2008), ‘Market risk analysis, quantitative methods in finance’, (I). 101

Alexander, S., Coleman, T. F. & Li, Y. (2006), ‘Minimizing cvar and var for a portfolio of
derivatives’, Journal of Banking & Finance 30(2), 583–605. 52

Angelidis, T. & Degiannakis, S. (2007), ‘Backtesting var models : A two-stage procedure’,


Journal of Risk Model Validation 1(2), 1–22. 33

Arias, L., Arouri, M., Foulquier, P. & Gregoir, S. (2010), ‘On the suitability of the calibration
of private equity risk in the solvency ii standard formula’, Publication of the EDHEC
Financial Analysis and Accounting Research Centre. World Wide Web : www. edhec-risk.
com . 88

Artzner, P., Delbaen, F., Eber, J.-M. & Heath, D. (1999), ‘Coherent measures of risk’,
Mathematical finance 9(3), 203–228. 29, 50

Basak, S. & Shapiro, A. (2001), ‘Value-at-risk-based risk management : optimal policies and
asset prices’, Review of Financial studies 14(2), 371–405. 50

Ben Salah, H. (2015), The Management of financial assets : from Classical Approach to the
Nonparametric Modelling in the DownSide Risk Estimation in Order to Get an Optimal
Portfolio, PhD thesis, Université Claude Bernard - Lyon I. 44

Bourbonnais, R. (2015), Économétrie : Cours et exercices corrigés, Dunod. 89

Bourbonnais, R. & Terraza, M. (2008), Analyse des séries temporelles - 2ème édition, Éco
Sup, Dunod. 67, 89

Boyd, S. & Vandenberghe, L. (2004), Convex optimization, Cambridge university press. 40

Braun, A., Schmeiser, H. & Schreiber, F. (2015), ‘Solvency ii’s market risk standard formula :
How credible is the proclaimed ruin probability ?’, Journal of insurance issues pp. 1–30.
88

144
BIBLIOGRAPHIE 145

Campbell, R., Huisman, R. & Koedijk, K. (2001), ‘Optimal portfolio selection in a value-at-
risk framework’, Journal of Banking & Finance 25(9), 1789–1804. 41, 50, 51

CEIOPS (2010), ‘Ceiops’ advice for level 2 implemnting measures on solvency ii : Article
111 et 304, equity risk sub-module’. 61

Chakraborti, A., Toke, I. M., Patriarca, M. & Abergel, F. (2011), ‘Econophysics review : Ii.
agent-based models’, Quantitative Finance 11(7), 1013–1041. 27

Christoffersen, P. F. (1998), ‘Evaluating interval forecasts’, International economic review


pp. 841–862. 33

Chunhachinda, P., Dandapani, K., Hamid, S. & Prakash, A. J. (1997), ‘Portfolio selection
and skewness : Evidence from international stock markets’, Journal of Banking & Finance
21(2), 143–167. 44

EIOPA (2015), ‘Final report on public consultation no. 14/058 on the implementing technical
standards on the equity index for the symmetric adjustment of the equity capital charge’.
59

Falloul, M. E. M. (2015), ‘Calcul d’une value at risk cas d’un portefeuille diversifié [calculation
of value at risk case of a diversified portfolio]’, International Journal of Innovation and
Applied Studies 10(2), 551. 30

Gaivoronski, A. A. & Pflug, G. (1999), Finding optimal portfolios with constraints on value
at risk, in ‘Proceedings III Stockholm seminar on risk behavior and risk management’. 50

Gaivoronski, A. A. & Pflug, G. (2005), ‘Value-at-risk in portfolio optimization : properties


and computational approach’, Journal of Risk 7(2), 1–31. 51, 52

Gilli, M. et al. (2006), ‘An application of extreme value theory for measuring financial risk’,
Computational Economics 27(2-3), 207–228. 35

Gourieroux, C. (1992), Modèles ARCH et applications financières, Economica. 35

Holton, G. A. (2003), Value-at-risk : theory and practice, Vol. 2, Academic Press New York.
31

Hurlin, C. & Tokpavi, S. (2008), ‘Une évaluation des procédures de backtesting’, Finance
29(1), 53–80. 31, 33, 96

Jondeau, E. & Rockinger, M. (2006), ‘Optimal portfolio allocation under higher moments’,
European Financial Management 12(1), 29–55. 19, 44, 46, 82

Jorion, P. (2006), Value at Risk : The New Benchmark for Managing Risk, McGraw-Hill,
3nd edition. 30

Kacem, M., Loisel, S. & Maume-Deschamps, V. (2016), ‘Some mixing properties of


conditionally independent processes’, Communications in Statistics-Theory and Methods
45(5), 1241–1259. 14, 16, 116, 130
146 BIBLIOGRAPHIE

Kaura, V. (2005), Portfolio optimisation using value at risk, PhD thesis, Master’s thesis,
Imperial College London, 2005.[cited at p. 14]. 50

Kon, S. J. (1984), ‘Models of stock returns—a comparison’, The Journal of Finance


39(1), 147–165. 18

Krokhmal, P., Palmquist, J. & Uryasev, S. (2002), ‘Portfolio optimization with conditional
value-at-risk objective and constraints’, Journal of risk 4, 43–68. 50

Lai, T.-Y. (1991), ‘Portfolio selection with skewness : A multiple-objective approach’, Review
of Quantitative Finance and Accounting 1(3), 293–305. 44

Le Maistre, A. & Planchet, F. (2014), ‘A proposal of interest rate dampener for solvency ii
framework introducing a three factors mean reversion model’. 59

Levy, H. (1969), ‘A utility function depending on the first three moments’, The Journal of
Finance 24(4), 715–719. 45

Lux, T. (1996), ‘The stable paretian hypothesis and the frequency of large returns : an
examination of major german stocks’, Applied financial economics 6(6), 463–475. 45

Markowitz, H. (1952), ‘Portfolio selection’, The journal of finance 7(1), 77–91. 41

Markowitz, H. M. (1968), Portfolio selection : efficient diversification of investments, Vol. 16,


Yale university press. 41

Mausser, H. & Romanko, O. (2014), ‘Cvar proxies for minimizing scenari based value at
risk’, Journal of Industrial and Management Optimization 10(4), 1109–1127. 50

Mausser, H. & Rosen, D. (1999), Beyond var : From measuring risk to managing risk, in
‘Computational Intelligence for Financial Engineering, 1999.(CIFEr) Proceedings of the
IEEE/IAFE 1999 Conference on’, IEEE, pp. 163–178. 50

McNeil, A. J. & Frey, R. (2000), ‘Estimation of tail-related risk measures for heteroscedastic
financial time series : an extreme value approach’, Journal of empirical finance 7(3), 271–
300. 101

Mhiri, M. & Prigent, J. L. (2010), ‘International portfolio optimization with higher moments’,
International Journal of Economics and Finance 2(5), 157. 44

Mills, T. C. (1995), ‘Modelling skewness and kurtosis in the london stock exchange ft-se
index return distributions’, The Statistician pp. 323–332. 18

Mittnik, S. (2016), ‘Solvency ii calibrations : Where curiosity meets spuriosity’. 98, 111

Müller, S. M. & Machina, M. J. (1987), ‘Moment preferences and polynomial utility’, Eco-
nomics Letters 23(4), 349–353. 46

Ogryczak, W. & Ruszczyński, A. (2002), ‘Dual stochastic dominance and quantile risk mea-
sures’, International Transactions in Operational Research 9(5), 661–680. 52
BIBLIOGRAPHIE 147

Parrák, R., Seidler, J. et al. (2010), ‘Mean-variance & mean-var portfolio selection : A simu-
lation based comparison in the czech crisis environment’, Institute of Economic Studies,
Faculty of Social Sciences Charles University in Prague . 51

Peiro, A. (1999), ‘Skewness in financial returns’, Journal of Banking & Finance 23(6), 847–
862. 18

Pfeifer, D. & Strassburger, D. (2008), ‘Solvency ii : stability problems with the scr aggregation
formula’, Scandinavian actuarial journal 2008(1), 61–77. 13, 16, 88, 104

Pflug, G. C. (2000), Some remarks on the value-at-risk and the conditional value-at-risk, in
‘Probabilistic constrained optimization’, Springer, pp. 272–281. 52

Rama.Cont (2001), ‘Empirical properties of asset returns : stylized facts and statistical is-
sues’, Quantitative Finance 1(2), 223–236. 18, 27

Rockafellar, R. T. & Uryasev, S. (2000), ‘Optimization of conditional value at risk’, Journal


of risk 2, 21–42. 50, 52, 53, 78, 79

Rockafellar, R. T. & Uryasev, S. (2002), ‘Conditional value-at-risk for general loss distribu-
tions’, Journal of banking & finance 26(7), 1443–1471. 52

Sandström, A. (2007), ‘Solvency ii : Calibration for skewness’, Scandinavian Actuarial Jour-


nal 2007(2), 126–134. 13, 16, 88

Sarma, M., Thomas, S. & Shah, A. (2003), ‘Selection of value-at-risk models’, Journal of
Forecasting 22(4), 337–358. 33, 96

Sarykalin, S., Serraino, G. & Uryasev, S. (2008), ‘Value-at-risk vs. conditional value-at-
risk in risk management and optimization’, Tutorials in Operations Research. INFORMS,
Hanover, MD pp. 270–294. 50, 51

Uryasev, S. (2000), Optimization using cvar-algorithms and applications, in ‘Lecture 7 from


course ESI 6912’. 50, 51

Von Neumann, J. & Morgenstern, O. (1944), Theory of games and economic behavior, Prin-
ceton university press. 39

Wang, J. (2000), ‘Mean-variance-var based portfolio optimization’. 50, 51

Vous aimerez peut-être aussi