Vous êtes sur la page 1sur 95

Page de garde

Paul Carricano

Université Paris Dauphine

Master2 Actuariat

Promotion 2011

Modélisation de capital en assurance non-vie: impact de l’estimation de paramètre sur l’exigence de capital.

Application à deux lignes de business dépendantes

1
2
RESUME

La mise en place de la nouvelle réglementation Solvabilité II impose de nouvelles règles de


calcul pour l’exigence de marge de solvabilité des compagnies d’assurance. De plus en plus,
les sociétés d’assurance sont amenées à mettre en place un modèle interne pour modéliser
leurs cash-flows et éventuellement déterminer le montant de capital exigé par les
régulateurs.

Dans ce cadre, ce mémoire présente dans un premier temps la modélisation de capital pour
une société d’assurance non-vie et s’intéresse ensuite à l’étude de l’impact de l’estimation de
paramètres sur l’exigence de capital.

Pour cela, nous étudions deux lignes de business dépendantes, dont nous estimons les
paramètres par une approche type Maximum de vraisemblance et une approche
Bayésienne. Nous étudions l’impact de chacune de ces méthodes sur les mesures du risque
ainsi que la convergence des deux méthodes en fonction de la taille de l’échantillon de
données.

Ensuite, nous nous intéressons à la dépendance entre les deux lignes de business, on utilise
ici la théorie des copules, dont nous étudions également différentes méthodes de
paramétrisation, la méthode des moments avec le Tau de Kendall, la méthode CML ou
Canonical Maximum Likelihood et enfin la méthode Bayésienne, dont nous étudions
également la convergence en fonction de la taille de l’échantillon. Nous concluons sur un
calcul simplifié de l’exigence de capital suite à l’utilisation des différentes approches.

Mots clés : Modélisation de capital, estimation de paramètres, estimation bayésienne,


copules

3
ABSTRACT

The setting up of the new regulation Solvency II is fixing new rules of calculation for the
solvency margin requirements of insurance companies. Increasingly, insurance companies
are building internal models to simulate their cash flows and calculate the amount of capital
required by regulators.

In this framework, this dissertation describes first the capital modeling for a general
insurance company and then studies the impact of parameter estimation on capital
requirement.

To do that, we study two dependent lines of business, of which we calculate the parameters
by a maximum likelihood approach and a Bayesian approach. We study the impact of each
method on risk measures and the convergence between the two methods varying the size of
the sample of data.

Then, we look at the dependency between the lines of business, we use the copula theory, of
which we calculate the parameters by different approaches, moment’s method with the use
of Kendall’s Tau, the Canonical Maximum Likelihood method and the Bayesian approach, we
also study the convergence of these methods varying the size of the sample. We conclude
on a simplified calculation of the capital requirement considering each of these approaches.

Key words: Capital Modelling, parameter estimation, Bayesian estimation, copulas

4
NOTE DE SYNTHESE

Un peu plus d’un an avant l’arrivée de Solvabilité II, les règles d’exigence de marge évoluent.
Le calcul de l’exigence de capital se complexifie et de plus en plus d’entreprises sont
amenées à mettre en place un modèle interne pour modéliser leur charges et produits et
ainsi déterminer le montant de capital à détenir pour satisfaire la règlementation. Nous nous
plaçons ici dans le cadre d’une société d’assurance non-vie.

L’inversion du cycle de production implique que les entrées et sorties d’argent d’une
compagnie d’assurance ne sont pas connues à l’avance, la survenance des sinistres par
exemple est aléatoire et il est impossible de connaître exactement le montant des indemnités
à verser. De même, certaines entrées d’argent telle que les commissions de réassurance
dépendent de la sinistralité et ne sont pas nécessairement connues en début d’exercice.

Pour pallier à ce problème, l’entreprise d’assurance est obligée de simuler ses cash-flows
selon des distributions de probabilité au moyen d’un modèle interne. Nous travaillons ici avec
une approche de type Monte-Carlo, c'est-à-dire que nous réalisons un nombre important de
simulation des variables aléatoires afin de prendre en considération toutes les éventualités
possibles.

L’exigence de capital est déterminée à partir du résultat de l’assureur, pour modéliser ce


dernier, nous devons prendre en compte différents aspects importants d’une société
d’assurance non-vie dans notre modèle :

 Un générateur de scénario économique : il permet de simuler l’évolution des taux


d’intérêt, des rendements et volatilité des actifs ou encore de l’inflation et permet ainsi
de modéliser le rendement des actifs de la société.
 Le risque de provisionnement : il faut ici prendre en compte le coût des sinistres déjà
survenus mais qui ne sont pas complètement indemnisés, pour cela nous utilisons la
méthode du Chain Ladder.
 Le risque de souscription : il s’agit du coût des sinistres qui ne sont pas encore
survenus, mais qu’on estime pour l’exercice en cours
 Le risque marché : c’est une conséquence de l’évolution incertaine des taux d’intérêt
ou des rendements des actifs
 Le risque de crédit : c’est le risque qu’un agent qui nous doit de l’argent fasse défaut
et soit dans l’impossibilité de nous payer
 Le risque opérationnel
 La réassurance

5
Tous ces éléments sont incertains et font l’objet d’une modélisation dans un modèle interne
et permettent d’obtenir un nombre important de simulations possibles pour le résultat de
l’assureur.

Dans le cadre de la modélisation de capital, l’objectif de la société d’assurance est d’obtenir


une exigence de capital minimale, tout en respectant la réglementation, car il s’agit d’une
importante quantité d’argent immobilisée.

L’exigence de capital est déterminée en appliquant une mesure du risque sur le résultat de
l’assureur, nous utilisons ici la Value at Risk et la Tail Value at Risk.

Pour déterminer le coût de chacun de ces risques, nous utilisons des distributions de
probabilité dont les paramètres sont estimés par des méthodes statistiques.

L’objet de ce mémoire, après une présentation de la modélisation de capital et des modèles


internes, est d’étudier l’impact de l’estimation de paramètres sur l’exigence de capital. Pour
cela, nous étudions différentes méthodes de paramétrisation pour deux lignes de business
que nous traitons à la manière de sinistres attritionels, nous étudions ensuite la dépendance
entre ces deux lignes de business et plus particulièrement différentes méthodes de
paramétrisation de celle-ci.

L’étude est réalisée à partir de triangles de sinistres de l’année 2010, publiés dans le rapport
financier annuel de ACE Group.

Nous étudions dans un premier temps l’estimation des paramètres d’une distribution de
sinistre attritionnels par deux approches, l’estimation classique du maximum de
vraisemblance et l’estimation Bayésienne, et comparons l’impact de ces deux méthodes sur
les mesures du risque. Pour cela, nous réalisons tout d’abord des tests d’adéquation de loi et
utilisons ici les distributions Gamma et Log-Normale pour modéliser les sinistres. Nous
travaillons sur un échantillon de 10 Loss Ratios.

Il en ressort que l’utilisation de l’estimation Bayésienne augmente significativement la valeur


des mesures du risque, et ce, pour les deux distributions étudiées. Aussi, l’utilisation de la
distribution Gamma par rapport à la Log-Normale semble plus favorable pour l’assureur
puisqu’elle diminue sensiblement la valeur des deux mesures du risque. Nous constatons
également que dans le cas étudié, les résultats de la Value at Risk et de la Tail Value at Risk
sont très similaires.

Nous étudions également la convergence entre les deux méthodes d’estimation. Pour cela,
nous nous intéressons à l’écart relatif entre les VaR et TVaR obtenues pour chacune des
estimations, pour un échantillon de taille variable. Il en ressort que l’écart relatif entre les
deux méthodes d’estimation diminue quand la taille de l’échantillon augmente. Cependant,
pour un échantillon de taille réduite, l’estimation Bayésienne peut fortement augmenter la
valeur de l’exigence de capital.

Dans un second temps, nous continuons à travailler sur l’estimation de paramètres mais
nous travaillons cette fois sur la dépendance entre nos deux lignes de business. Pour cela,
6
nous utilisons la théorie des copules, en particulier la copule Gaussienne et la copule de
Gumbel.

Nous étudions ici trois méthodes d’estimation des paramètres des copules, la méthode des
moments avec l’utilisation du Tau de Kendall, l’estimation Canonical Maximum Likelihood
(CML) et l’estimation Bayésienne.

Il en ressort que les trois méthodes d’estimation donnent des résultats significativement
différents, alors que la méthode CML et la méthode des moments nous donne une unique
valeur pour le paramètre de la copule, l’estimation Bayésienne nous fournit toute une
distribution du paramètre de dépendance.

Nous étudions également ici la convergence des méthodes d’estimation en fonction de la


taille de l’échantillon. Il en ressort que les estimations CML et Bayésienne convergent de
manière assez régulière quand la taille de l’échantillon augmente pour les deux copules
étudiées. En revanche, quand on limite la taille de l’échantillon à 50 données d’historique, la
convergence de l’estimation par la méthode des moments avec les deux autres méthodes
est assez mauvaise.

Enfin, nous concluons cette étude en calculant l’exigence de capital pour nos deux lignes de
business, pour les différentes méthodes d’estimation de paramètre présentées ci-dessus.
Pour étudier l’impact de la méthode d’estimation sur l’exigence de capital, nous nous
intéressons à l’écart relatif obtenu pour chacune des méthodes d’estimations.

Il en ressort que le choix de la méthode d’estimation des paramètres des distributions de


sinistres à l’impact le plus important sur la l’exigence de capital, l’utilisation de l’estimation
Bayésienne peut donner une exigence presque deux fois plus grande que celle obtenue en
estimant les paramètres par maximum de vraisemblance. Ces résultats sont cependant
différents si l’on considère que nos sinistres suivent une loi Gamma ou Log-Normale

Le choix de la méthode de paramétrisation de la copule a un impact moins fort sur la VaR.


Pour les deux copules, l’estimation CML est préférable à l’utilisation du Tau de Kendall pour
l’assureur, puisqu’on obtient une exigence de capital moindre. L’estimation Bayésienne nous
permet d’obtenir une fonction de l’exigence de capital en fonction de la valeur du paramètre
de la copule, ce qui permet d’appréhender l’accroissement de l’exigence de capital en
fonction de la valeur du paramètre, et donc de la force de la dépendance entre les deux
lignes de business, l’approche Bayésienne est cependant moins directe à implémenter et
plus longue à calculer.

Il est donc montré dans ce mémoire que l’estimation de paramètre peut avoir un impact
important sur l’exigence de capital, les méthodes prenant en compte l’incertitude
paramétrique ont tendance à augmenter significativement la variabilité des distributions et
donc la valeur des mesures du risque, ce qui obligerait l’assureur à conserver un capital plus
important.

7
SUMMARY OF RESULTS

A bit more than a year before the introduction of Solvency II, the rules on margin
requirements are changing. The calculation of the capital requirement is becoming more
complicated and an increasing number of companies are implementing their own internal
model to model their profit and loss and hence calculate the amount of capital to hold to
respect the regulation. We are working here on non-life insurance frame.

The inversion of the production cycle implies that the incomes and outcomes of money are
not known initially, the claims, for example are happening randomly and it is impossible to
know exactly the amount of money necessary to cover these claims. Moreover, some
incomes like reinsurance commission also depend on claims and cannot be known in the
beginning of the accounting year.

To avoid that problem, an insurance company is obliged to simulate its cash-flows with
probability distributions. We are working here on a Monte-Carlo frame, i.e. we realize a large
number of simulations of the random variables in order to take into consideration all the
possible events.

The capital requirement is calculated from the insurance result, to model it, we need to take
into consideration different important aspects of a non-life insurance company:

 An Economic Scenario Generator: it allows the company to simulate the change in


interest rates, the return and volatility of equities, as well as the inflation, it is used to
model the return on assets of the company
 Reserving risk: it includes the cost of claims already occurred but not yet completely
paid; we use here the Chain Ladder method.
 Underwriting risk: it includes the cost of claims not yet occurred on the current
accounting year
 Market risk: it is the risk of loss because of change in interest rates of price of equities
 Credit risk: it include the cost of default form an agent indebted to the company
 Operational risk
 Reinsurance

8
All of these aspects are uncertain and are to be modeled in an internal model; this gives us a
large number of possible simulations for the insurance result

In the capital modeling frame, the goal of an insurance company is to get the smallest capital
requirement while getting regulators’ approval, because the capital is a huge amount of cash
immobilized.

Capital requirement is calculated by using risk measures on the insurance result, in this
study we use the Value at Risk and the Tail Value at Risk.

To calculate the cost of each of these risks, we use probability distributions which
parameters are estimated by statistical methods.

The goal of this dissertation, after an introduction to capital modeling and internal models, is
to study the impact of parameter estimation on capital requirement. To do that, we study
different paramétrisation methods for two attritional lines of business, we then study the
dependency between those two lines of business and more specifically different
paramétrisation method of the dependency structure.

For this study, we use the 2010 claims loss triangles , published in the financial annual report
of ACE Group.

First, we study the parameter estimation of an attritional claim distribution, we use two
different approaches, the usual maximum likelihood method and the Bayesian estimation, we
then compare the impact of these methods on risk measure. To do that, we first realize
goodness-of-fit tests and chose to work with Gamma and Log-Normal distributions for the
claims. We work here with a sample of ten Loss ratios.

We find that the use of Bayesian estimation increases significantly the value of the risk
measures, for both claims distributions. Also, the use of the Gamma distribution seems to be
better for the insurer than the Log-Normal distribution because the risk measures for the
Gamma distribution are lower than those calculated with the Log-Normal distribution. We
also find that in this study’s frame , the results for the Value at Risk and the Tail Value at Risk
are really similar.

We also study the convergence of these two estimation methods. To do that, we study the
relative difference between the VaR and TVaR calculated with both methods, when the size
of the sample varies. We find that the relative difference between these methods is
significantly decreasing when the sample size increase. However if the size of the sample is
small, the Bayesian estimation can increase consequently the capital requirement.

Secondly, we keep studying parameter estimation, but this time we focus on dependency
structures. To do that, we use copula theory and in particular the Gaussian and Gumbel
Copula.

9
We study three parameter estimation methods for the copulas, moment’s method with the
use of Kendall’s Tau, the Canonical Maximum Likelihood method (CML) and Bayesian
estimation.

We find that the results for these 3 methods are hardly the same. While CML and moment’s
method gives us a unique value for the copula parameter, Bayesian estimation gives us a
complete distribution for the dependency parameter.

We also study the convergence of estimation methods for dependency parameter by varying
the size of the sample. We find that the CML and Bayesian method are converging toward a
similar result when the size of the sample is increasing, for both copulas. However, we can’t
assess of a significant convergence between the moment’s method and the other two when
we limit the sample size to 50 data points.

We conclude this study by calculating the capital requirement for the two dependent lines of
business, considering the different parameter estimation methods introduced previously. To
study the impact of the estimation method on capital requirement, we calculate the relative
difference between each estimation method.

We find that the choice of the parameter estimation method for claims distribution has the
biggest impact on capital requirement which can nearly double when considering the
Bayesian estimation. This result differs by the claim distribution considered, Gamma or Log-
Normal.

The impact of the choice of the parameter estimation for the copula is smaller than for the
claims distribution. For both copulas, the CML method is better than Kendall’s Tau, the
capital requirement being smaller for the CML method. Bayesian estimation gives us a
function of the capital requirement for different values of the dependency parameter; hence
we can appreciate changes in the amount of capital requirement for different values of the
copula parameter.

We show here that parameter estimation can have an important impact of the capital
requirement, methods including parameter uncertainty increase significantly the variability of
the distributions; hence the value of the risk measure, which would oblige the insurers to hold
a larger capital amount.

10
SOMMAIRE

Résumé ................................................................................................................................................................... 3
Abstract ................................................................................................................................................................... 4
Note de Synthèse .................................................................................................................................................... 5
Summary of Results ................................................................................................................................................ 8
Sommaire .............................................................................................................................................................. 11
Introduction & Motivations .................................................................................................................................. 14
Partie I ................................................................................................................................................................... 15
Modélisation de capital ......................................................................................................................................... 15
I- Notion de capital d’une société d’assurance ................................................................................................ 16
II - Généralités sur les modèles Internes ....................................................................................................... 17
III - Mesures du risque ................................................................................................................................... 18
IV - Un compromis Précision/Temps de Calcul .............................................................................................. 20
V- Modèles DFA ............................................................................................................................................ 20
i- Remarque sur les générateurs de nombres aléatoires ............................................................................ 21
ii - Economic Scenario Generator (ESG) ........................................................................................................ 22
iii - Les paramètres d’input ........................................................................................................................ 23
iv - Les principaux risques d’une société d’assurance non vie .................................................................. 24
1- Risque de provisionnement ................................................................................................................. 24
2- Le risque de souscription ..................................................................................................................... 25
3- Le risque de marche ............................................................................................................................ 28
4- Le risque de crédit ............................................................................................................................... 29
5- Le risque opérationnel ......................................................................................................................... 30
6- Corrélation entre les risques ............................................................................................................... 30
v- La réassurance ......................................................................................................................................... 30
VI - Conclusions sur les modèles internes ...................................................................................................... 30
Partie II .................................................................................................................................................................. 32
Estimation de paramètres et sinistralité .............................................................................................................. 32
I- Introduction .................................................................................................................................................. 33

II - Les outils de paramétrisation ........................................................................................................................ 33

i- Le maximum de vraisemblance ............................................................................................................... 33

ii - L’approche Bayesienne ............................................................................................................................ 34

11
1- Motivations.......................................................................................................................................... 34
2- La statistique Bayésienne .................................................................................................................... 35
3- Choix d’une distribution a priori .......................................................................................................... 36
4- L’algorithme ARMS/GIBBS ................................................................................................................... 36
III - Application ............................................................................................................................................... 37
i- Présentation des données ....................................................................................................................... 37
ii - Test d’adéquation de distributions .......................................................................................................... 40
iii - Comparaison des méthodes d’estimation ........................................................................................... 42
iv - Etude de l’influence du nombre de données d’historique .................................................................. 48
IV - Conclusion ................................................................................................................................................ 54
Partie III ................................................................................................................................................................. 56
Estimation et structures de dépendance .............................................................................................................. 56
I- Introduction .................................................................................................................................................. 57
II - Résultat préliminaire ................................................................................................................................ 57
III - Théorie des copules ................................................................................................................................. 58
i- Définitions et propriétés .......................................................................................................................... 59
ii - Quelques exemples de copules ............................................................................................................... 60
1- La copule Gaussienne .......................................................................................................................... 60
2- La copule indépendante ...................................................................................................................... 61
3- Les copules Archimédiennes ............................................................................................................... 61
iii - Estimation des paramètres d’une copule ............................................................................................ 63
1- Le Tau de Kendall ................................................................................................................................. 63
2- Canonical Maximum Likelihood estimation (CML) .............................................................................. 64
3- L’approche Bayésienne ........................................................................................................................ 65
IV - Application ............................................................................................................................................... 66
V- Etude de l’influence du nombre d’années d’historique........................................................................... 69
VI - Exigence de capital................................................................................................................................... 76
VII - Conclusion ................................................................................................................................................ 81
Conclusion ............................................................................................................................................................. 82
Liste des abréviations ............................................................................................................................................ 84
Bibliographie ......................................................................................................................................................... 85
Annexes ................................................................................................................................................................. 86
i- Annexe : Estimateurs du maximum de Vraisemblance ........................................................................... 87
ii - Annexe : Etude de la régularité des données .......................................................................................... 91
iii - Annexe : Résultats de l’estimation de paramètres pour la ligne de business Non General Casualty . 93

12
13
INTRODUCTION & MOTIVATIONS

Une société d’assurance est dans l’obligation de respecter ses engagements envers ses
assurés, dans le cas d’une société d’assurance non-vie, il s’agit le plus souvent de verser
des indemnités à la suite d’un sinistre. L’inversion du cycle de production ainsi que le
caractère aléatoire de la survenance des sinistres, rendent le montant exact des indemnités
à verser inconnu pour l’assureur. Afin d’être capable de faire face à des sinistralités très
importante, les régulateurs imposent aux sociétés d’assurance de disposer d’un capital
économique important. Généralement, cette exigence de capital est sous la forme d’une
Value at Risk (VaR), et implique la nécessité de modéliser ce capital.

A l’heure de la réglementation Solvabilité II, la modélisation de capital joue un rôle


prépondérant dans les sociétés d’assurance en Europe. En effet, l’objectif de la compagnie
dans le cadre de la modélisation de capital est d’obtenir une exigence de capital minimale
tout en respectant la réglementation en vigueur. L’utilisation d’un modèle interne, au moins
partiel, avec une prise en compte des risques plus adaptée au profil de chaque compagnie
d’assurance, permet généralement de réduire l’exigence de capital disponible
comparativement aux formules standards telle que celle de Solvabilité II.

Comme nous le verrons plus en détail par la suite, cette modélisation consiste à prendre en
compte à un niveau global les coûts et revenus d’une compagnie d’assurance, même si
ceux-ci sont incertains. Il s’agit donc d’estimer les coûts des différents risques, qui est
aléatoire, on les représente donc généralement par des distributions de probabilités. Il faut
néanmoins estimer les paramètres de ces distributions, pour cela, on utilise des outils
statistiques. Cependant, les méthodes classiques d’estimations ne fournissent pas
nécessairement des résultats optimaux et nous présentons ici différentes approches
d’estimation que l’on comparera en étudiant l’impact sur l’exigence de capital.

Aussi, la dépendance entre les risques est une notion importante à considérer, différentes
structures de dépendance donnent des résultats différents, mais aussi différentes méthodes
de paramétrisation sont possibles, et ont un impact sur l’exigence de capital, que nous
étudierons dans la dernière partie de ce mémoire.

Nous verrons donc tout d’abord une présentation générale de la modélisation de capital et
les différents mécanismes des modèles internes en assurance non-vie, nous étudierons
ensuite l’impact sur l’exigence de capital de l’incertitude paramétrique sur deux séries de
données de sinistres attritionels. Enfin, nous nous pencherons sur l’étude de la dépendance
entre ces deux lignes de business, en comparant l’utilisation de différentes structures de
dépendance et différentes méthodes de paramétrisation.

L’objectif de ce mémoire est donc de présenter la modélisation de capital et d’étudier


l’importance de l’estimation des paramètres et son impact sur l’exigence de capital dans ce
cadre.
Les modèles réalisés dans le cadre de ce mémoire ont été implémentés à l’aide du logiciel
EMB Igloo.

14
PARTIE I

MODELISATION DE CAPITAL

15
I- NOTION DE CAPITAL D’UNE SOCIETE D ’ASSURANCE

L’activité d’une société d’assurance diffère des normes d’un cycle de production classique,
où l’on paye pour un service qu’on a reçu. Pour une société d’assurance, l’assuré paye une
prime avant d’avoir bénéficié du service de la société, à savoir l’indemnisation d’un ou
plusieurs sinistres pour le cas de l’assurance non vie, on parle d’inversion du cycle de
production. Ceci implique notamment que l’assureur ne connait pas le montant des
prestations qu’il sera amené à verser au court des futurs exercices, ce montant est estimé en
fonction du déroulement des exercices précédents, et le prix des primes d’assurance est
déterminé de façon à pouvoir couvrir les frais et respecter ses engagements envers les
assurés.

Cependant, la survenance des sinistres est aléatoire, et même si les années passées nous
donnent une idée du déroulement de l’année à venir, nul n’est à l’abri d’une sinistralité plus
importante ou de vastes catastrophes naturelles. Face à une sinistralité très importante, les
primes collectées, qui ont été tarifées pour une sinistralité « normale » peuvent être
insuffisantes et l’assureur peut se retrouver en difficulté, un dépôt de bilan d’une société
d’assurance pouvant signifier que des assurés victimes de sinistres ne seraient pas
indemnisés.

Pour minimiser l’éventualité d’une ruine des assureurs et donc pour protéger les assurés,
des réglementations ont été mises en place et des organismes de contrôle sont chargés de
veiller au bon respect de celles-ci. Les sociétés d’assurance sont notamment obligées de
conserver de l’argent pour respecter leurs engagements envers les assurés, les provisions
d’une part, mais aussi un capital économique, qui permet de faire face à l’éventualité où les
provisions seraient insuffisantes. Pour bien appréhender cette notion de capital, une
présentation du bilan simplifié d’une compagnie d’assurance est utile :

Illustration 1 : Bilan simplifié d’une compagnie d’assurance

On appelle capitaux propres la différence , ou


, les capitaux propres représentent la richesse accumulée par la
compagnie ainsi que le résultat de l’exercice (non distribué aux actionnaires). Le montant de
capitaux propres que doit détenir une compagnie doit être supérieur à un certain seuil, on
parle d’exigence de capital. Cette exigence de capital est calculée à l’aide d’une mesure du
risque qui est généralement la Value at Risk, et fait donc l’objet d’une modélisation.

Le capital d’une société d’assurance est une importante somme d’argent, plusieurs millions
d’euros, cet argent fait également l’objet de réglementations strictes sur la manière dont il
peut être investi, afin de limiter les risques de marché. Les organismes de régulations
16
imposent une exigence réglementaire pour cette somme d’argent afin que les compagnies
restent solvables. En Angleterre, les sociétés sont tenues de déterminer leur Individual
Capital Assessment (ICA), qui doit faire l’objet d’une modélisation aux moyens d’un modèle
interne. Sous Solvabilité 2, les entreprises seront considérées solvables si elles détiennent
un capital supérieur au Solvency Capital Requirement (SCR), qui peut être déterminé à l’aide
d’une formule standard ou d’un modèle interne. Nous nous intéresserons ici aux modèles
internes.

II - GENERALITES SUR LES MODELES INTERNES

L’International association of insurance supervisors (IAIS) donne la définition suivante d’un


modèle interne :

“Risk measurement system developed by an insurer to analyse its overall risk position, to
quantify risks and to determine the economic capital required to meet those risks”

Comme son nom l’indique, un modèle interne est mis en place au sein d’une compagnie ou
d’un groupe, afin de modéliser et mesurer au mieux les risques auxquels elle fait face. La
mise en place d’un modèle interne est un processus long et complexe, mais celui-ci devient
un outil de management financier au sein de la compagnie d’assurance, il peut servir
plusieurs buts :

 Déterminer le montant de capital requis


 L’allocation stratégique d’actif
 Mesurer les performances de la compagnie
 Prendre des décisions de tarification
 Mettre en place des nouveaux produits
 Analyser des stratégies de marché
 Analyser des stratégies de réassurance

Bien sûr, pour répondre à ces questions, il faut garder à l’esprit les objectifs principaux de la
compagnie d’assurance, qui sont généralement de maximiser les dividendes envers les
actionnaires tout en respectant ses engagements envers ses assurés.

Dans le cadre de la modélisation de capital, l’utilisation d’un modèle interne permet


généralement de réduire l’exigence de capital par rapport à une formule standard (comme
celle de Solvabilité 2). Le capital économique étant une quantité importante d’argent
immobilisé, les entreprises d’assurance ont tout intérêt à mettre en place un modèle interne
pour diminuer le montant exigé.

Cependant, à cause du coût important en main d’œuvre et en ressources informatiques,


beaucoup d’entreprise d’assurance ne peuvent pas mettre en place un tel modèle. Un bon
compromis entre modèle interne et formule standard est pour les compagnies d’utiliser un
modèle interne partiel, permettant de modéliser au mieux les risques spécifiques à la société
et d’utiliser la formule standard pour les éléments qu’elle ne souhaite pas modéliser.
17
Il y a quelques années, on modélisait le capital par l’approche ‘’scenario testing’’, qui
consistait à étudier les résultats de la compagnie selon des scenarii déterministes et
réalistes. Les résultats donnés par un scenario ne sont valables que pour ce scenario, donc
cette approche n’est pas idéale, il est en effet peu probable qu’un des scenarii testés soit
précisément le reflet de la réalité.

De nos jours, l’amélioration des ressources informatiques et des techniques de simulation


permet une nouvelle approche, l’approche par simulations stochastiques, aussi connue sous
le nom de Dynamic Financial Analysis (DFA). Il s’agit de générer un nombre important de
simulations des variables aléatoires utilisées dans le modèle interne, et ainsi obtenir toute
une distribution de probabilité des variables qui nous importent, permettant de mieux prendre
en compte les différents aléas. Nous verrons les mécanismes des modèles DFA plus en
détail par la suite.

III - MESURES DU RISQUE

Soit X une variable aléatoire qui représente une position financière, on appelle mesure du
risque une fonction telle que quantifie le risque de X.
Il existe un nombre important de mesures du risque, dans le cadre de ce mémoire, nous
nous intéresserons à la Value at Risk, mesure du risque employée dans la plupart des
compagnies et des réglementations, ainsi qu’à la Tail Value at Risk (TVaR), qui est une
mesure du risque qui a l’avantage de vérifier la propriété de cohérence :

Définition : Mesure du risque cohérente

Une fonction est une mesure cohérente du risque si pour tout , elle
satisfait les quatre conditions suivantes :

 Monotonie : Si alors
 Invariance monétaire : ,
 Homogénéité positive : ,
 Sous additivité :

Remarque :

Dans la littérature, on peut trouver différentes définitions pour les mesures du risque. On
trouve notamment des divergences au niveau de la monotonie et de l’invariance monétaire,
cependant dans le contexte assurantiel du capital, cette définition me parait plus adaptée.
Par exemple, l’invariance monétaire peut être interprétée pour le capital requis par l’ajout
d’une position financière sans risque m qui n’ajoute pas de risque supplémentaire.

18
Définition : Value at Risk

La Value at Risk, notée VaR, est définie par :

{ |

Où X est une distribution de probabilité, FX est sa fonction de répartition, et  est appelé le


seuil, ou le niveau de la VaR, dans le cadre de la modélisation de capital,  vaut
généralement 99% ou 99,5%.

Ainsi, si X est une distribution de charge de sinistre, la VaR représente une limite, que notre
charge de sinistre n’atteindra ou ne dépassera qu’avec une probabilité  . Pour le capital,
l’idée est la même, on souhaite déterminer un montant de capital à détenir pour être capable
de faire face à une situation dont la probabilité d’occurrence vaut  ou moins et ainsi éviter
la ruine de la compagnie.

Il faut noter que la Value at Risk n’est pas une mesure du risque cohérente, elle ne vérifie
pas la propriété de sous additivité.

Remarque :

Si la distribution de est continue et inversible alors on à :

Où est l’inverse de la fonction de répartition de X et est le quantile de niveau de la


distribution .

Définition : Tail Value at Risk

La Tail Value at Risk, notée TVaR, est une mesure du risque cohérente définie par :

[ |

La Tail Value at Risk représente donc la perte moyenne au-delà de la Value at Risk de
niveau  (on suppose ici qu’on s’intéresse à la queue de distribution à droite).

Réglementairement, pour l’ICA comme pour le SCR, seule une Value at Risk est exigée, les
compagnies d’assurance se contentent donc généralement de celle-ci, même si son
utilisation est contestable, notamment par le fait que l’hypothèse de sous additivité n’est pas
systématiquement vérifiée. En effet, cette hypothèse, pour une compagnie d’assurance,
signifie que diversification de l’activité, donc de ses risques, ne doit pas augmenter le capital
requis.

19
L’utilisation de la TVaR serait peut-être préférable, mais celle-ci est plus difficile à calculer,
ne donne pas exactement la même information que la VaR, n’est pas exigée par les
organismes de régulation, et est plus exigeante au niveau des ressources informatiques. Elle
est donc rarement utilisée en pratique. Son étude reste cependant intéressante, pour des
considérations de réassurance par exemple.

IV - UN COMPROMIS PRECISION/TEMPS DE CALCUL

La modélisation de capital est un processus lourd en ressources informatiques. En effet,


l’utilisation de méthodes de type Monte Carlo, qui consiste à effectuer un nombre important
de simulations des variables aléatoire pour obtenir des distributions de probabilités, et le
nombre très important de paramètres à prendre en considération rend la modélisation
complète très longue.

Ce temps d’exécution important, le devient d’autant plus, si l’on souhaite améliorer la


précision des résultats, en effet, dans un approche de type Monte Carlo, une précision
accrue signifie généralement un nombre de simulation plus important (il existe également
des méthodes de réduction de variance qui permettent d’améliorer la précision ou de
diminuer le temps de calcul dans la méthode de Monte Carlo, mais elles ne seront pas
traitées ici).

Pour 10 000 simulations, en supposant que celles-ci sont bien réparties sur l’intervalle de
définition, le calcul d’une TvaR à 99,5% correspond à une moyenne entre les 500 plus
grandes valeurs de l’échantillon de simulations étudié, une moyenne sur 500 valeurs peut
sembler insuffisante au niveau de la précision de l’estimation, notamment si l’échantillon est
composé de valeurs extrêmes, d’où la nécessité d’un grand nombre de simulation.

Bien sûr un nombre trop important de simulations devient techniquement impossible car le
temps d’exécution serait excessif. En pratique, on travaille généralement avec un nombre de
simulation restreint pour s’assurer que le modèle tourne correctement, et on l’augmente
significativement lorsque l’on souhaite étudier les résultats.

De plus, cette optimisation du temps de calcul est d’autant plus importante, que les
organismes de régulation demandent fréquemment des rapports sur l’évolution du capital
requis des compagnies d’assurance, nécessitant un important travail de collecte de données
en amont, ainsi qu’une utilisation importante des systèmes de modélisation de capital.

Dans ce cadre, nous allons maintenant voir plus en détail les modèles internes de type DFA,
afin de mieux appréhender les différentes étapes de la modélisation de capital.

V- MODELES DFA
20
Les modèles DFA représentent une bonne alternative à l’approche de modélisation par
scenarii, en effet, ces modèles consistent en une approche par simulations stochastiques de
type Monte Carlo. Des milliers de scénarii sont générés de manière aléatoire, permettant
ainsi d’étudier toute la distribution des variables désirées, par exemple le résultat de
l’exercice, brut ou net de réassurance, ou le Loss ratio1. Beaucoup de paramètres sont à
prendre en considération dans la construction d’un modèle DFA, nous les verrons un peu
plus en détail par la suite. Voici un schéma simplifié de la structure d’un modèle DFA :

Remarque : ESG signifie Economic Scenario Generator, et est décrit dans la partie (ii)

i- REMARQUE SUR LES GENERATEURS DE NOMBRES ALEATOIRES

Par définition des modèles DFA, une génération correcte de nombres aléatoires est
indispensable. Il existe deux grandes familles de générateur de nombres aléatoires :

 Les générateurs quasi-aléatoires, dis à discrépance faible, où la discrépance


est un outil qui permet de juger l’équirépartition multidimensionnelle d’une
suite. A titre d’exemple, l’algorithme du Tore est un générateur de nombre
quasi-aléatoire

1
On rappelle que le loss ratio est le ratio sinistres/primes, sont également considérés les loss ratios brut/net de
réassurance et le ratio combiné, incluant ou non les frais.
21
 Les générateurs pseudo-aléatoires, où la génération de nombres aléatoires
est basée sur un algorithme déterministe. Le générateur utilisé dans la suite
de ce mémoire est un générateur pseudo-aléatoire, le générateur de
Mersenne Twister.

En pratique, ces générateurs permettent de réaliser des simulations d’une loi uniforme sur
l’intervalle [0;1], les autres distributions de probabilités sont ensuite simulées par inversion
de leur fonction de répartition. En effet, si [ alors suit une loi de
fonction de répartition F. L’inversion de F n’étant pas toujours possible par une formule
fermée, il existe également des méthodes numériques (e.g. Box Müller).

ii - ECONOMIC SCENARIO GENERATOR (ESG)

Un générateur de scenarii économiques a pour but de modéliser le comportement des


marchés financiers. L’ESG est donc très important pour la modélisation de capital puisque le
résultat de l’assureur dépend directement de l’évolution de ses actifs, mais aussi des taux
d’intérêts. De même, l’évolution du taux d’inflation aura aussi une importance non
négligeable sur les passifs de l’assureur, puisque le règlement des sinistres prend
généralement plusieurs années.

L’ESG a donc pour but de modéliser plusieurs variables économiques importantes :

 Les taux d’intérêts


 L’inflation
 Les taux de change
 Les rendements des actions
 Les rendements des obligations

Il faut également prendre en compte la corrélation entre ces variables, qui est souvent
importante, par exemple entre les taux d’intérêts et l’inflation.

Il existe plusieurs moyens de modéliser ces variables, nous traiterons ici brièvement le cas
important des taux d’intérêts.

Modélisation des taux d’intérêts :

Il existe plusieurs modèles qui s’intéressent aux taux d’intérêts et qui fait l’objet de recherche
depuis longtemps, nous ne mentionnerons ici que deux exemples, premièrement le modèle
de Vasicek introduit en 1977, où le taux court est défini par :

22
Où est le taux d’intérêt en t, W est un mouvement brownien sous la probabilité risque
neutre, b est le niveau moyen à long terme, a est la vitesse de retour à la moyenne et est
la volatilité instantanée.

Un autre modèle de taux d’intérêt fréquemment utilisé est le modèle de Cox, Ingersoll, Roll,
ou modèle CIR, introduit en 1985 et encore utilisé aujourd’hui, où le taux court est également
modélisé par une équation différentielle stochastique :

( ) √

Où a, b, r, W et sont définis comme précédemment.

Pour plus d’informations sur le sujet, le lecteur intéressé peut se référer à la littérature sur le
sujet, pour les modèles CIR, nous avons par exemple : Forward-Backward SDEs and the
CIR model,Cody Blaine Hyndman.

iii - LES PARAMETRES D’INPUT

Comme mentionné précédemment, il y a beaucoup de paramètres à prendre en


considération lors de la création d’un modèle interne, et en dresser une liste exhaustive
n’aurait aucun sens, d’autant plus que ces paramètres varient d’un modèle à un autre.
Cependant, il peut être intéressant de discuter de certains paramètres importants, afin de
mieux considérer la mise en place d’un modèle interne.

Un paramètre important à prendre en compte est le nombre d’années de projection, pour le


provisionnement, le paiement des sinistres, mais aussi pour les actifs, qui dans le cadre
d’une bonne gestion actif/passif doit correspondre au mieux aux cash flows des passifs. Le
choix d’une période de projection trop courte ne montrerait pas de résultats utilisables pour
une stratégie à long terme et une période trop longue implique une réduction de la précision
avec des erreurs de paramètres qui peuvent devenir trop importantes. Une période de
projection entre 5 et 10 ans en assurance non-vie est généralement envisageable.

Les paramètres d’input servent à effectuer ensuite les simulations, il faut donc bien entendu
connaître les paramètres et les distributions de nos branches d’activité, pour la sinistralité
(underwriting risk) comme pour le provisionnement (reserving risk).Il faut déterminer la limite
entre sinistres attritionnels et larges, car les sinistres attritionnels sont généralement traités
de manière globale alors que les sinistres larges seront traités par l’approche coût-
fréquence, ce qui mène bien entendu à différentes distributions et paramètres.

Il faut aussi choisir comment décomposer ses branches d’activité, pour un grand groupe, la
question peut se poser par exemple de traiter les sinistres de la branche Accident&Health
(A&H) comme un tout, ou de séparer A&H – France, A&H – UK, etc… ce genre de décision,
notamment la granularité des branches d’activités, aura un impact important sur le temps
d’exécution du modèle. Une telle décomposition aura aussi un impact sur la corrélation entre
les branches d’activité, autre paramètre important d’un modèle interne. Le choix d’une telle
23
décomposition peut être motivé par les traités de réassurance, qu’il faut bien sûr prendre en
considération dans la modélisation, si par exemple la branche A&H – France n’est pas
réassurée à la même hauteur que la branche A&H – UK.

Nous allons maintenant voir les principaux risques pris en compte au sein d’un modèle
interne, et comment ils sont modélisés.

iv - LES PRINCIPAUX RISQUES D’UNE SOCIETE D ’ASSURANCE NON VIE

Une société d’assurance fait face à de nombreux risques, d’une importante sinistralité à une
erreur humaine, en passant par le potentiel défaut d’un réassureur. Nous ne traiterons ici
que les principaux risques d’un assureur non-vie, c’est-à-dire ceux qui ont l’impact le plus
important sur l’exigence de capital.

1- RISQUE DE PROVISIONNEMENT

Aussi appelé Reserving Risk, c’est le risque lié à un mauvais provisionnement des
prestations restantes à payer sur les sinistres. Concrètement, les sinistres sont payés sur
plusieurs années, hors les normes comptables sont telles que les sociétés font leurs
comptes sur un exercice d’un an. Les assureurs sont donc dans l’obligation d’établir des
provisions sur les sinistres à payer ainsi que sur les sinistres dits tardif, qui sont survenus à
l’exercice N mais déclarés pendant l’exercice N+ K, K>0.

De par leur spécificités, certaines lignes de business ont des sinistres qui sont indemnisés
rapidement, on parle de branche à déroulement court, et d’autres, comme le dommage aux
personnes où les des complications peuvent apparaître des années après le sinistre, sont
dites à déroulement long.

Pour quantifier le montant de ces provisions, il existe plusieurs méthodes, et la plus


classique est celle du Chain Ladder, décrite ci-dessous :

Méthode Chain Ladder :

La méthode du Chain Ladder utilise les paiements cumulé des sinistres des années
antérieures qu’on notera où i désigne l’année de survenance et j l’exercice de
déroulement, si l’on considère une seule ligne de business, les paiements des sinistres sont
de la forme :

24
Illustration 3 : Méthode Chain-Ladder

Où ̂ est une estimation du paiement cumulé en j des sinistres survenus en i. et les


coefficients multiplicateurs sont déterminés par la formule :


̂

Cette méthode, simple et intuitive, présente l’inconvénient d’être déterministe, en effet, les
montants cumulés des paiements des années précédentes sont connus et fixes, ainsi les
coefficients multiplicateurs le sont aussi, et les provisions à l’ultime le deviennent aussi. Il
existe cependant des méthodes de provisionnement plus élaborées qui prennent en compte
le caractère aléatoire des provisions de sinistres et les possibles erreurs de paramètre, le
lecteur intéressé pourra se référer aux nombreux articles dans la littérature sur les méthodes
GLM (Generalized Linear Model), ou la méthode de Mack.

2- LE RISQUE DE SOUSCRIPTION

Aussi appelé Underwriting risk, il s’agit du risque de pertes dues à la sinistralité et d’une
mauvaise estimation de celle-ci. La sinistralité de l’année à venir est estimée en fonction des
données connues des années passées. En pratique, on étudie les données passées et on
cherche une distribution de probabilité qui reproduit le mieux les sinistres enregistrés jusque-
là. Les montants des sinistres utilisés pour l’estimation des paramètres d’une distribution
sont traités comme s’ils étaient indépendants. Comme précisé précédemment, les sinistres
attritionnels et larges ne sont pas traités de la même façon.
25
Dans les deux cas, il est nécessaire de récolter les données des coûts des sinistres des
années passées, de les rendre comparables, c’est-à-dire prendre en compte l’inflation d’une
année sur l’autre, l’évolution du nombre de contrats, ou du montant globale des primes. Pour
le cas des sinistres attritionnels, une fois nos données traitées, on estime la moyenne et le
coefficient de variation (CoV) de nos données, généralement par une simple méthode des
moments. On rappelle que le CoV est défini par :

Où est la moyenne et est l’écart-type de l’échantillon.

Définition : Moyenne empirique


Pour un échantillon de données , la moyenne empirique de l’échantillon notée ̅
est un estimateur de , elle est définie par :

̅ ∑

Définition : Variance empirique


Pour un échantillon de données , la variance empirique de l’échantillon notée
est un estimateur de , elle est définie par :

∑ ̅

On privilégie parfois la version sans biais2 de cet estimateur :

∑ ̅

Une fois que la moyenne et le CoV sont connus, on choisit plusieurs distributions que l’on
estime adaptées et on détermine la valeur de leur paramètre à l’aide d’un maximum de
vraisemblance. Il faut ensuite déterminer quelle distribution décrit au mieux l’échantillon de
données, pour cela on utilise des tests d’adéquation de loi, comme le test d’Anderson-
Darling ou le test de Kolmogorov-Smirnov défini ci-dessous :

Définition : Test de Kolmogorov-Smirnov

Soit un n-échantillon d’une loi inconnue P. Soit une loi connue fixée. On
cherche à tester l’hypothèse

Un estimateur est sans biais quand [ ̂]


2

26
Les données sont distribuées selon la loi
Contre
: Les données ne sont pas distribuées selon la loi

Statistique de test : On mesure l’adéquation de la fonction de répartition empirique à la


fonction , la fonction de répartition correspondant à la loi , par la distance de
Kolmogorov-Smirnov, qui est la distance de la norme uniforme entre fonctions de répartition
aux points 3, i.e :

( ̂) ,| | | |-

On rejettera l’hypothèse si la distance entre ̂ et est grande, donc si ( ̂)


dépasse un certain seuil 4.

On utilise aussi des méthodes graphiques pour déterminer l’adéquation de distribution, par la
suite nous utiliserons la méthode du QQ-Plot :

Définition : QQ-Plot :

QQ-Plot signifie Quantile-Quantile Plot, c’est une méthode de comparaison graphique entre
deux distributions (ou échantillons). Les quantiles de même niveau des deux distributions
sont comparés deux à deux. Le résultat est donc une courbe sur l’intervalle [ , si les
deux distributions/échantillons sont identiquement distribuées alors la courbe quantile-
quantile aura l’allure de la droite y=x, signifiant que les quantiles de même niveau sont égaux
(ou suffisamment proches) deux à deux.

Illustration 4 : Exemple de QQ-Plot

Pour les sinistres attritionnels, le coût des sinistres de toute la branche d’activité est
généralement défini par une distribution Log-Normale. Les distributions Gamma et Normale
sont parfois utilisées. Bien sûr, comme on parle de coût des sinistres, une distribution dont

3
On rappelle que ( ) est l’échantillon ordonné
4
On prend généralement
27
les valeurs sont uniquement positives est plus adaptée, ce qui n’est pas le cas de la loi
Normale.

Pour les sinistres larges, on utilise l’approche coût-fréquence, c'est-à-dire qu’on modélise le
nombre de sinistres et leur coût séparément, les distributions de fréquence les plus utilisées
sont les lois de Poisson, Binomiale et Binomiale Négative. Un simple critère de choix pour
ces distributions est la comparaison de l’espérance et de la variance, en effet on a :

 Loi Binomiale : [ [
 Loi Poisson : [ [
 Loi Binomiale Négative : [ [

Ce critère de sélection est très simple, de plus le cas où [ [ n’arrive quasiment


jamais en pratique, pourtant la loi de Poisson est probablement la plus utilisée, car elle est
très simple à paramétrer, grâce à son unique paramètre qui est estimé par la moyenne
empirique du nombre de sinistres.

Le critère de sélection de la loi de fréquence est assez qualitatif, et consiste principalement à


décider si l’écart entre la moyenne et la variance de nos données est suffisant pour
privilégier l’utilisation d’une loi binomiale ou binomiale négative à une loi de Poisson, il existe
des tests statistiques dits « d’overdispersion » pour ce genre de problématique (voir par
exemple le test de Böhning).

Pour la distribution du coût des sinistres dans le cas des sinistres larges, on utilise des
distribution de probabilité dont la queue de distribution à droite est plus large, c’est-à-dire
une distribution dont la probabilité d’obtenir des valeurs extrêmes est plus importante. On
utilise par exemple la loi de Pareto, la loi de Pareto généralisée (GPD) ou la loi GEV
(generalized extreme value distribution).

3- LE RISQUE DE MARCHE

Le risque de marché est le risque de pertes liées aux fluctuations du prix ou de la volatilité du
prix de marché des actifs et des passifs. Il existe un très vaste nombre de produits financier,
qui fluctuent pour diverses raisons, ainsi le risque de marché est une notion assez large,
pour préciser, voici trois risques de marchés auxquels sont sensibles les sociétés
d’assurance :

 Le risque de taux : les primes des assurés sont principalement investies dans
des obligations, une hausse des taux se traduit par une baisse du prix des
obligations et un risque de liquidité, alors qu’une baisse des taux entraîne une
hausse du prix des obligations et un risque de réinvestissement.

28
 Le risque de variation du prix et de la volatilité des actions : une partie non
négligeable des primes est investie en actions, une baisse du rendement des
actions peut produire une diminution de l’actif de la société d’assurance.

 Le risque de change : il s’agit du risque lié à l’évolution des taux de change,


en effet, il est possible de choisir d’investir dans des actions ou obligations
vendu dans une autre monnaie que celle de la compagnie, celle-ci s’expose
alors aux fluctuations des taux de change.

Il est important de noter que pour limiter le risque de marché et protéger les assurés, la
réglementation impose des règles strictes concernant l’investissement des primes des
assurés, les assureurs sont par exemple obligés d’investir la majeure partie des primes dans
des obligations, ils doivent aussi respecter des règles de congruence.

Aussi, le risque de marché est plus important pour les sociétés d’assurance vie, car les
durations des passifs sont plus longues (contrats d’épargne, retraites,…), alors qu’en
assurance non-vie, la plupart des contrats ne durent qu’un an.

4- LE RISQUE DE CREDIT

Le risque de crédit, aussi appelé risque de défaut, est le risque qu’un agent possédant
l’argent qui nous est dû fasse défaut et se retrouve incapable de nous payer. Par exemple si
on achète une obligation d’entreprise, et que celle-ci fait un dépôt de bilan.

En assurance, il est important de prendre en compte le risque de crédit envers les


réassureurs, en effet, une compagnie d’assurance verse une prime de réassurance à un
réassureur et en contrepartie, celui-ci s’engage à rembourser une partie des sinistres sous
certaines conditions. Si le réassureur fait défaut et ne peut pas payer la cédante5, cette
dernière est tout de même dans l’obligation d’indemniser ses assurés. En pratique, ce risque
est limité par le choix de réassureurs fiables, mais de très gros sinistres comme les attentats
du 11 septembre ou la tempête Katrina, peuvent changer la donne. Un autre moyen de
limiter le risque de crédit envers les réassureurs est de se réassurer en interne, c’est une
pratique courante au sein des grands groupes et elle présente d’autres avantages
(défiscalisation, transfert de capital,…).

Le risque de crédit pour un assureur existe aussi envers les courtiers, qui sont chargés de
réunir assureur et client, et qui au court de la transaction reçoivent la prime du client qu’ils
sont chargés de remettre, net de commission, à l’assureur.

Pour quantifier le risque de crédit, on utilise les ratings des agences de notations, ainsi que
la matrice de transition d’un rating à un autre.

5
i.e l’assureur cédant sa prime au réassureur
29
5- LE RISQUE OPERATIONNEL

Le risque opérationnel est le risque d’une perte lié à une erreur de procédure, une erreur
humaine ou informatique ou tout autre évènement interne. Ce risque est certainement le plus
difficile à quantifier, car non seulement les données sont peu nombreuses, mais le montant
de la perte causée par une erreur opérationnelle est difficile à estimer. La modélisation du
risque opérationnel fait partie des risques à prendre en compte dans la réforme Solvabilité 2.
Pour plus d’informations sur le sujet les lecteurs intéressés pourront se référer à la littérature
sur le sujet6.

6- CORRELATION ENTRE LES RISQUES

Il est important de noter que ces différents risques sont corrélés entre eux, et cette
corrélation a un impact important dans la modélisation de capital.

Aussi, il y a une deuxième dimension de dépendance à prendre en compte, il s’agit de la


dépendance entre ligne de business, l’étude de la dépendance entre lignes de business fait
l’objet de la 3ème partie de ce mémoire.

v- LA REASSURANCE

La réassurance est l’assurance des assureurs, ceux-ci cèdent une partie de leurs primes et
les réassureurs garantissent une prise en charge d’une partie des sinistres en contrepartie.

La réassurance peut être interne ou externe, proportionnelle ou non proportionnelle, c’est un


mécanisme omniprésent dans le monde de l’assurance et qui a un important impact sur le
résultat et le loss ratio des assureurs ainsi que sur l’exigence de capital, elle fait donc bien
sûr l’objet d’une modélisation dans un modèle interne.

Les mécanismes de la réassurance ne seront pas détaillés ici par soucis de concision, mais
il existe de nombreux ouvrages sur le sujet dans la littérature.

VI - CONCLUSIONS SUR LES MODELES INTERNES

6
Par exemple le mémoire de Julie Gamonet, Modélisation du risque opérationnel dans l’assurance
30
Un modèle interne est un outil puissant qui simule le fonctionnement d’une compagnie
d’assurance, les informations qui en ressortent, telles que les Loss ratios bruts et nets de
réassurance, le ratio combiné, les informations relatives à chaque ligne de business, le
montant de l’exigence de capital et la part de chaque risque dans ce dernier, permettent de
prendre des décisions stratégique sur l’évolution d’une compagnie d’assurance.

Cependant, il est important de garder à l’esprit que derrière chacun de ces chiffres, il y a des
méthodes d’estimation statistique, qui permettent de déterminer des paramètres sur lesquels
seront basées les simulations du modèle.

La seconde partie de ce mémoire a pour but de comparer deux méthodes d’estimation


différentes pour les distributions de sinistres et d’étudier leur impact sur les mesures du
risque.

31
PARTIE II

ESTIMATION DE PARAMETRES ET
SINISTRALITE

32
I - INTRODUCTION
Comme mentionné précédemment, l’estimation des paramètres est un élément déterminant
de la modélisation de capital, une erreur de paramétrisation peut avoir des répercussions
importantes sur l’exigence de capital. L’objet de cette partie est d’étudier les mécanismes
habituels de paramétrisation, et des comparer leurs résultats avec ceux d’une seconde
approche, l’approche bayésienne.

Pour cela, nous présenterons dans un premier temps les mécanismes et outils nécessaires
pour effectuer cette paramétrisation. Ensuite, nous appliquerons la théorie à la pratique,
avec un exemple de données de sinistres attritionnels. Pour comparer les résultats des deux
méthodes, nous travaillerons avec les deux mesures du risque présentées précédemment,
la Value at Risk et la Tail Value at Risk.

II - LES OUTILS DE PARAMETRISATION

i- LE MAXIMUM DE VRAISEMBLANCE

Soit une variable aléatoire réelle de fonction de répartition dont on veut estimer le
paramètre , on note la fonction de densité de . On appelle vraisemblance de au vu
des observations d’un n-échantillon indépendamment et identiquement distribué
selon la loi la fonction :

On s’intéresse au maximum de cette vraisemblance, où les probabilités des réalisations


observées sont également maximales. Pour les distributions qui nous intéressent, on peut
déterminer ce maximum en calculant le point où la dérivée de la vraisemblance vaut 0, on
obtient alors un estimateur ̂ de .

Il est également classique de travailler sur la log-vraisemblance pour faciliter les calculs, i.e :

( ) ∑

Le logarithme étant une fonction strictement croissante, le maximum de vraisemblance n’est


pas modifié.

En pratique, on choisit dans un premier temps les distributions qui pourraient convenir à
notre échantillon, on détermine la valeur de l’estimateur du (ou des) paramètre(s) à l’aide du
maximum de vraisemblance, puis on choisit la distribution qui convient le mieux à l’aide de
tests statistiques tel que le test de Kolmogorov présenté précédemment.

33
Lorsque la résolution analytique de n’est pas possible par une
formule fermée, on a recours à des méthodes numériques pour déterminer la valeur du (des)
paramètre(s), la méthode de Newton-Raphson ou la méthode BFGS (Broyden-Fletcehr-
Goldfarb-Shanno) sont des méthodes numériques courantes et efficaces.

Proprieté aymptotique de l’estimateur du maximum de vraisemblance :

Un estimateur de maximum de vraisemblance est asymptotiquement sans biais, de


distribution Normale et de variance minimale, i.e :

Soit les paramètres d’une distribution, pour un échantillon de taille


n, on a la propriété suivante :

√ ̂ →

Où est la matrice d’information de Fisher, définie par :

0 ( )| 1

Avec la log-vraisemblance de l’échantillon.

Cette propriété est intéressante car elle montre que l’EMV suit asymptotiquement une
distribution Normale, et nous permet donc de prendre en considération toute l’incertitude
autour de l’estimation du paramètre. En pratique cette propriété est peu mise en application,
car la matrice d’information de Fisher n’est pas toujours simple à déterminer. On se contente
généralement de la valeur de l’EMV pour estimer .

ii - L’APPROCHE BAYESIENNE

1- MOTIVATIONS

L’estimateur d’un paramètre d’une distribution est une variable aléatoire. L’utilisation de
méthodes telles que le maximum de vraisemblance nous donne pour un échantillon une
unique valeur estimée de ce paramètre. Or, cette valeur est rarement égale au vrai
paramètre de notre distribution, en effet, en prenant deux échantillons différents (et finis)
simulés par une même distribution, l’estimateur du maximum de vraisemblance (EMV) de
chacun des échantillons sera généralement différent. Il y a donc une erreur d’estimation au
niveau du paramètre, celle-ci peut être d’autant plus importante si la taille de l’échantillon est
réduite, ce qui est souvent le cas en pratique.

34
L’utilisation de la méthode Bayésienne permet d’obtenir toute la distribution des paramètres
étudiés. Cette méthode rend nos simulations plus variables et les quantiles de niveau élevé
sont généralement plus grands que ceux obtenus par un EMV classique.

Pour estimer les paramètres puis simuler une distribution par l’approche Bayésienne, il faut
d’abord réaliser un grand nombre de simulations pour obtenir une distribution des
paramètres, et ensuite il faut pour chaque point de la distribution de ces paramètres simuler
la distribution de notre ligne de business (par exemple). Par conséquent, cette méthode est
beaucoup plus couteuse en ressources qu’un EMV classique.

Les méthodes prenant en compte l’incertitude paramétrique sont déjà utilisées en assurance,
principalement en provisionnement où la méthode du Chain Ladder, déterministe, n’est pas
forcément suffisante. Les méthodes de Mack ou GLM (Generalized Linear Model) permettent
de prendre en compte cette incertitude paramétrique. Cependant, ce type de méthode est
rarement utilisé pour la paramétrisation des distributions de sinistre ou des structures de
dépendance, cette dernière fera l’objet de la 3ème partie de ce mémoire.

2- LA STATISTIQUE BAYESIENNE

La fondation de l’estimation Bayésienne est le théorème de Bayes. Supposons qu’on


observe une variable aléatoire X, et qu’on veut faire de l’inférence sur une autre variable
aléatoire , où suit une distribution .
Par définition de la probabilité conditionnelle on a :

Aussi, on peut écrire : |

On obtient alors :
|
|

On appelle la distribution a priori du paramètre et | la distribution a posteriori


de sachant l’échantillon X.

Quand la distribution de X est continue on peut également écrire :

|
|
∫ |

Ici, les données, représentées par | sont définies par la vraisemblance de


l’échantillon. Le dénominateur peut être considéré comme une constante de normalisation
ainsi on obtient :
35
Soit :

L’influence du choix de la distribution a priori sur la distribution a posteriori nous donne une
indication sur la qualité d’information contenue dans l’échantillon de données
Si la distribution a posteriori est très dépendante du choix de la distribution a priori, alors il y
a de fortes chances que les données apportent peu d’information. Au contraire, si la
distribution a posteriori est peu influencée par le choix de la distribution a priori, les données
sont probablement très informatives.

Quand il n’est pas possible de déterminer complètement la distribution a posteriori, on peut


utiliser les estimateurs suivants, appelés respectivement estimateur du maximum a posteriori
et estimateur de Bayes :

̂ [ | ou ̂ |

Cependant, il est généralement possible d’obtenir la distribution a posteriori par simulation


en utilisant l’échantillonnage de Gibbs (présenté par la suite).

3- CHOIX D’UNE DISTRIBUTION A PRIORI

Le choix d’une distribution a priori est bien entendu important, puisqu’il influence la
distribution a posteriori. Même s’il est vrai qu’avec un échantillon de données suffisamment
informatif, le choix de la distribution a priori a peu d’importance, ce n’est pas toujours le cas
en pratique. La distribution a priori d’un paramètre inconnu peut être assimilable à un avis
d’expert ou l’expérience. En l’absence d’avis d’expert, on privilégiera une distribution dite non
informative, à savoir une distribution uniforme, ce choix est justifié par le fait que nous
n’avons aucune raison de privilégier, a priori, une distribution à une autre pour notre
paramètre et ainsi on considère que toute l’information sur le paramètre est donnée par
l’échantillon de données.

Dans le cas où l’on choisit une distribution a priori non informative, ce qui sera notre cas par
la suite, on observe le résultat suivant :

| |

Le choix d’une distribution a priori et son impact sur la qualité de l’estimation n’est pas l’objet
de cette étude, par la suite nous travaillerons avec une distribution a priori non informative.

4- L’ALGORITHME ARMS/GIBBS

36
ARMS signifie Adaptive Rejection Metropolis Sampling, c’est une méthode numérique qui
permet de réaliser un échantillon pour toute densité . Pour présenter cette méthode,
commençons par étudier le Rejection Sampling :

Définition : Rejection Sampling

Le Rejection Sampling est une méthode pour simuler un échantillon de distribution , pour
cela, on utilise une fonction et une constante tel que pour tout x appartenant au domaine
de définition de , ,on appelle l’enveloppe, on applique l’algorithme
suivant :

1. On simule une réalisation y de g et w d’une distribution Uniforme [0 ;1]


2. Si alors on accepte y, sinon, on rejette y
3. Répéter jusqu'à ce que n points soient acceptés

L’Adaptive Rejection Sampling utilise le même principe, seulement à chaque réalisation


l’enveloppe est modifiée pour épouser de mieux en mieux la densité de , ce qui permet de
réduire le nombre de simulations. Pour que cet algorithme fonctionne, doit être log-
concave.

L’Adaptive Metropolis Rejection Sampling est une généralisation de l’ARS, puisqu’il est
utilisable pour toute les densités, pas seulement les log-concaves.

Définition : GIBBS Sampling :

L’échantillonnage de Gibbs est un algorithme de simulation dont on définit une fonction


objectif , dans notre cas la log vraisemblance, il utilise les densités conditionnelles
de . Soit les données initiales, soit un vecteur aléatoire de
paramètres, on simule les densités conditionnelles, | ( |
) que l’on résout par ARMS, où .

III - APPLICATION

i- PRESENTATION DES DONNEES

Pour étudier la paramétrisation d’une série de données de sinistres, nous allons étudier les
triangles de sinistre publiés en 2010 par ACE, en particulier, nous travaillerons sur deux
triangles, concernant les lignes de business « Insurance Overseas General Casualty7 » et
« Insurance Overseas General Non-Casualty8 », ces données seront étudiées à la manière

7
Regroupe notamment les sinistres de type : General Liability, professional liability, automobile, aviation,
marine and political Risk.
8
Regroupe notamment les sinistres de type : fire, construction, energy exposure.
37
de sinistres attritionnels en travaillant sur des Loss Ratios et l’utilisation de deux lignes de
business permettra d’étudier dans la dernière partie de ce mémoire la dépendance entre
celles-ci.

Ces données représentent une agrégation de plusieurs lignes de business, et comportent


donc des sinistres larges et attritionnels, il peut donc être contestable de les étudier en tant
que sinistres attritionnels.

Nous vérifions donc en annexe que les données sont régulières et qu’elles ne présentent
pas de « sauts » dus à des sinistres larges ou catastrophiques, leur régularité et le fait de
travailler sur des Loss ratio n’aura ainsi pas un impact important sur la qualité de l’estimation
des paramètres des distributions de sinistres.

Ces données sont disponibles sur le site Internet de Ace Europe.

Avant toute transformation, les données étudiées sont les suivantes :

Insurance Overseas General Casualty As of 12/31/10


Paid Loss + Paid ALAE Triangle In $US thousands

Accident Age in months


Year 12 24 36 48 60 72 84 96 108 120
2001 312 468 520 515 623 891 735 898 786 882 828 961 897 239 914 550 937 671 973 172
2002 202 220 408 759 511 941 600 788 666 335 728 633 759 066 776 580 794 690
2003 192 592 347 444 428 073 499 018 570 967 622 428 659 837 695 045
2004 178 009 373 649 464 140 532 318 576 888 617 089 638 917
2005 199 120 377 395 495 887 589 613 651 813 731 038
2006 233 847 436 369 570 448 650 579 721 273
2007 245 190 492 533 647 511 772 320
2008 256 884 511 997 634 021
2009 267 542 523 624
2010 275 492

Ci-dessus est le triangle de paiement des sinistres des années 2001 à 2010 pour la ligne de
business Overseas General Casualty, Overseas signifiant dans ce cas principalement les
marchés Européens et Asiatiques. Avec ce triangle, on a l’assiette de primes suivante (en
milliers de Dollars également) :

38
Net Earned Prem ium

Accident
Year NEP
2001 1 320 052
2002 1 554 300
2003 1 730 028
2004 1 868 962
2005 1 959 267
2006 1 983 600
2007 1 858 292
2008 1 919 275
2009 1 874 608
2010 1 910 465

Les données de la deuxième ligne de business sont les suivantes :

Insurance Overseas General Non-Casualty As of 12/31/10


Paid Loss + Paid ALAE Triangle In $US thousands Net Earned Prem ium

Accident Age in months Accident


Year 12 24 36 48 60 72 84 96 108 120 Year NEP
2001 159 590 388 132 460 403 484 230 497 474 503 937 500 677 507 405 508 165 507 360 2001 678 886
2002 179 876 368 027 445 214 464 507 467 794 471 237 473 023 470 835 473 697 2002 870 016
2003 152 773 378 355 463 226 493 805 510 797 513 077 521 026 522 431 2003 1 245 235
2004 203 510 459 195 539 382 568 683 585 062 592 495 599 220 2004 1 345 421
2005 203 764 496 211 629 659 692 069 716 582 721 361 2005 1 268 038
2006 164 180 365 707 441 698 466 117 477 927 2006 1 216 999
2007 195 857 434 248 532 037 563 247 2007 1 209 883
2008 219 925 486 339 568 033 2008 1 225 760
2009 192 340 425 464 2009 1 216 608
2010 257 103 2010 1 297 551

Pour traiter ces données, il faut prendre en compte plusieurs éléments, tout d’abord, pour
qu’elles soient comparables d’une année sur l’autre, il faut prendre en considération la taille
de l’assiette de prime chaque année. En effet, le coût des sinistres d’une année à l’autre
n’est comparable que si le montant des primes l’est également. Pour cela, nous travaillerons
par la suite sur les Loss ratio de chaque année (nous nous intéresserons dans cette partie
qu’à une seule ligne de business, car le traitement de la seconde est rigoureusement
similaire, les résultats de la seconde ligne de business sont donnés en annexe). Aussi, si l’on
suppose un taux d’inflation constant, il n’est pas nécessaire d’ajuster davantage ces
données9.

9
L’inflation a déjà été prise en considération ici, comme l’atteste cette note :
« Changes in inflation rates distort any reserve analysis based on loss triangles. If expected future inflation is
lower (higher) than historical inflation rates, needed reserves may be overstated (understated) as a result,
and appropriate adjustments should be made. If inflation rates are stable over time, no adjustment may be
required. » Source : Ace Limited 2010 Global Loss Triangles (Disponible sur le site internet de ACE Group)
39
Enfin, pour étudier les charges à l’ultime des sinistres, nous effectuons un traitement des
triangles par la méthode Chain Ladder, les résultats finaux, pour la ligne de business
« Overseas General Casualty » sont présentés ci-dessous :

Insurance Overseas General Casualty As of 12/31/10


Paid Loss + Paid ALAE Triangle In $US thousands

Accident Age in months


Year 12 24 36 48 60 72 84 96 108 120 Ultimate
2001 312 468 520 515 623 891 735 898 786 882 828 961 897 239 914 550 937 671 973 172 973 172
2002 202 220 408 759 511 941 600 788 666 335 728 633 759 066 776 580 794 690 824 778 824 778
2003 192 592 347 444 428 073 499 018 570 967 622 428 659 837 695 045 711 990 738 947 738 947
2004 178 009 373 649 464 140 532 318 576 888 617 089 638 917 658 236 674 284 699 814 699 814
2005 199 120 377 395 495 887 589 613 651 813 731 038 772 319 795 671 815 070 845 930 845 930
2006 233 847 436 369 570 448 650 579 721 273 782 308 826 484 851 474 872 233 905 258 905 258
2007 245 190 492 533 647 511 772 320 850 648 922 632 974 731 1 004 204 1 028 687 1 067 635 1 067 635
2008 256 884 511 997 634 021 742 232 817 509 886 687 936 757 965 082 988 611 1 026 041 1 026 041
2009 267 542 523 624 660 581 773 325 851 755 923 832 975 999 1 005 510 1 030 025 1 069 023 1 069 023
2010 275 492 526 776 664 558 777 981 856 883 929 394 981 875 1 011 564 1 036 226 1 075 460 1 075 460

L’assiette de prime reste quant à elle inchangée.

Au final, nous obtenons la série de Loss Ratio suivante :

2001 2002 2003 2004 2005 2006 2007 2008 2009 2010
74% 53% 43% 37% 43% 46% 57% 53% 57% 56%

La moyenne empirique et l’écart type de l’échantillon sont :

Moyenne Empirique 52%


Ecart-type Empirique 10%

ii - TEST D’ADEQUATION DE DISTRIBUTIONS

Il s’agit maintenant, d’étudier cette série de Loss Ratios, et notamment de déterminer quelles
distributions sont les plus adaptées pour modéliser cette série. Pour cela, il faut avant tout
choisir les distributions que l’on souhaite tester, nous choisissons ici des distributions
classiques de la modélisation des sinistres :

 Distribution Normale
 Distribution Log-Normale
 Distribution Gamma

40
 Distribution Exponentielle

Pour faire un choix parmi ces distributions, nous utilisons plusieurs méthodes présentées
précédemment, à savoir les tests d’hypothèse ainsi que d’autres méthodes graphiques.

Nous utiliserons les tests d’hypothèse suivant :

 Test de Kolmogorov-Smirnov
 Test d’Anderson-Darling

Ainsi que la méthode graphique du QQ-Plot.

Nous effectuons donc la paramétrisation de chacune de ces lois en utilisant la méthode du


maximum de vraisemblance.

Nous obtenons ainsi les estimations suivantes pour les paramètres de chacune des
distributions :

Distribution Parametres Valeurs


mu -0,671
Log-Normale
sigma 0,185
mu 0,520
Normale
sigma 0,098
Alpha 29,055
Gamma
Beta 0,018
Exponentielle Lambda 0,520

Pour choisir la loi qui convient le mieux à cette série, nous utilisons les méthodes citées ci-
dessus, on obtient les résultats suivants :

Distribution KS Test P-Value AD Test P-Value


Log-Normale 84,53% 91,43%
Normale 80,25% 87,39%
Gamma 88,36% 90,86%
Exponentielle 0,57% 2,44%

Ainsi que les graphes des QQ-Plots :

41
Graphique 1 : Graphique 2 :
QQ-Plot pour la distribution Log-Normale QQ-Plot pour la distribution Normale

Graphique 3 : Graphique 4 :
QQ-Plot pour la distribution Gamma QQ-Plot pour la distribution Exponentielle

A première vue, pour les tests d’hypothèse comme pour les QQ-Plots, la distribution
exponentielle ne convient pas, nous ne l’utiliserons donc pas dans la suite de notre étude.
Ensuite, entre les lois Normales, Log-Normales et Gamma, le choix est plus difficile, la loi
Gamma est la meilleure concernant les tests d’hypothèse, mais ceux-ci ne permettent pas
d’affirmer avec certitude que la loi Gamma est la seule qui convient. De plus, les QQ-Plot de
ces trois distributions se valent.

Pour la suite de l’étude, on travaillera avec les lois Gamma et Log-Normale, ce choix est
motivé par le fait qu’une loi Normale peut prendre des valeurs négatives, ce qui est à exclure
dans le cas des Loss Ratios, de plus, même si la loi Gamma est privilégiée par les tests
d’hypothèse, la distribution Log-Normale est la plus souvent utilisée en pratique, nous
conserverons donc les deux, et cela nous permettra de comparer les résultats pour la suite
de l’étude.

iii - COMPARAISON DES METHODES D’ESTIMATION

La méthode du maximum de vraisemblance, couplée aux moments de la série des Loss


Ratios, nous donne les paramètres suivants pour l’estimation des paramètres :

42
Estimation Classique
mu sigma
Log Normale
-0,671 0,185
Alpha Beta
Gamma
29,055 0,018

Pour simuler les paramètres avec l’approche Bayésienne, avec une distribution a priori
uniforme, nous faisons le calcul suivant :

On note les paramètres des distributions et la série de données

( | )

Où est la Vraisemblance de l’échantillon.

Pour la distribution Gamma10 , on obtient, pour :

( ) ∏


Ainsi ( ) ∏

On ne reconnait aucune distribution classique, on ne peut donc pas déterminer directement


la distribution des paramètres, on doit donc utiliser l’algorithme d’ARMS/GIBBS pour trouver
la distribution de chacun des paramètres, pour cela, on a besoin de la log-vraisemblance.

En passant au logarithme, on obtient pour la vraisemblance :

( ) ( ) ∑ ∑

Et ainsi :

( ( | )) ( ) ∑ ∑

En appliquant ARMS/GIBBS, on obtient les distributions suivantes pour et :

10
On rappelle que ∫
43
Graphique 5 : Distribution de par l’approche Bayésienne

Graphique 6 : Distribution de par l’approche Bayésienne

Quelques statistiques sur nos paramètres :

ALPHA BETA
Moyenne 27,428 Moyenne 0,023
Ecart-type 11,678 Ecart-type 0,010
Min 7,560 Min 0,006
Max 80,737 Max 0,050
Quantile a 0,5% 10,242 Quantile a 0,5% 0,008
Quantile a 1% 10,694 Quantile a 1% 0,008
Quantile a 5% 12,601 Quantile a 5% 0,010
Quantile a 95% 49,764 Quantile a 95% 0,042
Quantile a 99% 63,075 Quantile a 99% 0,048
Quantile a 99,5% 67,862 Quantile a 99,5% 0,049

Remarques :

 L’algorithme de Gibbs étant assez coûteux en ressources informatiques, on ne


travaille qu’avec 100000 simulations, ceci devrait rester suffisant pour effectuer les
mesures de risque voulues.
 Les valeurs en ordonnées des graphiques sont des fréquences, sur une base de
100 000 simulations également.

44
L’estimation classique des paramètres de la distribution Gamma nous donnait les valeurs
Alpha = 29,01 et Beta = 0,018, comme on peut le voir sur les graphiques, ces valeurs
correspondent à des zones de la courbe où la densité est élevée, seulement, on constate
que l’aspect aléatoire d’un estimateur est bien mieux pris en considération dans l’approche
Bayésienne. Les statistiques de chacun des paramètres nous montrent que le niveau moyen
des paramètres estimés ci-dessus est sensiblement différent des valeurs obtenues par EMV,
cette différence est due à l’asymétrie des distributions de chacun des paramètres.

Pour étudier l’impact sur le capital de cette seconde approche, étudions l’évolution des Loss
Ratios après simulation et application de la VaR et TVaR. Pour cela, on simule donc 100 000
valeurs de la distribution Gamma avec les paramètres obtenus par le maximum de
vraisemblance. Pour l’approche Bayésienne, on simule pour chaque couple ( ) une loi
Gamma.

On choisit pour le niveau de la VaR 99,5% qui est le niveau réglementaire et le plus utilisé,
pour choisir le niveau de la TVaR, on fait en sorte que le résultat obtenu par celle-ci soit le
plus proche possible (aussi proche que nous permettent un nombre fini de simulations) de la
valeur de la VaR pour l’estimation par EMV. Pour la loi Gamma, on fait donc une TVaR à
98,50%

On obtient les résultats suivants pour le Loss Ratio de notre ligne de business :

Mesure du risque Estimation Classique Estimation Bayesienne


VaR 80,20% 89,79%
TVaR 80,19% 88,88%

On constate tout d’abord qu’on observe un écart proche de 10% pour la VaR comme pour la
TVaR selon la méthode d’estimation utilisée, l’estimation Bayésienne augmente donc
sensiblement la valeur des mesures du risque. Aussi, on remarque que les résultats de la
TVaR sont légèrement meilleurs que ceux de la VaR. Dans les deux cas, ce résultat peut
avoir un impact important sur l’exigence de capital d’un assureur. Nous nous intéresserons
davantage à cet impact à la fin de ce mémoire.

Afin de confirmer ces résultats, étudions maintenant l’impact sur le Loss Ratio de différentes
méthodes d’estimations, si ceux-ci suivent une distribution Log-Normale.

Pour la distribution Log-Normale, la distribution à posteriori est de la forme on pose


:

( )
( | ) ( ) ∏

∑( )
( | )
( √ ) ∏
45
Ici encore, on ne reconnait pas de distribution connue pour la distribution à posteriori. Il faut
donc utiliser une nouvelle fois l’algorithme d’ARSM/GIBBS pour déterminer la loi des
paramètres et . On a pour ça besoin de la log-vraisemblance :

( ) ∑. / √ ∑

Et ainsi :

( ( | )) ∑. / √ ∑

Suite à l’application de l’algorithme de GIBBS avec 100 000 simulations, on trouve comme
distributions pour et :

Graphique 7 : Distribution de par l’approche Bayésienne

Graphique 8 : Distribution de par l’approche Bayésienne


46
Quelques statistiques sur nos paramètres :

MU SIGMA
Moyenne -0,671 Moyenne 0,304
Ecart-type 0,096 Ecart-type 0,069
Min -0,996 Min 0,127
Max -0,346 Max 0,488
Quantile a 0,5% -0,859 Quantile a 0,5% 0,125
Quantile a 1% -0,839 Quantile a 1% 0,130
Quantile a 5% -0,785 Quantile a 5% 0,148
Quantile a 95% -0,512 Quantile a 95% 0,434
Quantile a 99% -0,436 Quantile a 99% 0,474
Quantile a 99,5% -0,410 Quantile a 99,5% 0,481

Par l’approche classique, on avait trouvé ̂ et ̂ , on constate ici aussi que


ces valeurs correspondent aux niveaux où la courbe de densité est élevée, de plus pour ,
les résultats sont égaux (au moins jusqu’à une précision ), ceci s’explique par le fait que
la distribution semble symétrique en son point de densité le plus élevé (i.e. le maximum de
vraisemblance) qui vaut -0,671.

Au niveau de leur moyenne, les résultats obtenus par EMV et par l’approche Bayésienne
sont assez proches, par conséquent, cette seconde approche semble tout à fait légitime pour
estimer les paramètres d’une distribution.

On s’intéresse maintenant aux résultats de ces deux approches sur la valeur du Loss Ratio
après une Value at Risk et une Tail Value at Risk. Pour la distribution Log-Normale, le niveau
de la TVaR est fixé à 98,52%. On obtient les résultats suivants :

Mesure du risque Estimation Classique Estimation Bayesienne


VaR 82,35% 98,13%
TVaR 82,35% 97,32%

On constate tout d’abord qu’on trouve des résultats similaires à ceux de la loi Gamma, dans
le sens où le Loss Ratio obtenu par l’approche Bayésienne est bien supérieur à celui obtenu
par l’approche classique.

Les résultats suite à l’estimation classique sont cependant différents, on trouvait une Value
at Risk de 80,2% pour la loi Gamma contre 82,4% pour la loi Log-Normale, la queue de
distribution de la loi Log-Normale semble donc plus épaisse que celle de la loi Gamma, et
l’impact sur la VaR s’en ressent. On retrouve ces mêmes résultats sur l’approche
Bayésienne, qui augmente la variabilité des résultats et donc augmente les valeurs
extrêmes, impactant ainsi les VaR et TVaR.

47
Pour cette même raison, l’écart entre les deux approches est pour la distribution Log-
Normale beaucoup plus important, en effet, on avait environ 14% d’écart pour la loi Gamma
contre plus de 26% pour la loi Log-Normale.

Aussi, il est intéressant de constater que pour les deux distributions, on observe
. Cet exemple à lui seul me semble cependant insuffisant pour conclure ici, il pourrait
être intéressant de vérifier cette observation sur d’autres échantillons avant d’en tirer des
conclusions, le nombre de simulations peut aussi avoir son importance ici.

Ces mêmes résultats pour la deuxième ligne de Business sont donnés en annexe.

On a donc constaté que le choix de la distribution à un impact non négligeable sur la valeur
des mesures du risque. Aussi, l’impact du choix de la méthode d’estimation est tout autant
important. Dans cet exemple précis, le choix d’une distribution Gamma plutôt que Log-
Normale réduit significativement la valeur de la VaR, et donc éventuellement de l’exigence
de capital.

L’incertitude qui réside dans l’estimation de paramètre est principalement due à la quantité
d’information disponible. Pour vérifier ceci, nous allons maintenant étudier l’influence du
nombre de données d’historique.

iv - ETUDE DE L’INFLUENCE DU NOMBRE DE DONNEES D’HISTORIQUE

L’objet est ici de mesurer l’incertitude paramétrique en faisant varier le nombre d’années
d’historique. Pour cela, nous commençons par ajouter un 11ème Loss ratio, que l’on simule à
partir d’une distribution Log-Normale11 (-0,671 ; 0,185), qui sont les paramètres obtenus
précédemment par maximum de vraisemblance.

Compte tenu des propriétés asymptotiques de l’EMV, on peut s’attendre à ce que


l’incertitude liée à cette estimation diminue quand la taille de l’échantillon de données
augmente, puisque les paramètres obtenus par EMV se comportent asymptotiquement
comme une distribution normale.

Nous allons donc vérifier ceci pour nos deux distributions, en s’intéressant à l’écart des VaRs
et TVaRs obtenus par estimation classique et estimation Bayésienne.

Pour la suite de l’étude, nous utiliserons donc comme mesure de l’incertitude l’écart relatif
de la value at risk (respectivement TVaR) du Loss ratio estimé par les deux méthodes
présentées précédemment :

| |

Notre nouvelle séries de données avec 11 données est maintenant :

11
Le choix entre une distribution Gamma ou Log-Normale est ici arbitraire
48
2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 2011
74% 53% 43% 37% 43% 46% 57% 53% 57% 56% 58%

Pour rester consistant avec les résultats précédents, nous allons utiliser les mêmes
distributions que précédemment, à titre informatif, voici le résultat des tests d’hypothèse pour
ce nouvel échantillon.

Distribution KS Test P-Value AD Test P-Value


Log-Normal 74,10% 85,40%
Normal 79,12% 84,59%
Gamma 80,35% 85,95%
Exponential 0,36% 1,61%

Les mesures du risque sur le Loss ratio obtenues suite à l’estimation des paramètres sont
les suivantes :

Distribution Mesure du risque Estimation Classique Estimation Bayesienne


VaR 82,35% 96,52%
Log-Normal
TVaR 82,35% 96,78%
VaR 80,14% 88,48%
Gamma
TVaR 80,13% 88,32%

On observe donc les écarts relatifs suivants :

Distribution Mesure du risque Ecart relatif 10 données Ecart relatif 11 données


VaR 19,16% 17,20%
Log-Normal
TVaR 18,18% 17,52%
VaR 11,96% 10,41%
Gamma
TVaR 10,84% 10,23%

On constate sur ce dernier tableau que l’écart relatif pour chacune des mesures du risque a
diminué entre l’estimation de l’échantillon à 10 données et l’échantillon à 11 données. Ce
résultat peut s’interpréter par le fait que l’estimation est plus précise quand le nombre de
données augmente, par conséquent l’incertitude paramétrique diminue.

Les Loss ratios obtenus par l’estimation bayésienne sont ici tous plus grands que ceux
obtenus par estimation classique. Ceux-ci vont donc amener à une exigence de capital plus
importante, ce qui n’est pas l’objectif d’une société d’assurance.

Cependant, au regard d’une telle différence de résultat entre les deux estimations, on peut
se demander si le risque de sinistralité n’est pas sous-estimé dans les sociétés d’assurance.
49
Les sociétés d’assurance n’ont pas intérêt à utiliser cette méthode de leur propre gré,
cependant si les régulateurs estimait qu’il est nécessaire de mieux prendre en compte
l’incertitude paramétrique, les assureurs seraient dans l’obligation d’utiliser de telles
méthodes, c’est déjà le cas en provisionnement où les assureurs doivent prendre en compte
cette incertitude en utilisant des méthodes telles que celle de Mack.

Pour approfondir cette étude, nous allons étudier maintenant ce même écart relatif de
manière plus théorique, nous allons simuler un échantillon de 50 Loss ratios simulé par une
distribution Log-Normale(-0,671 ; 0,185), qui sont les paramètres estimés sur la série initiale,
et nous allons étudier l’écart relatif entre les deux estimations pour chaque taille d’échantillon
de 2 à 50.

La série de Loss ratio étudiés est la suivante :

Graphique 9 : Echantillon de 50 Loss Ratios

Pour mieux appréhender cet échantillon, quelques statistiques de la distribution Log-


Normale(-0.671,0.185) sont aussi intéressantes (réalisées sur 1 000 000 simulations) :

Distribution Log-Normale(-0.671,0.185)
Moyenne 51,99%
Ecart-type 9,71%
Min 19,77%
Max 135,49%
Quantile a 0,5% 31,74%
Quantile a 1% 33,22%
Quantile a 5% 37,70%
Quantile a 95% 69,30%
Quantile a 99% 78,61%
Quantile a 99,5% 82,37%

Ainsi que la fonction de densité :

50
Graphique 10 : Densité de la distribution Log-Normale (-0,671 ; 0,185)

Au vu de ces statistiques, on constate que le 24ème Loss Ratio est une valeur extrême de
cette distribution, puisque sa valeur est bien au-delà du quantile à 99,5%, nous verrons par
la suite si cela influe sur notre mesure d’incertitude.

Nous considérons toujours les deux distributions précédentes Gamma et Log-Normale pour
étudier nos deux mesures du risque, la distribution Log-Normale est bien sûr la plus adaptée
puisque l’échantillon a été généré à partir de celle-ci, cependant, comparer les résultats avec
une deuxième distribution permet de montrer une certaine consistance dans ceux-ci, nous
pourrons aussi voir si nous retrouvons des résultats similaires à ceux vu précédemment.

Pour chaque échantillon , { , nous ré-estimons de la même manière


que précédemment les paramètres d’une distribution Log-Normale et Gamma avec les
méthode EMV et Bayésienne, puis nous simulons 100 000 simulations à partir de ces
paramètres et calculons les et correspondantes.

Nous obtenons pour les VaR des Loss ratios:

0.
Graphique 11 : Value at Risk en fonction de la taille de l’échantillon
51
Et pour les TVaR :

Graphique 12 : Tail Value at Risk en fonction de la taille de l’échantillon

On constate, tout d’abord que les résultats sont comparables pour les deux mesures du
risque. Aussi, on remarque que les résultats des deux mesures du risque, pour les deux
distributions convergent assez lentement vers un Loss Ratio proche de 80%, sachant que le
quantile à 99,5% de notre distribution vaut 82,37%. Cette convergence aurait pu être plus
rapide mais la valeur extrême obtenue pour le 24ème point de l’échantillon fait varier fortement
les mesures du risque. En pratique, il peut être préférable de ne pas prendre en compte
cette valeur pour l’estimation des paramètres. La variation des mesures du risque aurait pu
être beaucoup plus importante si les premières données de notre échantillon avaient été un
peu plus extrêmes. Ici, les 13 premières valeurs de l’échantillon sont relativement proches de
la moyenne, on observe donc peu de variation avant le 14ème point de l’échantillon.

De plus, on constate que les résultats des deux distributions pour l’estimation par EMV sont
très similaires, et que les résultats obtenus par estimation Bayésienne sont bien plus
variables lorsque la taille de l’échantillon est réduite (inférieure à 10).

Aussi, il faut garder à l’esprit que nous utilisons une distribution a priori non informative, et
qu’ainsi toute l’information sur les paramètres est données par l’échantillon de données, pour
approfondir cette étude, il peut être intéressant d’étudier l’impact du choix de la distribution a
priori sur ces mêmes résultats, par défaut d’information, nous ne pouvons le faire ici.

Précédemment, on avait vu que l’estimation Bayésienne rendait les distributions plus


variables et avait tendance à augmenter les valeurs extrêmes de celles-ci. Cette hypothèse
est confirmée par les graphiques ci-dessus où l’estimation Bayésienne est en tout point au-
dessus de l’estimation classique.

52
Aussi, intéressons-nous à l’écart relatif entre les deux méthodes d’estimation:

Graphique 13 : Graphique 14 :
Ecart relatif de la VaR Gamma (en rouge) Ecart relatif de la TVaR Gamma (en rouge)
contre la VaR Log-Normale (en bleu) contre la TVaR Log-Normale (en bleu)

Graphique 15 : Graphique 16 :
Ecart relatif de la VaR (en bleu) contre la Ecart relatif de la VaR (en bleu) contre la
TVaR (en rouge) pour la loi Log-Normale TVaR (en rouge) pour la distribution Gamma

Les deux premiers graphes mettent bien en avant le fait que la distribution Log-Normale est
plus sensible à l’utilisation de l’estimation Bayésienne. Pour la loi Gamma, il faut ici 25
données dans l’échantillon pour que l’écart relatif entre les deux méthodes soit inférieur à
5%, pour la loi Log-Normale, il faut 10 données de plus. Quant aux deux graphes suivants,
ils nous permettent de constater que les résultats pour la VaR et TVaR sont très similaires.

Nous n’avons ici travaillé qu’avec une seule simulation de Loss Ratios, pour confirmer ces
résultats, nous répétons les estimations et le calcul des mesures du risque pour 20

53
simulations, et présentons la moyenne des écarts relatifs en fonction de la taille de
l’échantillon. On obtient les résultats suivants :

70%
60%
50%
VaR Log Normale
40%
TVaR Log Normale
30%
VaR Gamma
20%
TVaR Gamma
10%
0%
0 10 20 30 40 50 60

Graphique 17 : Moyenne sur 20 simulations des écarts relatifs des mesures du risques
obtenues par estimation EMV et Bayésienne en fonction de la taille de l’échantillon

Ce graphe montre bien que les deux méthodes d’estimation convergent quand la taille de
l’échantillon augmente, de plus il confirme le fait que la distribution Log-Normale est plus
sensible à l’utilisation de l’approche Bayésienne dans notre cas car l’impact sur la (T)VaR est
bien plus important que pour la distribution Gamma, surtout quand la taille de l’échantillon
est réduite.

Aussi, ce dernier graphe confirme à quel point les résultats d’une mesure du risque à l’autre
sont similaires, on peut en déduire que pour des sinistres attritionnels, le choix d’une mesure
du risque entre VaR et TVaR donne des résultats similaires. En théorie la TVaR est
préférable car c’est une mesure du risque cohérente, en pratique la VaR est plus simple à
implémenter et plus rapide à calculer. Compte tenu de la similitude des résultats entre les
deux mesures du risque, nous ne travaillerons qu’avec la Value at Risk dans la suite de cette
étude.

IV - CONCLUSION

Nous avons vu ici que la manière d’estimer les paramètres d’une distribution peut avoir un
impact important sur le calcul de la Value at Risk ou de la Tail Value at Risk. Parce que
l’estimation classique ne nous donne qu’une valeur fixe pour chacun des paramètres, on
peut se poser la question de savoir si on ne sous-estime pas le risque. Au contraire, on peut
considérer que l’approche Bayésienne rend la distribution trop variable et gonfle le niveau
des valeurs extrêmes.

Le choix de la distribution est aussi important, en effet, si initialement deux distributions


semble bien convenir à notre échantillon de données, le choix de l’une ou l’autre à un impact
important sur le niveau de la (T)VaR, et ce, pour chacune des deux estimations utilisées. En
effet, le choix d’une distribution Gamma plutôt que Log-Normale pour notre échantillon

54
diminue significativement la valeur des mesures du risque étudiées ici, et par conséquent,
l’exigence de capital.

Aussi, nous avons vu que dans le cas de données de sinistres attritionnels, le choix de la
mesure du risque entre VaR et TVaR n’a pas un impact significatif sur les résultats, il pourrait
être intéressant d’étudier cette observation dans le cas de sinistres larges ou
catastrophiques.

Par extension, l’exigence de capital pour cette ligne de business sera également différente
selon la méthode d’estimation. Bien entendu, le problème du calcul de l’exigence de capital
se pose à un niveau plus global pour toute la compagnie d’assurance, il faut prendre en
compte chacune des lignes de business ainsi que la dépendance entre celles-ci. L’étude de
la paramétrisation pour les structures de dépendance fait l’objet de la dernière partie de ce
mémoire, où nous verrons comment différentes méthodes d’estimation ont un impact sur les
VaR et TVaR, pour conclure sur l’impact sur l’exigence de capital.

55
PARTIE III

ESTIMATION ET STRUCTURES DE
DEPENDANCE

56
I - INTRODUCTION

La dépendance est un enjeu important de la modélisation de capital, comme vu


précédemment, on parle de dépendance entre les risques (provisionnement, sinistralité,
marché, …) et entre les lignes de business. C’est cette dernière que nous allons étudier ici.

Nous allons utiliser les deux séries de Loss ratios présentées dans la partie précédente et
étudier la dépendance entre celles-ci. Pour ce faire, nous utiliserons la théorie des copules,
structure de dépendance de plus en plus utilisée au sein des modèles internes, et étudierons
différentes méthodes de paramétrisation de celles-ci.

Une fois la dépendance entre les séries établie, nous verrons son impact sur l’exigence de
capital.

II - RESULTAT PRELIMINAIRE

Les séries de Loss ratios qui seront étudiées ici sont les suivantes :

2001 2002 2003 2004 2005 2006 2007 2008 2009 2010
Overseas General Casualty 74% 53% 43% 37% 43% 46% 57% 53% 57% 56%
Overseas non General Casualty 75% 57% 45% 49% 66% 49% 64% 75% 71% 92%

Graphique 18 : Loss Ratios annuels pour les lignes de business General & Non General
Casualty

A première vue les séries semblent corrélées, on a globalement une tendance décroissante
jusqu’en 2004 puis une tendance croissante pour les deux séries. On peut donc penser que
les séries ne sont pas indépendantes. Une première mesure de la dépendance entre ces

57
deux séries est le classique coefficient de corrélation aussi appelé coefficient de corrélation
de Pearson.

Définition : Coefficient de corrélation de Pearson

Pour deux variables aléatoires X et Y, le coefficient de corrélation de Pearson est défini par :

Pour étudier des échantillons de données de taille n, nous avons les estimations empiriques
suivantes :

̂( ) ∑

Et

̂ ( ) ∑

On en déduit ̂, l’estimation du coefficient de corrélation de Pearson.

Ce coefficient est compris entre [-1 ; 1], s’il est positif, les variables aléatoires
(respectivement échantillons) sont positivement corrélés, on parle de co-monotonie lorsque
leur corrélation vaut 1. S’il est négatif, les variables aléatoires sont négativement corrélées
(une valeur relativement élevée de la variable aléatoire X a plus de chance d’être couplée
d’une valeur relativement faible pour Y). Si ce coefficient vaut 0, les variables aléatoires ne
sont pas nécessairement indépendantes, mais si elles sont indépendantes alors leur
corrélation vaut 0.

Dans notre cas, l’estimation du coefficient de corrélation vaut :

Nos deux séries de données sont donc fortement positivement corrélées. Cependant, ce
coefficient de corrélation est linéaire, et ne prend pas en considération différent niveau de
corrélation au sein de l’intervalle de définition de chacun des deux échantillons. Par exemple,
il est envisageable que la corrélation au niveau des queues de distributions à gauche ne soit
pas la même que celle au sein des queues de distributions à droite, ou du reste de la
distribution.

Pour prendre en compte différents niveau de corrélation, le coefficient de Pearson est


insuffisant. Il faut utiliser un autre outil : les copules.

III - THEORIE DES COPULES

58
i- DEFINITIONS ET PROPRIETES
Une copule est une fonction de répartition multi-variée définie sur [ et donc les
marginales sont uniformes sur [ . Elle permet de séparer une loi jointe en loi marginales
et une structure de dépendance.

Définition : Copule

Pour Une copule de dimension d est une fonction définie de [ ] dans [ définie
par :

Où suivent des distributions Uniforme sur [ .

Propriétés : Copules

Une copule C vérifie les propriétés suivantes :



 est 2-croissante, i.e.
et

Théorème de Sklar :

Soit une distribution jointe avec les lois marginales continues, il existe une unique
copule qui satisfait :
( )

Réciproquement, si on a une copule et des fonctions de répartitions alors


( ) est une fonction de répartition multi-variée ayant
comme lois marginales.

Le théorème de Sklar est la principale raison de considérer les copules comme des
structures de dépendance. L’égalité précédente signifie que la copule permet de lier lois
marginales et la loi jointe de la distribution.

Définition : Densité d’une copule

La densité d’une copule , si elle existe, s’écrit comme :

Aussi, la densité d’une fonction de distribution s’écrit :

59
On en déduit :

ii - QUELQUES EXEMPLES DE COPULES

Il existe un nombre important de copule, nous ne décrivons pas ici une liste exhaustive mais
simplement quelques copules assez fréquemment rencontrés.

1- LA COPULE GAUSSIENNE

La copule Gaussienne est définie, pour un couple de variables aléatoires (X,Y) continues ,
par :

( ) ∫ ∫ . /

Où et est la fonction de répartition d’une loi Normale.

Voici quelques représentations de la copule Gaussienne bidimensionnelle :

Graphique 19 : Graphique 20 :
Copule gaussienne pour Copule gaussienne pour

60
Graphique 21 : Copule gaussienne pour

2- LA COPULE INDEPENDANTE

Pour un vecteur de variables aléatoires indépendantes on a :

De la même manière on a , la copule indépendante.

Graphique 22 : Copule indépendante bidimensionnelle

3- LES COPULES ARCHIMEDIENNES

Il s’agit d’une famille de copules qui ont une construction particulière, on appelle le
générateur d’une copule archimédienne. Une copule archimédienne est alors de la forme :

Parmis les copules archimédiennes, on a par exemple la copule de Gumbel :

( 0 1 )

Pour .

61
Graphique 23 : Copule de Gumbel pour Graphique 24 : Copule de Gumbel pour

La copule de Gumbel est une copule dite de valeurs extrêmes, on constate en effet que la
dépendance est particulièrement forte pour les quantiles les plus élevés.

Il existe aussi la copule de Clayton :

(∑ )

Pour .

Graphique 25 : Copule de Clayton pour Graphique 26 : Copule de Clayton pour

La copule de Clayton a tendance a bien modéliser une dépendance de queue de distribution


à gauche, comme on peut le voir sur les graphiques.

Tout comme une distribution de probabilité classique, les paramètres d’une copule font
l’objet d’une estimation, et c’est ce qui va nous intéresser ici, quelle est l’impact du choix
d’une certaine technique d’estimation sur une Value at Risk, avec les deux séries de
données présentées précédemment. Pour cela, nous allons utiliser la copule Gaussienne et
la copule de Gumbel.

L’objectif ici n’est pas de déterminer quelle est la copule optimale pour ces séries de
données, pour plus d’information sur le sujet, le lecteur intéressé peut se référer à la
littérature sur le sujet12.

Pour continuer cette étude, présentons donc les outils et méthodes d’estimation des copules.

12
Par exemple le mémoire d’Emilie AUBRON (2009) ou celui d’Esterina MASIELLO (2010) ou encore l’article
Which copula is the right one ? de DURRLEMAN, NIKEGHBALI, RONCALLI(2000)
62
iii - ESTIMATION DES PARAMETRES D’UNE COPULE

L’estimation des paramètres d’une copule n’est pas forcément intuitive, nous présentons ici
plusieurs approches. Nous considérons dans la suite uniquement le cas bidimensionnel.

1- LE TAU DE KENDALL

Définition : Tau de Kendall

Soit un couple de variables aléatoires identiquement distribuées au couple . Le


Tau de Kendall s’écrit :

( ) ( )

Le taux de Kendall est donc la différence entre la probabilité de concordance et de


discordance. Pour une copule de dimension 2, on a l’égalité suivante :


[

Il faut noter que ce résultat reste vrai indépendamment de la distribution de X et Y. Dans le


cas empirique, on peut estimer le Tau de Kendall par la formule suivante :

̂ ∑∑ ( )

Où et est la taille de l’échantillon.


Pour les copules que nous allons utiliser ici, il est nécessaire que le Tau de Kendall soit
positif pour être utilisable, en effet, pour la copule Gaussienne, on a le résultat suivant :

Ainsi, en estimant par ̂ , on peut en déduire une estimation de :

̂
̂ ( )

Pour la copule de Gumbel, on a l’égalité suivante :

63
d’où ̂
̂

Lorsque la copule qui nous intéresse à deux paramètres à estimer, ce qui n’est pas notre cas
ici, on peut coupler l’utilisation du Tau de Kendall au Rhô de Spearman

Définition : Rhô de Spearman

Le Rhô de Spearman est défini que le coefficient de corrélation de Pearson mais sur le rang
des données d’un échantillon ordonné, ainsi, il est estimé par :


̂
√∑ ∑
Où sont les rangs respéctifs des valeurs de nos deux échantillons .

Pour une copule bidimensionnelle, le Rhô de Spearman vaut :

En pratique, il nous suffira d’estimer la valeur du taux de Kendall, et d’appliquer les égalités
précédentes pour obtenir une valeur pour de la copule Gaussienne et de la copule de
Gumbel.

L’estimation des paramètres d’une copule à l’aide du Tau de Kendall et du Rhô de


Spearman s’appelle aussi la méthode des moments.

2- CANONICAL MAXIMUM LIKELIHOOD ESTIMATION (CML)

On a vu précédemment qu’une copule possédait une fonction de densité, on peut donc, de la


même manière qu’une fonction classique, avoir recours à la méthode du maximum de
vraisemblance. Cependant, dans le cas particulier des copules, cela reviendrait à estimer
conjointement les paramètres de la copule et des lois marginales. Ce qui peut se révéler
complexe est les temps de calcul peuvent être important.

La méthode CML évite ce problème en utilisant les quantiles empiriques des distributions
marginales, qui forment alors des distributions uniformes sur [0 ; 1]. Ainsi, il ne reste plus
qu’à estimer les paramètres de la copule. On note ( ) nos deux échantillons de quantiles
empiriques, de dimension .

Pour déterminer les quantiles empiriques on utilise la formule suivante :


̂

64
Pour la copule Gaussienne, la log-vraisemblance13 est de la forme :

( ) ∑( ) ∑

Pour la copule de Gumbel, la log-vraisemblance14 est de la forme :

( ) ∑. ( ) . ( ) /

.( ) / /

Pour estimer les paramètres par la méthode du maximum de vraisemblance, on doit


maximiser la log-vraisemblance, il faudra ici utiliser des méthodes numériques, dans notre
cas, la méthode BFGS.

3- L’APPROCHE BAYESIENNE

De la même manière que pour une distribution de sinistres, il est possible d’estimer les
paramètres des copules par l’estimation Bayésienne. La théorie est très similaire, en
travaillant avec une distribution a priori non informative, la distribution a posteriori des
paramètres sachant les échantillons de données est proportionnelle à la vraisemblance de la
copule.

Ici, nous utilisons la même vraisemblance que dans la méthode CML, afin de ne pas avoir à
ré-estimer les paramètres des distributions des deux échantillons.

Les vraisemblances des copules n’étant semblables à aucune distribution classique, nous
devons réutiliser l’algorithme ARMS/GIBBS sur la log-vraisemblance pour obtenir la
distribution à posteriori des paramètres.

Appliquons maintenant ces méthodes de paramétrisation sur nos données.

13
Pour une preuve de ce résultat le lecteur peut se référer à Song P., Fan Y., Kalbfleisch J. (2006) Estimating
bivariate Gaussian Copula by the means of Maximization by Parts in Likelihood Inference.
14
Des éléments de preuve de ce résultat sont donnés ici :
http://support.sas.com/documentation/cdl/en/etsug/63939/HTML/default/viewer.htm#etsug_copula_sect017
.htm
65
IV - APPLICATION

Nous travaillons sur les deux séries de Loss Ratios suivantes :

2001 2002 2003 2004 2005 2006 2007 2008 2009 2010
Overseas General Casualty 74% 53% 43% 37% 43% 46% 57% 53% 57% 56%
Overseas non General Casualty 75% 57% 45% 49% 66% 49% 64% 75% 71% 92%

Comme précisé précédemment, les estimations effectuées par la suite sont indépendantes
de la distribution des Loss Ratios, ainsi, les résultats donnés par la suite sont valables pour
la distribution Gamma et Log-Normale.

Dans un premier temps, nous estimons le Tau de Kendall pour ces deux séries qu’on
appellera X et Y (respectivement General Casualty et non General Casualty) :

̂ ∑∑ ( )

Avec une estimation du Tau de Kendall, on peut estimer les paramètres de chacune des
copules :

̂
̂ ( ) pour la copule Gaussienne.

̂ pour la copule de Gumbel.


̂

Pour utiliser la méthode CML, nous devons tout d’abord transformer nos données en
quantiles empiriques :

2001 2002 2003 2004 2005 2006 2007 2008 2009 2010
Overseas General Casualty 74% 53% 43% 37% 43% 46% 57% 53% 57% 56%
Overseas non General Casualty 75% 57% 45% 49% 66% 49% 64% 75% 71% 92%
Rangs General Casualty 10 5 2 1 3 4 9 6 8 7
Rangs non General Casualty 8 4 1 2 6 3 5 9 7 10
Quantiles empiriques General Casualty 0,95 0,45 0,15 0,05 0,25 0,35 0,85 0,55 0,75 0,65
Quantiles empiriques Non General Casualty 0,75 0,35 0,05 0,15 0,55 0,25 0,45 0,85 0,65 0,95

On utilise ensuite la méthode numérique BFGS sur les log-vraisemblances pour déterminer
le maximum de vraisemblance de chacune des copules, on trouve les résultats suivant :

Canonical Maximum Likelihood


Rhô 0,6751
Beta 1,5423

66
On constate déjà que les résultats des deux estimations sont sensiblement différents, la
principale raison est probablement le nombre réduit de données, nous étudierons
l’importance de nombre de données de la même manière que précédemment par la suite.

Enfin, la dernière méthode d’estimation utilisée est l’approche Bayésienne, avec une
distribution a priori non informative, la distribution a posteriori de l’échantillon est
proportionnelle à la vraisemblance, pour déterminer cette distribution nous appliquons
l’algorithme ARMS/GIBBS sur la log-vraisemblance de chacune des copules, on obtient les
résultats suivants :

Pour la copule Gaussienne :

Graphique 27 : Densité du Rhô de la copule Gaussienne

Quelques statistiques sur notre paramètre :

RHO
Moyenne 0,534
Ecart-type 0,211
Min -0,554
Max 0,918
Quantile a 0,5% -0,189
Quantile a 1% -0,110
Quantile a 5% 0,118
Quantile a 95% 0,794
Quantile a 99% 0,841
Quantile a 99,5% 0,855

On constate ici que la moyenne de ̂ par estimation Bayésienne (ou estimateur de Bayes)
est significativement différente de la valeur obtenue par les deux autres estimations. Au vue
de la courbe de densité, on constate que les valeurs à forte densité sont effectivement aux
alentours de 0,7 (comme l’estimateur CML le montre) mais cette courbe étant fortement
asymétrique, on obtient un niveau moyen assez différent. Il est intéressant de noter aussi

67
que les valeurs extrêmes sur la queue de distribution de gauche peuvent également être
négatives.

Pour la copule de Gumbel nous avons les résultats suivants :

Graphique 28 : Densité du Beta de la copule de Gumbel

Quelques statistiques sur notre paramètre :

BETA
Moyenne 1,674
Ecart-type 0,378
Min 1,000
Max 4,273
Quantile a 0,5% 1,018
Quantile a 1% 1,034
Quantile a 5% 1,130
Quantile a 95% 2,366
Quantile a 99% 2,713
Quantile a 99,5% 2,850

Bien que la fonction de densité soit aussi asymétrique, la moyenne de l’estimateur est cette
fois ci assez proche du résultat des deux estimations précédentes, aussi, on constate que la
distribution du paramètre est bien en accord avec les restrictions spécifiques à la copule
puisque beta ne descend pas en dessous de 1.

Ici, on obtient donc que la dépendance obtenue par estimation CML est moins forte que celle
estimée par le Tau de Kendall pour les deux copules. Comparer directement ces résultats
avec ceux de l’approche Bayésienne est assez délicat, car cette approche nous donne

68
plusieurs valeurs possibles pour les paramètres. Cependant, si l’on s’intéresse à la moyenne
des paramètres on obtient les résultats suivants :

Copule Gaussienne Gumbel


Estimation CML 0,6751 1,5423
Tau de Kendall 0,7193 2,0455

Estimateur de Bayes 0,5342 1,6738

Le Tau de Kendall nous donne une valeur théorique du paramètre de la copule, mais étant
donné que le Tau est lui-même estimé, on ne connait pas directement la vraie valeur du
paramètre. Le seul facteur qui pourrait améliorer cette estimation est ici la taille de
l’échantillon, en effet on peut penser que la qualité de l’estimation sera meilleure si
l’échantillon est plus important, et ce quel que soit la copule étudiée.

De même l’estimation CML et Bayésienne nous donnent des informations en tenant compte
uniquement de l’échantillon. On peut penser que les écarts présents ici sont principalement
dus au manque d’information. En effet, l’estimateur du maximum de vraisemblance pour les
copules vérifie les mêmes propriétés asymptotiques qu’un maximum de vraisemblance
classique, il converge donc vers une distribution normale quand le nombre de données
augmente. On peut penser donc s’attendre à ce que les résultats de ces deux approches
soient de plus en plus proches au fur et à mesure que le nombre de données augmente.

C’est pourquoi, avant de conclure sur l’impact sur l’exigence de capital de chacune de ces
méthodes d’estimation, nous allons étudier l’influence du nombre de données dans
l’estimation des paramètres des copules.

V- ETUDE DE L’INFLUENCE DU NOMBRE D’ANNEES D’HISTORIQUE

De la même manière que pour les distributions de sinistres, nous allons étudier l’évolution de
l’estimation des structures de dépendance en fonction du nombre de données d’échantillon.

Pour cela, nous utilisons les résultats précédent et simulons deux échantillons de 50 Loss
Ratios de distributions et corrélés
à 64% (selon le coefficient de corrélation de Pearson).

69
Graphique 29 : 2 échantillons de Loss Ratios corrélés à 64%

Remarque : Ces échantillons ont été simulés de telle sorte que leur corrélation soit 64%, cela
signifie que pour n=50, la corrélation est de 64%, cependant cette valeur n’est pas fixe et
varie selon le nombre de données dans l’échantillon. Ainsi, la valeur de l’estimation des
paramètres des copules sera amenée à changer quand le nombre de données variera, on ne
s’intéresse donc pas directement à la valeur des paramètres selon la méthode d’estimation
mais à l’écart relatif entre les valeurs de chacune des estimations.

Pour étudier l’évolution des méthodes d’estimations en fonction du nombre de données dans
l’échantillon, nous allons, pour chaque taille d’échantillon dans l’intervalle {10,…,50} estimer
le Tau de Kendall, qui nous donnera par conséquent une estimation des paramètres des
deux copules. Nous allons en parallèle estimer les paramètres par les méthodes CML et
Bayésienne.

Présentons tout d’abord l’évolution de la corrélation et du Tau de Kendall en fonction du


nombre de données :

70
Graphique 30 : Corrélation et Tau de Kendall en fonction de la taille de nos échantillons

L’évolution des deux mesures de dépendance est très similaire, on constate également que
le niveau de la corrélation ne reste pas fixé à 64% pour toutes les tailles d’échantillon. Le
Tau de Kendall nous permet d’avoir une valeur pour les paramètres des deux copules pour
chaque point de l’échantillon. Comparons ces résultats avec ceux de l’estimation CML, tout
d’abord pour la copule Gaussienne :

Graphique 31 : Valeurs du Rhô de la copule Gaussienne pour le Tau de Kendall et la


méthode CML

On constate que les deux estimations suivent la même tendance, mais l’écart entre les deux
estimations ne se réduit pas significativement avec le nombre de données qui augmente, au
contraire. Une explication possible est que 50 données ne suffisent pas pour observer une
possible convergence entre les deux méthodes d’estimation. Cependant, dans un contexte
assurantiel, le nombre de données est nécessairement limité et 50 ans d’historique
représente déjà une limite très généreuse.

Quel que soit la taille de l’échantillon, l’estimation CML donne une dépendance plus forte
que celle par le Tau de Kendall, cependant la valeur trouvée précédemment sur nos vrais
Loss Ratio montrait l’inverse, on ne peut donc pas s’avancer d’avantage ici.
71
Etudions maintenant les résultats de l’estimation Bayésienne :

Graphique 32 : Niveaux moyens et quantiles de Rho en fonction de la taille de l’échantillon

L’estimation Bayésienne nous donnant toute une distribution pour le paramètre, nous
pouvons étudier ici toute la dispersion de ce-dernier grâce aux quantiles, ainsi que son
niveau moyen. Concernant la tendance générale, c’est la même que pour les deux autres
estimations, avec une valeur moyenne légèrement supérieure à 0,6 pour n=50. Concernant
la dispersion, on a une légère amélioration pour les quantiles non extrêmes ( ) au fur
et à mesure que le nombre de données augmente, mais on constate que des valeurs
extrêmes sont toujours présentes. Aussi, l’asymétrie de la distribution de Rhô est bien visible
car la médiane n’est pas souvent en phase avec le niveau moyen.

Une fois encore, on peut penser que le nombre de données est insuffisant pour constater
une réelle convergence, cependant pour l’estimation Bayésienne, le problème des
ressources informatiques se pose en plus, car l’utilisation de l’algorithme ARMS/GIBBS est
lourde.

Pour la copule de Gumbel, on a les résultats suivants :

72
Graphique 33 : Valeurs du Beta de la copule de Gumbel pour le Tau de Kendall et la
méthode CML

Pour la copule de Gumbel, les résultats des deux méthodes d’estimation sont également
assez proches, la convergence des deux méthodes semble plus prononcée ici que pour la
copule Gaussienne, mais il faudrait une taille d’échantillon plus importante pour confirmer
ceci.

Par estimation Bayésienne, nous obtenons le graphe suivant :

Graphique 34 : Niveaux moyens et quantiles de Beta en fonction de la taille de l’échantillon

Les résultats pour cette copule sont plus intéressants, la tendance et les valeurs du niveau
moyen sont les mêmes que pour les deux autres méthodes d’estimation, et on constate une
vraie amélioration de la dispersion de la distribution du paramètre quand la taille de
l’échantillon augmente.

73
Pour conclure cette étude, comparons l’écart relatif des différentes estimations on prend
comme référence l’estimation CML et on s’intéresse à l’écart relatif entre les méthodes
d’estimation. Pour l’estimation Bayésienne, on s’intéresse ici au niveau moyen de la
distribution du paramètre. Nous définissons l’écart relatif ici comme :

̂ ̂
| | {
̂

Pour chacune des copules, nous obtenons les résultats suivants :

Graphique 35 : Ecart relatif des méthodes d’estimation pour la copule Gaussienne

Graphique 36 : Ecart relatif des méthodes d’estimation pour la copule de Gumbel

Au vue de ces deux graphes, il est difficile de conclure sur la convergence des méthodes du
Tau de Kendall et CML. Mais l’écart relatif entre ces deux estimations est ici toujours
inférieur à 10% en valeur absolu, l’utilisation des deux méthodes semble donc légitime. Un
échantillon de taille plus importante pourrait ici aussi faire une différence.

Quant à la méthode Bayésienne, on constate une convergence vers le résultat de la


méthode CML quand la taille de l’échantillon augmente, surtout pour la copule de Gumbel où
la convergence est très régulière.

74
Conclure sur la convergence des méthodes d’estimation en ne s’intéressant qu’à une unique
simulation de Loss Ratio n’est pas satisfaisant. C’est pourquoi nous allons vérifier les
résultats précédents sur plusieurs simulations. Nous répétons les simulations de Loss ratio
et l’estimation de paramètre des copules pour 20 simulations (on se limite ici à 20
simulations pour des raisons de ressources informatiques). Nous obtenons ainsi une
moyenne sur les 20 simulations des écarts des méthodes d’estimation en fonction du
nombre de données dans l’échantillon, on étudie donc la moyenne des écarts :

*̂ ̂ + ∑( ̂ ̂ )

Où , K correspondant à l’estimation par le Tau de Kendall et B à l’estimateur de


Bayes.

On obtient les résultats suivants :

Graphe 37 : Moyenne des écarts relatifs en fonction de la taille de l’échantillon pour la copule
Gaussienne

Graphe 38 : Moyenne des écarts relatifs en fonction de la taille de l’échantillon pour la copule
de Gumbel

75
On remarque que pour la copule Gaussienne, les méthodes d’estimation convergent de
manière assez satisfaisante, même si l’allure de la courbe pour les estimations Kendall et
CML est assez irrégulière. Pour la copule de Gumbel, comme nous l’avions vu
précédemment les méthodes Bayesienne et CML convergent de manière satisfaisante,
cependant, l’allure de la courbe pour les méthodes CML et Kendall est ici très irrégulière,
même si globalement on y observe une tendance décroissante. On peut donc supposer que
toutes les méthodes convergent asymptotiquement, mais pour des tailles d’échantillon
réalistes, le choix de la méthode d’estimation du paramètre de la copule à un impact non
négligeable sur la valeur du paramètre estimé.

Nous avons vu ici 3 méthodes d’estimation pour les paramètres de la copule.


Théoriquement, les méthodes CML et Bayésienne sont assez proches puisqu’elles utilisent
toutes les deux la vraisemblance l’échantillon, les résultats des deux méthodes sont
d’ailleurs assez proches quand la taille de l’échantillon augmente.

En revanche, l’estimation par le Tau de Kendall donne des résultats différents des deux
autres estimations même si, dans l’absolu, les valeurs obtenues pour les paramètres de la
copule sont assez proche, on constate difficilement une convergence des résultats avec les
deux autres méthodes pour une taille d’échantillon inférieure à 50 données.

VI - EXIGENCE DE CAPITAL

Pour conclure cette étude, nous nous intéressons maintenant à l’exigence de capital que
représentent ces deux lignes de business. Pour cela, on définit le résultat net par :

Notre exigence de capital sera alors de la forme d’une Value at Risk à 1 an :

Bien sûr, cette exigence de capital n’est pas vraiment représentative de la réalité, plusieurs
éléments importants ont été omis lors de cette étude, par exemple le rendement des actifs
ou la réassurance. Ce qui nous intéresse ici est surtout de pouvoir comparer l’exigence de
capital obtenue avec les différentes méthodes d’estimations présentée plus tôt.

Pour simplifier, nous posons : . Le montant des sinistres sera


déterminé par simulation des distributions de probabilités et l’application des dépendances
vu précédemment.

Il faut cependant déterminer le montant des primes à utiliser pour obtenir le résultat net.

Nous avons les séries de primes suivantes pour nos deux lignes de business :

76
2001 2002 2003 2004 2005 2006 2007 2008 2009 2010
General Casualty 1 320 052 1 554 300 1 730 028 1 868 962 1 959 267 1 983 600 1 858 292 1 919 275 1 874 608 1 910 465
Non General Casualty 678 886 870 016 1 245 235 1 345 421 1 268 038 1 216 999 1 209 883 1 225 760 1 216 608 1 297 551

Pour déterminer une estimation de la prime en 2011, plusieurs méthodes de projection sont
possibles, il est possible d’utiliser des séries temporelles de type ARMA par exemple, par
soucis de simplicité, on utilisera simplement une projection linéaire.

Ainsi on pose :

On obtient les valeurs suivantes :

Projection de la prime

General Casualty 1 946 322


Non General Casualty 1 378 494

Nos sinistres ont été étudiés sous forme de Loss Ratio, i.e , pour obtenir une
projection de notre résultat net, on calcule donc pour chaque ligne de business :

Soit :

On additionne ensuite les résultats nets de chaque ligne de business :

Ici, les seuls éléments aléatoires sont les Loss Ratios corrélés de nos deux lignes de
business, le niveau des primes est fixé, par conséquent les charges le sont aussi. On peut
donc maintenant étudier l’exigence de capital en utilisant une mesure du risque.

Nous allons présenter les résultats pour les distributions de sinistre Gamma et Log-Normale,
pour les méthodes d’estimation EMV et Bayésienne, corrélées avec les copules Gaussienne
et Gumbel, dont les paramètres ont été estimés avec le taux de Kendall, la méthode CML et
Bayésienne. Aussi, à titre indicatif, nous présentons également les résultats ou les deux
lignes de business sont indépendantes et co-monotones.

Pour une distribution de sinistres de loi Log-Normale, on obtient les résultats suivants :

77
Ditribution Log-Normale
Exigence de Capital (en milliers de $)
Maximum de Vraisemblance Estimation Bayésienne
LoBs Indépendents 390 157 800 939
Tau de Kendall 694 631 1 277 508
Copule Gaussienne
CML 681 027 1 243 733
Kendall 768 166 1 397 572
Copule de Gumbel
CML 707 299 1 312 379
LoBs Comonotones 806 145 1 443 754

Pour la loi Gamma :

Distribution Gamma
Exigence de Capital (en milliers de $)
Maximum de Vraisemblance Estimation Bayésienne
LoBs Indépendents 343 391 572 344
Tau de Kendall 610 033 922 403
Copule Gaussienne
CML 574 051 904 743
Kendall 647 202 1 011 900
Copule de Gumbel
CML 620 641 974 763
LoBs Comonotones 685 552 1 056 102

La première chose remarquable, est l’étendue des résultats, l’exigence de capital minimale
est atteinte quand nos deux lignes de business suivent une distribution Gamma dont les
paramètres sont estimés par maximum de vraisemblance et leur dépendance est estimée
par la méthode CML sur la copule Gaussienne, on obtient une exigence de capital de 574,1
millions de dollars. En revanche, si on estime les paramètres de nos distributions de sinistres
selon l’approche Bayésienne, suivant une distribution Log-Normale, dont la dépendance est
appliquée par une copule de Gumbel dont le paramètre est obtenu par le Tau de Kendall, on
trouve une exigence de capital de 1397,6 millions de dollars, soit plus du double.

Pour mieux apprécier l’impact des méthodes d’estimation sur l’exigence de capital,
intéressons-nous aux écarts-relatif, en prenant comme référence des sinistres estimés par
EMV et dont le paramètre de la copule Gaussienne est obtenu par méthode CML :

Ditribution Log-Normale
Ecart Relatif
Maximum de Vraisemblance Estimation Bayésienne
LoBs Indépendents -43% 18%
Tau de Kendall 2% 88%
Copule Gaussienne
CML - 83%
Tau de Kendall 13% 105%
Copule de Gumbel
CML 4% 93%
LoBs Comonotones 18% 112%

Ditribution Gamma
Ecart Relatif
Maximum de Vraisemblance Estimation Bayésienne
LoBs Indépendents -40% 0%
Tau de Kendall 6% 61%
Copule Gaussienne
CML - 58%
Tau de Kendall 13% 76%
Copule de Gumbel
CML 8% 70%
LoBs Comonotones 19% 84%

78
Nous voyons sur les deux tableaux ci-dessus l’importance du choix de la méthode
d’estimation. Le choix de la méthode d’estimation des paramètres des distributions de
sinistre est celui qui a l’impact le plus important sur l’exigence de capital, d’autant plus pour
la distribution Log-Normale. Il faut cependant garder à l’esprit que nous travaillons ici avec
un échantillon d’uniquement 10 données et que nous utilisons une distribution a priori
uniforme dans le cas de l’approche Bayésienne, ces deux éléments ont leur importance dans
la qualité de l’estimation. Ici, cette approche a tendance à rendre les distributions plus
variables et une forte dépendance entre les deux LoBs accentue l’impact sur la VaR. On
remarque par exemple que l’écart entre les deux méthodes d’estimation est plus important
pour des LoBs co-monotones que tous les autres écarts.

Comme vu précédemment, le choix de la distribution de sinistre à son importance, et


logiquement on retrouve une différence entre les résultats ici pour les distributions Log-
Normales et Gamma.

Le choix de la copule a aussi son importance, mais celui-ci est moindre que celui de la
distribution des sinistres, le seul écart vraiment significatif par rapport à l’estimation CML de
la copule Gaussienne concerne l’estimation par le Tau de Kendall pour la copule de Gumbel,
aussi, en regardant les résultats de la colonne Maximum de Vraisemblance, on voit que le
choix de la distribution de sinistres a peu d’impact sur l’écart entre les copules. Ce résultat
n’est pas forcément surprenant puisque l’estimation des paramètres de la copule s’est faite
indépendamment de la distribution des sinistres.

Enfin, nous constatons que pour chacune des méthodes d’estimation, les résultats sont
logiquement compris entre le cas des LoBs indépendants et co-monotones.

Les résultats obtenus en estimant les paramètres de la copule par approche Bayésienne ne
sont pas présentés dans les tableaux ci-dessus. En effet, l’estimation Bayésienne nous
donne toute la distribution a posteriori pour les paramètres, soit dans ce cas précis, un
échantillon de 100 000 valeurs, pour chacune des copules.

Pour calculer l’exigence de capital, il est nécessaire de simuler un nombre important de


simulations pour chacune des distributions de sinistre pour pouvoir réaliser une VaR (ici
100 000 simulations) tout en tenant compte de la dépendance entre ces deux lignes de
business. Avec l’estimation Bayésienne, la dépendance prend 100 000 valeurs, il faudrait
donc réaliser 100 000 100 000 simulations, ce qui est matériellement impossible dans mon
cas.

Pour pallier à ce problème, nous n’allons étudier que certaines valeurs clés de la distribution
des paramètres de dépendances, nous présentons donc les résultats pour les quantiles de
niveau {0,5% ; 5% ; 10% ; … ; 90% ; 95% ; 99,5%}.

Pour plus de lisibilité, l’exigence de capital est présentée sous forme de graphique en
fonction du niveau du quantile pris pour le paramètre des copules, tout en présentant les
résultats obtenus par Tau de Kendall et méthode CML.

Pour la copule Gaussienne, nous obtenons :

79
Gr. 39 :Loi Log-Normale, estimation : EMV Gr.40 : Loi Log-Normale, estimation : Bayésienne

Gr. 41 : Loi Gamma, estimation : EMV Gr 42 : Loi Gamma, estimation : Bayésienne

On remarque ici que pour les quantiles les plus faibles de la copule Gaussienne, on obtient
une exigence de capital inférieure à celle obtenue pour des Lobs indépendants. Nous avons
vu plus haut que le rhô de la copule Gaussienne pouvait prendre des valeurs négatives, ce
qui implique une corrélation négative entre les deux lignes de Business. Par conséquent,
l’exigence de capital devient inférieure à celle obtenue pour des LoBs indépendants. Aussi,
pour la copule Gaussienne, le paramètre estimé par approche Bayésienne est au niveau de
celui des deux autres estimations aux alentours du quantile à 65%, pour les quantiles les
plus élevés, on trouve une exigence de capital très proche de celle de LoBs co-monotones.

Pour la copule de Gumbel, nous obtenons :

Gr. 43 : Loi Log-Normale, estimation : EMV Gr. 44 : Loi Log-Normale, estimation : Bayésienne

80
Gr. 45 Loi Gamma, estimation : EMV Gr. 46 : Loi Gamma, estimation : Bayésienne

Pour la copule de Gumbel, on voit que le résultat de l’estimation faite par le Tau de Kendall,
est très proche du résultat des LoBs co-monotones, surtout suite à l’estimation des sinistres
par EMV. La copule de Gumbel ne permet pas de simuler une corrélation négative, c’est
pourquoi l’exigence de capital obtenue par estimation bayésienne est toujours plus grande
que celle de LoBs indépendants. Aussi, la convergence des quantiles élevés vers le résultat
des LoBs co-monotones est plus marquée pour cette copule.

VII - CONCLUSION
Dans cette partie, nous avons vu qu’il existe différents moyens d’estimer les paramètres
d’une copule, la méthode des moments est probablement la plus rapide à réaliser mais elle
n’est pas réalisable pour toutes les copules. La méthode CML utilise une méthode différente
puisqu’il s’agit d’un maximum de vraisemblance. L’approche Bayésienne nous permet
d’appréhender différents niveau de dépendance pour chacune des copules et nous permet
donc d’avoir une exigence de capital qui varie en fonction de niveau de dépendance choisi.
Cette méthode est cependant bien plus lourde à calculer.

Le calcul de l’exigence de capital pour nos deux lignes de business montre que, pour nos
deux copules, la méthode CML donne une exigence plus faible que la méthode du Tau de
Kendall.

Pour l’estimation Bayésienne, l’exigence de capital est égale à celle de la méthode CML au
niveau de la médiane pour la copule de Gumbel, alors que pour la copule Gaussienne,
l’exigence de capital Bayésienne est égale à celle de la méthode CML aux alentours du
quantile à 70% de la distribution estimée du paramètre de la copule.

81
CONCLUSION

Avec l’arrivée de la nouvelle réglementation Solvabilité II, de nouvelles exigences sur le


capital font leur apparition. Alors que l’exigence de solvabilité était relativement simple à
calculer sous Solvabilité I, le calcul du SCR ou de l’ICA est bien plus complexe et nécessite
l’utilisation de modèles internes. A cause du coût important de mise en place d’un modèle
interne, une formule standard a été proposée pour calculer le SCR, mais celle-ci donne
souvent une exigence de capital supplémentaire par rapport à celle calculée par modèle
interne.

La modélisation de capital consiste à réaliser un nombre important de simulations de


variables aléatoires pour reproduire les cash-flows d’une société d’assurance et déterminer
selon des critères imposés par les régulateurs une exigence de capital. Il faut pour cela
utiliser sur le résultat de l’assureur une mesure du risque, généralement une Value at Risk.

L’hypothèse sous-jacente à la modélisation de capital, est d’être capable d’estimer


correctement les paramètres des distributions simulées. Cette estimation peut s’avérer
inexacte et provoquer une mauvaise estimation du risque, particulièrement quand on dispose
de peu d’informations.

Au cours de cette étude, nous avons vu que le choix de la méthode d’estimation à un impact
important sur l’exigence de capital. De manière générale, les méthodes d’estimation
classiques du maximum de vraisemblance donnent au final des exigences de capital
minimales. Le choix de l’estimation Bayésienne est intéressant car elle nous donne plus
d’information sur les paramètres, par exemple une asymétrie de leurs densités, elle est
cependant plus difficile à implémenter et l’impact de cette approche sur la VaR ou la TVaR
est vraiment lourd pour l’assureur. Aussi, nous avons vu que le choix de la distribution des
sinistres a son importance et l’impact sur la VaR peut être important. Bien sûr, il faut garder à
l’esprit que ces résultats sont amplifiés par le fait que nous ne travaillons qu’avec un
échantillon de 10 données, nous avons vu que les deux méthodes d’estimation donnent des
résultats proches lorsque que la taille de l’échantillon de données augmente.

La dépendance entre plusieurs lignes de business est aussi un point important de la


modélisation de capital. Plutôt qu’une simple corrélation, on privilégie ici l’utilisation de
copules pour modéliser les dépendances, celles-ci prenant souvent mieux en compte les
dépendances de queue de distribution.

La méthode d’estimation a aussi son importance ici, en effet, nous avons vu que l’approche
la plus simple qu’est la méthode des moments avec l’utilisation du Tau de Kendall n’est pas
forcément la plus favorable pour l’assureur, dans notre cas l’estimation par la méthode
Canonical Maximum Likelihood donne les meilleurs résultats. L’approche Bayésienne est
aussi possible pour les copules, et nous donne également plus d’information sur les
paramètres des copules puisqu’elle nous donne toute une distribution du paramètre, et ainsi,
une fonction du capital en fonction de la valeur du paramètre de la copule. Nous avons

82
également vu que les résultats de l’estimation CML et Bayésienne convergent quand la taille
de l’échantillon de données augmente.

Nous pouvons donc conclure que l’estimation de paramètres à un impact important sur la
modélisation de capital et par extension sur l’exigence réglementaire. L’utilisation de la
théorie Bayésienne est intéressante car elle donne plus d’information et si on se limite à
l’estimateur de Bayes, les résultats de cette approche sont comparables à ceux des
méthodes classiques, mais les valeurs extrêmes sont fortement impactées et l’exigence de
capital a tendance à fortement augmenter, surtout quand la taille de l’échantillon est réduite.

Pour approfondir cette étude, il peut être intéressant d’étudier si on trouve des résultats
comparables pour des sinistres larges et une étude du type cout-fréquence. Aussi, une étude
de l’influence du choix de la distribution a priori dans le cadre de l’approche Bayésienne et
son impact sur les mesures du risque peut être intéressante pour juger de la pertinence de
cette méthode d’estimation.

83
LISTE DES ABRÉVIATIONS

A&H : Accident&Health
ARMS : Adaptive Rejection Metropolis Sampling
ARS : Adaptive Rejection Sampling
BFGS : Broyden-Fletcehr-Goldfarb-Shanno
CML : Canonical Maximum Likelihood
CoV : Coefficient of variation
DFA : Dynamic Financial Analysis
ESG : Economic Scenario Generator
EMV : Estimateur du maximum de vraisemblance
FSA : Financial Services Authority
GEV : Generalized Extreme Value
GLM : Generalized Linear Model
GPD : Generalized Pareto Distribution
IAIA : International association of insurance supervisors
ICA : Individual Capital Assessment
NAV : Net Asset Value
SCR : Solvency Capital Requirement
TVaR : Tail Value at Risk
VaR : Value at Risk

84
BIBLIOGRAPHIE

Borowicz,J & Norman,J (2005). The effects of parameter uncertainty in the extreme event Frequency Severity
model

Borowicz,J & Norman,J (2006). The effect of parameter uncertainty in dependency structure

Durrleman, Nikeghbali, Roncalli (2000). Which copula is the right one ?

Dutang, M. N. (2008). Mersenne Twister et translation irrationnelle du Tore : comparaison et mise en oeuvre.

Eling, Parnitzke (2005). Dynamic Financial Analysis : Classification , Conception and Implementation

Forcadel, N. (2010). Mathématiques du risque.

Hyndman, C. B. (2006). Forrward-Backward SDEs and the CIR model.

IAIS (2008). Guidance paper on the use of Internal Models for Regulatory Capital Purposes

Kaufmann, G. K. (2001). Introduction to Dynamic Financial Analysis.

Popier,A. (2010). Copules

Robert, C. (2001). Monte Carlo Statistical Methods

Robert, C. (2010). Statistique Exploratoire.

Walsh, B. (2002) Introduction to Bayesian Analysis

Wüthrich,M. (2003). Asymptotic Value-at-Risk Estimates for Sums of Dependent Random Variables

Mémoires d’actuariat :

Agenos X. (2010). Appétit pour le risque et gestion stratégique d’une société d’assurance non-vie

Aubron E. (2009). Etude de l’impact des dépendances sur le Capital Economique

Veber.A (2009). Modélisation de la sinistralité non-vie, aléa sur la détermination des paramètres des lois de
modélisation et impact sur la VaR

Source des données : Global Loss Triangles 2010,

http://investors.acegroup.com/phoenix.zhtml?c=100907&p=irol-reportsannual#STS=g76ftr6z.19zv

85
ANNEXES

86
i- ANNEXE : ESTIMATEURS DU MAXIMUM DE VRAISEMBLANCE

Estimateur du maximum de vraisemblance pour une distribution exponentielle

Soit variables aléatoires i.i.d. distribuées selon un loi Exponentielle ,


l’estimateur du maximum de vraisemblance est calculé de la manière suivante :


( )
En passant à la log-vraisemblance on obtient :

Pour maximiser la vraisemblance, on s’intéresse au point où la dérivée s’annulle, on obtient

̂ ∑

87
Estimateur du maximum de vraisemblance pour une distribution Normale

Soit variables aléatoires i.i.d. distribuées selon un loi Normale ,


l’estimateur du maximum de vraisemblance est calculé de la manière suivante :




( )

En passant à la log-vraisemblance on obtient :

( √ ) ∑

Pour maximiser la vraisemblance, on s’intéresse au point où la dérivée s’annulle, on obtient

̂ ∑

̂ ∑

̂ √ ∑

88
Estimateur du maximum de vraisemblance pour une distribution Gamma

Soit variables aléatoires i.i.d. distribuées selon un loi Gamma ,


l’estimateur du maximum de vraisemblance est calculé de la manière suivante :

∏( )

En passant à la log-vraisemblance et pour des on obtient :

( ) ∑ ∑

Pour maximiser la vraisemblance, on s’intéresse au point où la dérivée s’annulle, on obtient


̂
̂

On utilise ici des méthodes de résolution numérique.

89
Estimateur du maximum de vraisemblance pour une distribution Log-Normale

Soit variables aléatoires i.i.d. distribuées selon un loi Log-Normale .


Pour la distribution Log-Normale, on observe :

Où est la log-vraisemblance d’une distribution normale


Ainsi on a :

̂
Et
∑ ̂
̂

90
ii - ANNEXE : ETUDE DE LA REGULARITE DES DONNEES

Pour étudier la régularité des données, nous nous intéressons aux facteurs de passage
d’une année à l’autre, en notant le montant payé pour le sinistre survenu en j et au cours
de l’année de développement i, on appelle facteur de passage le ratio :

Pour le triangle General Casualty on obtient les facteurs de passages suivants :

Year 1 2 3 4 5 6 7 8 9
2001 1,665816 1,198604 1,17953 1,069281 1,053475 1,082366 1,019294 1,02528 1,037862
2002 2,021361 1,252427 1,17355 1,109102 1,093494 1,041767 1,023073 1,02332
2003 1,804041 1,232061 1,165733 1,144181 1,090128 1,060103 1,053358
2004 2,099048 1,242183 1,146891 1,083727 1,069687 1,035372
2005 1,895311 1,313974 1,189008 1,105492 1,121546
2006 1,866046 1,307261 1,14047 1,108664
2007 2,008785 1,314654 1,192752
2008 1,993108 1,238329
2009 1,957166

Soit le graphe :

Pour le triangle Non General Casualty on obtient les résultats suivants :

Year 1 2 3 4 5 6 7 8 9
2001 2,432055 1,186204 1,051752 1,02735 1,012992 0,993532 1,013436 1,001499 0,998415
2002 2,046003 1,209734 1,043334 1,007075 1,00736 1,00379 0,995375 1,006077
2003 2,476583 1,224315 1,066013 1,034411 1,004465 1,015492 1,002697
2004 2,256369 1,174626 1,054324 1,028801 1,012704 1,011351
2005 2,435226 1,268934 1,099118 1,03542 1,006668
2006 2,227477 1,207792 1,055285 1,025337
2007 2,217175 1,225192 1,058661
2008 2,211388 1,167977
2009 2,212036

91
On constate donc que les données sont très régulières d’une année sur l’autre, et que les
sinistres larges n’impliquent pas ici d’irrégularité dans les facteurs de passage d’une année
de développement à une autre. Nous traiterons donc ces données comme des sinistres
attritionnels, en utilisant des Loss Ratios.

92
iii - ANNEXE : RESULTATS DE L’ESTIMATION DE PARAMETRES POUR LA LIGNE DE
BUSINESS NON GENERAL CASUALTY

Chain Ladder :

Accident Age in months


Year 12 24 36 48 60 72 84 96 108 120 Ultimate
2001 159 590 388 132 460 403 484 230 497 474 503 937 500 677 507 405 508 165 507 360 507 360
2002 179 876 368 027 445 214 464 507 467 794 471 237 473 023 470 835 473 697 491 631 491 631
2003 152 773 378 355 463 226 493 805 510 797 513 077 521 026 522 431 535 168 555 431 555 431
2004 203 510 459 195 539 382 568 683 585 062 592 495 599 220 617 339 632 390 656 333 656 333
2005 203 764 496 211 629 659 692 069 716 582 721 361 762 095 785 138 804 280 834 731 834 731
2006 164 180 365 707 441 698 466 117 477 927 518 370 547 642 564 201 577 956 599 838 599 838
2007 195 857 434 248 532 037 563 247 620 371 672 868 710 864 732 358 750 213 778 618 778 618
2008 219 925 486 339 568 033 664 981 732 423 794 402 839 260 864 637 885 717 919 252 919 252
2009 192 340 425 464 536 747 628 356 692 083 750 648 793 036 817 015 836 934 868 622 868 622
2010 257 103 584 647 737 565 863 448 951 018 1 031 495 1 089 742 1 122 692 1 150 064 1 193 607 1 193 607

Série de données :

2001 2002 2003 2004 2005 2006 2007 2008 2009 2010
75% 57% 45% 49% 66% 49% 64% 75% 71% 92%

Average 64%
St Deviation 15%

Tests d’hypothèse :

Distribution KS Test P-Value AD Test P-Value


Log-Normal 90,77% 94,89%
Normal 93,35% 95,94%
Gamma 91,47% 95,76%
Exponential 0,77% 3,32%

Distributions et paramètres :

93
Estimation Classique
mu sigma
Log Normale
-0,466 0,218
Alpha Beta
Gamma
21,217 0,030
mu sigma
Normale
0,642 0,140
Exponentielle Lambda 0,642

Mesures du risque : (pour rester consistant avec le modèle, nous restons sur les distributions
Gamma et Log-Normale, même si, ici aussi, la loi Normale semble également appropriée)

Distribution Mesure du risque Estimation Classique Estimation Bayesienne


VaR 110,15% 135,46%
Log-Normal
TVaR 110,13% 134,15%
VaR 105,83% 119,79%
Gamma
TVaR 105,84% 117,05%

94
95

Vous aimerez peut-être aussi