Explorer les Livres électroniques
Catégories
Explorer les Livres audio
Catégories
Explorer les Magazines
Catégories
Explorer les Documents
Catégories
Paul Carricano
Master2 Actuariat
Promotion 2011
Modélisation de capital en assurance non-vie: impact de l’estimation de paramètre sur l’exigence de capital.
1
2
RESUME
Dans ce cadre, ce mémoire présente dans un premier temps la modélisation de capital pour
une société d’assurance non-vie et s’intéresse ensuite à l’étude de l’impact de l’estimation de
paramètres sur l’exigence de capital.
Pour cela, nous étudions deux lignes de business dépendantes, dont nous estimons les
paramètres par une approche type Maximum de vraisemblance et une approche
Bayésienne. Nous étudions l’impact de chacune de ces méthodes sur les mesures du risque
ainsi que la convergence des deux méthodes en fonction de la taille de l’échantillon de
données.
Ensuite, nous nous intéressons à la dépendance entre les deux lignes de business, on utilise
ici la théorie des copules, dont nous étudions également différentes méthodes de
paramétrisation, la méthode des moments avec le Tau de Kendall, la méthode CML ou
Canonical Maximum Likelihood et enfin la méthode Bayésienne, dont nous étudions
également la convergence en fonction de la taille de l’échantillon. Nous concluons sur un
calcul simplifié de l’exigence de capital suite à l’utilisation des différentes approches.
3
ABSTRACT
The setting up of the new regulation Solvency II is fixing new rules of calculation for the
solvency margin requirements of insurance companies. Increasingly, insurance companies
are building internal models to simulate their cash flows and calculate the amount of capital
required by regulators.
In this framework, this dissertation describes first the capital modeling for a general
insurance company and then studies the impact of parameter estimation on capital
requirement.
To do that, we study two dependent lines of business, of which we calculate the parameters
by a maximum likelihood approach and a Bayesian approach. We study the impact of each
method on risk measures and the convergence between the two methods varying the size of
the sample of data.
Then, we look at the dependency between the lines of business, we use the copula theory, of
which we calculate the parameters by different approaches, moment’s method with the use
of Kendall’s Tau, the Canonical Maximum Likelihood method and the Bayesian approach, we
also study the convergence of these methods varying the size of the sample. We conclude
on a simplified calculation of the capital requirement considering each of these approaches.
4
NOTE DE SYNTHESE
Un peu plus d’un an avant l’arrivée de Solvabilité II, les règles d’exigence de marge évoluent.
Le calcul de l’exigence de capital se complexifie et de plus en plus d’entreprises sont
amenées à mettre en place un modèle interne pour modéliser leur charges et produits et
ainsi déterminer le montant de capital à détenir pour satisfaire la règlementation. Nous nous
plaçons ici dans le cadre d’une société d’assurance non-vie.
L’inversion du cycle de production implique que les entrées et sorties d’argent d’une
compagnie d’assurance ne sont pas connues à l’avance, la survenance des sinistres par
exemple est aléatoire et il est impossible de connaître exactement le montant des indemnités
à verser. De même, certaines entrées d’argent telle que les commissions de réassurance
dépendent de la sinistralité et ne sont pas nécessairement connues en début d’exercice.
Pour pallier à ce problème, l’entreprise d’assurance est obligée de simuler ses cash-flows
selon des distributions de probabilité au moyen d’un modèle interne. Nous travaillons ici avec
une approche de type Monte-Carlo, c'est-à-dire que nous réalisons un nombre important de
simulation des variables aléatoires afin de prendre en considération toutes les éventualités
possibles.
5
Tous ces éléments sont incertains et font l’objet d’une modélisation dans un modèle interne
et permettent d’obtenir un nombre important de simulations possibles pour le résultat de
l’assureur.
L’exigence de capital est déterminée en appliquant une mesure du risque sur le résultat de
l’assureur, nous utilisons ici la Value at Risk et la Tail Value at Risk.
Pour déterminer le coût de chacun de ces risques, nous utilisons des distributions de
probabilité dont les paramètres sont estimés par des méthodes statistiques.
L’étude est réalisée à partir de triangles de sinistres de l’année 2010, publiés dans le rapport
financier annuel de ACE Group.
Nous étudions dans un premier temps l’estimation des paramètres d’une distribution de
sinistre attritionnels par deux approches, l’estimation classique du maximum de
vraisemblance et l’estimation Bayésienne, et comparons l’impact de ces deux méthodes sur
les mesures du risque. Pour cela, nous réalisons tout d’abord des tests d’adéquation de loi et
utilisons ici les distributions Gamma et Log-Normale pour modéliser les sinistres. Nous
travaillons sur un échantillon de 10 Loss Ratios.
Nous étudions également la convergence entre les deux méthodes d’estimation. Pour cela,
nous nous intéressons à l’écart relatif entre les VaR et TVaR obtenues pour chacune des
estimations, pour un échantillon de taille variable. Il en ressort que l’écart relatif entre les
deux méthodes d’estimation diminue quand la taille de l’échantillon augmente. Cependant,
pour un échantillon de taille réduite, l’estimation Bayésienne peut fortement augmenter la
valeur de l’exigence de capital.
Dans un second temps, nous continuons à travailler sur l’estimation de paramètres mais
nous travaillons cette fois sur la dépendance entre nos deux lignes de business. Pour cela,
6
nous utilisons la théorie des copules, en particulier la copule Gaussienne et la copule de
Gumbel.
Nous étudions ici trois méthodes d’estimation des paramètres des copules, la méthode des
moments avec l’utilisation du Tau de Kendall, l’estimation Canonical Maximum Likelihood
(CML) et l’estimation Bayésienne.
Il en ressort que les trois méthodes d’estimation donnent des résultats significativement
différents, alors que la méthode CML et la méthode des moments nous donne une unique
valeur pour le paramètre de la copule, l’estimation Bayésienne nous fournit toute une
distribution du paramètre de dépendance.
Enfin, nous concluons cette étude en calculant l’exigence de capital pour nos deux lignes de
business, pour les différentes méthodes d’estimation de paramètre présentées ci-dessus.
Pour étudier l’impact de la méthode d’estimation sur l’exigence de capital, nous nous
intéressons à l’écart relatif obtenu pour chacune des méthodes d’estimations.
Il est donc montré dans ce mémoire que l’estimation de paramètre peut avoir un impact
important sur l’exigence de capital, les méthodes prenant en compte l’incertitude
paramétrique ont tendance à augmenter significativement la variabilité des distributions et
donc la valeur des mesures du risque, ce qui obligerait l’assureur à conserver un capital plus
important.
7
SUMMARY OF RESULTS
A bit more than a year before the introduction of Solvency II, the rules on margin
requirements are changing. The calculation of the capital requirement is becoming more
complicated and an increasing number of companies are implementing their own internal
model to model their profit and loss and hence calculate the amount of capital to hold to
respect the regulation. We are working here on non-life insurance frame.
The inversion of the production cycle implies that the incomes and outcomes of money are
not known initially, the claims, for example are happening randomly and it is impossible to
know exactly the amount of money necessary to cover these claims. Moreover, some
incomes like reinsurance commission also depend on claims and cannot be known in the
beginning of the accounting year.
To avoid that problem, an insurance company is obliged to simulate its cash-flows with
probability distributions. We are working here on a Monte-Carlo frame, i.e. we realize a large
number of simulations of the random variables in order to take into consideration all the
possible events.
The capital requirement is calculated from the insurance result, to model it, we need to take
into consideration different important aspects of a non-life insurance company:
8
All of these aspects are uncertain and are to be modeled in an internal model; this gives us a
large number of possible simulations for the insurance result
In the capital modeling frame, the goal of an insurance company is to get the smallest capital
requirement while getting regulators’ approval, because the capital is a huge amount of cash
immobilized.
Capital requirement is calculated by using risk measures on the insurance result, in this
study we use the Value at Risk and the Tail Value at Risk.
To calculate the cost of each of these risks, we use probability distributions which
parameters are estimated by statistical methods.
The goal of this dissertation, after an introduction to capital modeling and internal models, is
to study the impact of parameter estimation on capital requirement. To do that, we study
different paramétrisation methods for two attritional lines of business, we then study the
dependency between those two lines of business and more specifically different
paramétrisation method of the dependency structure.
For this study, we use the 2010 claims loss triangles , published in the financial annual report
of ACE Group.
First, we study the parameter estimation of an attritional claim distribution, we use two
different approaches, the usual maximum likelihood method and the Bayesian estimation, we
then compare the impact of these methods on risk measure. To do that, we first realize
goodness-of-fit tests and chose to work with Gamma and Log-Normal distributions for the
claims. We work here with a sample of ten Loss ratios.
We find that the use of Bayesian estimation increases significantly the value of the risk
measures, for both claims distributions. Also, the use of the Gamma distribution seems to be
better for the insurer than the Log-Normal distribution because the risk measures for the
Gamma distribution are lower than those calculated with the Log-Normal distribution. We
also find that in this study’s frame , the results for the Value at Risk and the Tail Value at Risk
are really similar.
We also study the convergence of these two estimation methods. To do that, we study the
relative difference between the VaR and TVaR calculated with both methods, when the size
of the sample varies. We find that the relative difference between these methods is
significantly decreasing when the sample size increase. However if the size of the sample is
small, the Bayesian estimation can increase consequently the capital requirement.
Secondly, we keep studying parameter estimation, but this time we focus on dependency
structures. To do that, we use copula theory and in particular the Gaussian and Gumbel
Copula.
9
We study three parameter estimation methods for the copulas, moment’s method with the
use of Kendall’s Tau, the Canonical Maximum Likelihood method (CML) and Bayesian
estimation.
We find that the results for these 3 methods are hardly the same. While CML and moment’s
method gives us a unique value for the copula parameter, Bayesian estimation gives us a
complete distribution for the dependency parameter.
We also study the convergence of estimation methods for dependency parameter by varying
the size of the sample. We find that the CML and Bayesian method are converging toward a
similar result when the size of the sample is increasing, for both copulas. However, we can’t
assess of a significant convergence between the moment’s method and the other two when
we limit the sample size to 50 data points.
We conclude this study by calculating the capital requirement for the two dependent lines of
business, considering the different parameter estimation methods introduced previously. To
study the impact of the estimation method on capital requirement, we calculate the relative
difference between each estimation method.
We find that the choice of the parameter estimation method for claims distribution has the
biggest impact on capital requirement which can nearly double when considering the
Bayesian estimation. This result differs by the claim distribution considered, Gamma or Log-
Normal.
The impact of the choice of the parameter estimation for the copula is smaller than for the
claims distribution. For both copulas, the CML method is better than Kendall’s Tau, the
capital requirement being smaller for the CML method. Bayesian estimation gives us a
function of the capital requirement for different values of the dependency parameter; hence
we can appreciate changes in the amount of capital requirement for different values of the
copula parameter.
We show here that parameter estimation can have an important impact of the capital
requirement, methods including parameter uncertainty increase significantly the variability of
the distributions; hence the value of the risk measure, which would oblige the insurers to hold
a larger capital amount.
10
SOMMAIRE
Résumé ................................................................................................................................................................... 3
Abstract ................................................................................................................................................................... 4
Note de Synthèse .................................................................................................................................................... 5
Summary of Results ................................................................................................................................................ 8
Sommaire .............................................................................................................................................................. 11
Introduction & Motivations .................................................................................................................................. 14
Partie I ................................................................................................................................................................... 15
Modélisation de capital ......................................................................................................................................... 15
I- Notion de capital d’une société d’assurance ................................................................................................ 16
II - Généralités sur les modèles Internes ....................................................................................................... 17
III - Mesures du risque ................................................................................................................................... 18
IV - Un compromis Précision/Temps de Calcul .............................................................................................. 20
V- Modèles DFA ............................................................................................................................................ 20
i- Remarque sur les générateurs de nombres aléatoires ............................................................................ 21
ii - Economic Scenario Generator (ESG) ........................................................................................................ 22
iii - Les paramètres d’input ........................................................................................................................ 23
iv - Les principaux risques d’une société d’assurance non vie .................................................................. 24
1- Risque de provisionnement ................................................................................................................. 24
2- Le risque de souscription ..................................................................................................................... 25
3- Le risque de marche ............................................................................................................................ 28
4- Le risque de crédit ............................................................................................................................... 29
5- Le risque opérationnel ......................................................................................................................... 30
6- Corrélation entre les risques ............................................................................................................... 30
v- La réassurance ......................................................................................................................................... 30
VI - Conclusions sur les modèles internes ...................................................................................................... 30
Partie II .................................................................................................................................................................. 32
Estimation de paramètres et sinistralité .............................................................................................................. 32
I- Introduction .................................................................................................................................................. 33
11
1- Motivations.......................................................................................................................................... 34
2- La statistique Bayésienne .................................................................................................................... 35
3- Choix d’une distribution a priori .......................................................................................................... 36
4- L’algorithme ARMS/GIBBS ................................................................................................................... 36
III - Application ............................................................................................................................................... 37
i- Présentation des données ....................................................................................................................... 37
ii - Test d’adéquation de distributions .......................................................................................................... 40
iii - Comparaison des méthodes d’estimation ........................................................................................... 42
iv - Etude de l’influence du nombre de données d’historique .................................................................. 48
IV - Conclusion ................................................................................................................................................ 54
Partie III ................................................................................................................................................................. 56
Estimation et structures de dépendance .............................................................................................................. 56
I- Introduction .................................................................................................................................................. 57
II - Résultat préliminaire ................................................................................................................................ 57
III - Théorie des copules ................................................................................................................................. 58
i- Définitions et propriétés .......................................................................................................................... 59
ii - Quelques exemples de copules ............................................................................................................... 60
1- La copule Gaussienne .......................................................................................................................... 60
2- La copule indépendante ...................................................................................................................... 61
3- Les copules Archimédiennes ............................................................................................................... 61
iii - Estimation des paramètres d’une copule ............................................................................................ 63
1- Le Tau de Kendall ................................................................................................................................. 63
2- Canonical Maximum Likelihood estimation (CML) .............................................................................. 64
3- L’approche Bayésienne ........................................................................................................................ 65
IV - Application ............................................................................................................................................... 66
V- Etude de l’influence du nombre d’années d’historique........................................................................... 69
VI - Exigence de capital................................................................................................................................... 76
VII - Conclusion ................................................................................................................................................ 81
Conclusion ............................................................................................................................................................. 82
Liste des abréviations ............................................................................................................................................ 84
Bibliographie ......................................................................................................................................................... 85
Annexes ................................................................................................................................................................. 86
i- Annexe : Estimateurs du maximum de Vraisemblance ........................................................................... 87
ii - Annexe : Etude de la régularité des données .......................................................................................... 91
iii - Annexe : Résultats de l’estimation de paramètres pour la ligne de business Non General Casualty . 93
12
13
INTRODUCTION & MOTIVATIONS
Une société d’assurance est dans l’obligation de respecter ses engagements envers ses
assurés, dans le cas d’une société d’assurance non-vie, il s’agit le plus souvent de verser
des indemnités à la suite d’un sinistre. L’inversion du cycle de production ainsi que le
caractère aléatoire de la survenance des sinistres, rendent le montant exact des indemnités
à verser inconnu pour l’assureur. Afin d’être capable de faire face à des sinistralités très
importante, les régulateurs imposent aux sociétés d’assurance de disposer d’un capital
économique important. Généralement, cette exigence de capital est sous la forme d’une
Value at Risk (VaR), et implique la nécessité de modéliser ce capital.
Comme nous le verrons plus en détail par la suite, cette modélisation consiste à prendre en
compte à un niveau global les coûts et revenus d’une compagnie d’assurance, même si
ceux-ci sont incertains. Il s’agit donc d’estimer les coûts des différents risques, qui est
aléatoire, on les représente donc généralement par des distributions de probabilités. Il faut
néanmoins estimer les paramètres de ces distributions, pour cela, on utilise des outils
statistiques. Cependant, les méthodes classiques d’estimations ne fournissent pas
nécessairement des résultats optimaux et nous présentons ici différentes approches
d’estimation que l’on comparera en étudiant l’impact sur l’exigence de capital.
Aussi, la dépendance entre les risques est une notion importante à considérer, différentes
structures de dépendance donnent des résultats différents, mais aussi différentes méthodes
de paramétrisation sont possibles, et ont un impact sur l’exigence de capital, que nous
étudierons dans la dernière partie de ce mémoire.
Nous verrons donc tout d’abord une présentation générale de la modélisation de capital et
les différents mécanismes des modèles internes en assurance non-vie, nous étudierons
ensuite l’impact sur l’exigence de capital de l’incertitude paramétrique sur deux séries de
données de sinistres attritionels. Enfin, nous nous pencherons sur l’étude de la dépendance
entre ces deux lignes de business, en comparant l’utilisation de différentes structures de
dépendance et différentes méthodes de paramétrisation.
14
PARTIE I
MODELISATION DE CAPITAL
15
I- NOTION DE CAPITAL D’UNE SOCIETE D ’ASSURANCE
L’activité d’une société d’assurance diffère des normes d’un cycle de production classique,
où l’on paye pour un service qu’on a reçu. Pour une société d’assurance, l’assuré paye une
prime avant d’avoir bénéficié du service de la société, à savoir l’indemnisation d’un ou
plusieurs sinistres pour le cas de l’assurance non vie, on parle d’inversion du cycle de
production. Ceci implique notamment que l’assureur ne connait pas le montant des
prestations qu’il sera amené à verser au court des futurs exercices, ce montant est estimé en
fonction du déroulement des exercices précédents, et le prix des primes d’assurance est
déterminé de façon à pouvoir couvrir les frais et respecter ses engagements envers les
assurés.
Cependant, la survenance des sinistres est aléatoire, et même si les années passées nous
donnent une idée du déroulement de l’année à venir, nul n’est à l’abri d’une sinistralité plus
importante ou de vastes catastrophes naturelles. Face à une sinistralité très importante, les
primes collectées, qui ont été tarifées pour une sinistralité « normale » peuvent être
insuffisantes et l’assureur peut se retrouver en difficulté, un dépôt de bilan d’une société
d’assurance pouvant signifier que des assurés victimes de sinistres ne seraient pas
indemnisés.
Pour minimiser l’éventualité d’une ruine des assureurs et donc pour protéger les assurés,
des réglementations ont été mises en place et des organismes de contrôle sont chargés de
veiller au bon respect de celles-ci. Les sociétés d’assurance sont notamment obligées de
conserver de l’argent pour respecter leurs engagements envers les assurés, les provisions
d’une part, mais aussi un capital économique, qui permet de faire face à l’éventualité où les
provisions seraient insuffisantes. Pour bien appréhender cette notion de capital, une
présentation du bilan simplifié d’une compagnie d’assurance est utile :
Le capital d’une société d’assurance est une importante somme d’argent, plusieurs millions
d’euros, cet argent fait également l’objet de réglementations strictes sur la manière dont il
peut être investi, afin de limiter les risques de marché. Les organismes de régulations
16
imposent une exigence réglementaire pour cette somme d’argent afin que les compagnies
restent solvables. En Angleterre, les sociétés sont tenues de déterminer leur Individual
Capital Assessment (ICA), qui doit faire l’objet d’une modélisation aux moyens d’un modèle
interne. Sous Solvabilité 2, les entreprises seront considérées solvables si elles détiennent
un capital supérieur au Solvency Capital Requirement (SCR), qui peut être déterminé à l’aide
d’une formule standard ou d’un modèle interne. Nous nous intéresserons ici aux modèles
internes.
“Risk measurement system developed by an insurer to analyse its overall risk position, to
quantify risks and to determine the economic capital required to meet those risks”
Comme son nom l’indique, un modèle interne est mis en place au sein d’une compagnie ou
d’un groupe, afin de modéliser et mesurer au mieux les risques auxquels elle fait face. La
mise en place d’un modèle interne est un processus long et complexe, mais celui-ci devient
un outil de management financier au sein de la compagnie d’assurance, il peut servir
plusieurs buts :
Bien sûr, pour répondre à ces questions, il faut garder à l’esprit les objectifs principaux de la
compagnie d’assurance, qui sont généralement de maximiser les dividendes envers les
actionnaires tout en respectant ses engagements envers ses assurés.
Soit X une variable aléatoire qui représente une position financière, on appelle mesure du
risque une fonction telle que quantifie le risque de X.
Il existe un nombre important de mesures du risque, dans le cadre de ce mémoire, nous
nous intéresserons à la Value at Risk, mesure du risque employée dans la plupart des
compagnies et des réglementations, ainsi qu’à la Tail Value at Risk (TVaR), qui est une
mesure du risque qui a l’avantage de vérifier la propriété de cohérence :
Une fonction est une mesure cohérente du risque si pour tout , elle
satisfait les quatre conditions suivantes :
Monotonie : Si alors
Invariance monétaire : ,
Homogénéité positive : ,
Sous additivité :
Remarque :
Dans la littérature, on peut trouver différentes définitions pour les mesures du risque. On
trouve notamment des divergences au niveau de la monotonie et de l’invariance monétaire,
cependant dans le contexte assurantiel du capital, cette définition me parait plus adaptée.
Par exemple, l’invariance monétaire peut être interprétée pour le capital requis par l’ajout
d’une position financière sans risque m qui n’ajoute pas de risque supplémentaire.
18
Définition : Value at Risk
{ |
Ainsi, si X est une distribution de charge de sinistre, la VaR représente une limite, que notre
charge de sinistre n’atteindra ou ne dépassera qu’avec une probabilité . Pour le capital,
l’idée est la même, on souhaite déterminer un montant de capital à détenir pour être capable
de faire face à une situation dont la probabilité d’occurrence vaut ou moins et ainsi éviter
la ruine de la compagnie.
Il faut noter que la Value at Risk n’est pas une mesure du risque cohérente, elle ne vérifie
pas la propriété de sous additivité.
Remarque :
La Tail Value at Risk, notée TVaR, est une mesure du risque cohérente définie par :
[ |
La Tail Value at Risk représente donc la perte moyenne au-delà de la Value at Risk de
niveau (on suppose ici qu’on s’intéresse à la queue de distribution à droite).
Réglementairement, pour l’ICA comme pour le SCR, seule une Value at Risk est exigée, les
compagnies d’assurance se contentent donc généralement de celle-ci, même si son
utilisation est contestable, notamment par le fait que l’hypothèse de sous additivité n’est pas
systématiquement vérifiée. En effet, cette hypothèse, pour une compagnie d’assurance,
signifie que diversification de l’activité, donc de ses risques, ne doit pas augmenter le capital
requis.
19
L’utilisation de la TVaR serait peut-être préférable, mais celle-ci est plus difficile à calculer,
ne donne pas exactement la même information que la VaR, n’est pas exigée par les
organismes de régulation, et est plus exigeante au niveau des ressources informatiques. Elle
est donc rarement utilisée en pratique. Son étude reste cependant intéressante, pour des
considérations de réassurance par exemple.
Pour 10 000 simulations, en supposant que celles-ci sont bien réparties sur l’intervalle de
définition, le calcul d’une TvaR à 99,5% correspond à une moyenne entre les 500 plus
grandes valeurs de l’échantillon de simulations étudié, une moyenne sur 500 valeurs peut
sembler insuffisante au niveau de la précision de l’estimation, notamment si l’échantillon est
composé de valeurs extrêmes, d’où la nécessité d’un grand nombre de simulation.
Bien sûr un nombre trop important de simulations devient techniquement impossible car le
temps d’exécution serait excessif. En pratique, on travaille généralement avec un nombre de
simulation restreint pour s’assurer que le modèle tourne correctement, et on l’augmente
significativement lorsque l’on souhaite étudier les résultats.
De plus, cette optimisation du temps de calcul est d’autant plus importante, que les
organismes de régulation demandent fréquemment des rapports sur l’évolution du capital
requis des compagnies d’assurance, nécessitant un important travail de collecte de données
en amont, ainsi qu’une utilisation importante des systèmes de modélisation de capital.
Dans ce cadre, nous allons maintenant voir plus en détail les modèles internes de type DFA,
afin de mieux appréhender les différentes étapes de la modélisation de capital.
V- MODELES DFA
20
Les modèles DFA représentent une bonne alternative à l’approche de modélisation par
scenarii, en effet, ces modèles consistent en une approche par simulations stochastiques de
type Monte Carlo. Des milliers de scénarii sont générés de manière aléatoire, permettant
ainsi d’étudier toute la distribution des variables désirées, par exemple le résultat de
l’exercice, brut ou net de réassurance, ou le Loss ratio1. Beaucoup de paramètres sont à
prendre en considération dans la construction d’un modèle DFA, nous les verrons un peu
plus en détail par la suite. Voici un schéma simplifié de la structure d’un modèle DFA :
Remarque : ESG signifie Economic Scenario Generator, et est décrit dans la partie (ii)
Par définition des modèles DFA, une génération correcte de nombres aléatoires est
indispensable. Il existe deux grandes familles de générateur de nombres aléatoires :
1
On rappelle que le loss ratio est le ratio sinistres/primes, sont également considérés les loss ratios brut/net de
réassurance et le ratio combiné, incluant ou non les frais.
21
Les générateurs pseudo-aléatoires, où la génération de nombres aléatoires
est basée sur un algorithme déterministe. Le générateur utilisé dans la suite
de ce mémoire est un générateur pseudo-aléatoire, le générateur de
Mersenne Twister.
En pratique, ces générateurs permettent de réaliser des simulations d’une loi uniforme sur
l’intervalle [0;1], les autres distributions de probabilités sont ensuite simulées par inversion
de leur fonction de répartition. En effet, si [ alors suit une loi de
fonction de répartition F. L’inversion de F n’étant pas toujours possible par une formule
fermée, il existe également des méthodes numériques (e.g. Box Müller).
Il faut également prendre en compte la corrélation entre ces variables, qui est souvent
importante, par exemple entre les taux d’intérêts et l’inflation.
Il existe plusieurs moyens de modéliser ces variables, nous traiterons ici brièvement le cas
important des taux d’intérêts.
Il existe plusieurs modèles qui s’intéressent aux taux d’intérêts et qui fait l’objet de recherche
depuis longtemps, nous ne mentionnerons ici que deux exemples, premièrement le modèle
de Vasicek introduit en 1977, où le taux court est défini par :
22
Où est le taux d’intérêt en t, W est un mouvement brownien sous la probabilité risque
neutre, b est le niveau moyen à long terme, a est la vitesse de retour à la moyenne et est
la volatilité instantanée.
Un autre modèle de taux d’intérêt fréquemment utilisé est le modèle de Cox, Ingersoll, Roll,
ou modèle CIR, introduit en 1985 et encore utilisé aujourd’hui, où le taux court est également
modélisé par une équation différentielle stochastique :
( ) √
Pour plus d’informations sur le sujet, le lecteur intéressé peut se référer à la littérature sur le
sujet, pour les modèles CIR, nous avons par exemple : Forward-Backward SDEs and the
CIR model,Cody Blaine Hyndman.
Les paramètres d’input servent à effectuer ensuite les simulations, il faut donc bien entendu
connaître les paramètres et les distributions de nos branches d’activité, pour la sinistralité
(underwriting risk) comme pour le provisionnement (reserving risk).Il faut déterminer la limite
entre sinistres attritionnels et larges, car les sinistres attritionnels sont généralement traités
de manière globale alors que les sinistres larges seront traités par l’approche coût-
fréquence, ce qui mène bien entendu à différentes distributions et paramètres.
Il faut aussi choisir comment décomposer ses branches d’activité, pour un grand groupe, la
question peut se poser par exemple de traiter les sinistres de la branche Accident&Health
(A&H) comme un tout, ou de séparer A&H – France, A&H – UK, etc… ce genre de décision,
notamment la granularité des branches d’activités, aura un impact important sur le temps
d’exécution du modèle. Une telle décomposition aura aussi un impact sur la corrélation entre
les branches d’activité, autre paramètre important d’un modèle interne. Le choix d’une telle
23
décomposition peut être motivé par les traités de réassurance, qu’il faut bien sûr prendre en
considération dans la modélisation, si par exemple la branche A&H – France n’est pas
réassurée à la même hauteur que la branche A&H – UK.
Nous allons maintenant voir les principaux risques pris en compte au sein d’un modèle
interne, et comment ils sont modélisés.
Une société d’assurance fait face à de nombreux risques, d’une importante sinistralité à une
erreur humaine, en passant par le potentiel défaut d’un réassureur. Nous ne traiterons ici
que les principaux risques d’un assureur non-vie, c’est-à-dire ceux qui ont l’impact le plus
important sur l’exigence de capital.
1- RISQUE DE PROVISIONNEMENT
Aussi appelé Reserving Risk, c’est le risque lié à un mauvais provisionnement des
prestations restantes à payer sur les sinistres. Concrètement, les sinistres sont payés sur
plusieurs années, hors les normes comptables sont telles que les sociétés font leurs
comptes sur un exercice d’un an. Les assureurs sont donc dans l’obligation d’établir des
provisions sur les sinistres à payer ainsi que sur les sinistres dits tardif, qui sont survenus à
l’exercice N mais déclarés pendant l’exercice N+ K, K>0.
De par leur spécificités, certaines lignes de business ont des sinistres qui sont indemnisés
rapidement, on parle de branche à déroulement court, et d’autres, comme le dommage aux
personnes où les des complications peuvent apparaître des années après le sinistre, sont
dites à déroulement long.
La méthode du Chain Ladder utilise les paiements cumulé des sinistres des années
antérieures qu’on notera où i désigne l’année de survenance et j l’exercice de
déroulement, si l’on considère une seule ligne de business, les paiements des sinistres sont
de la forme :
24
Illustration 3 : Méthode Chain-Ladder
∑
̂
∑
Cette méthode, simple et intuitive, présente l’inconvénient d’être déterministe, en effet, les
montants cumulés des paiements des années précédentes sont connus et fixes, ainsi les
coefficients multiplicateurs le sont aussi, et les provisions à l’ultime le deviennent aussi. Il
existe cependant des méthodes de provisionnement plus élaborées qui prennent en compte
le caractère aléatoire des provisions de sinistres et les possibles erreurs de paramètre, le
lecteur intéressé pourra se référer aux nombreux articles dans la littérature sur les méthodes
GLM (Generalized Linear Model), ou la méthode de Mack.
2- LE RISQUE DE SOUSCRIPTION
Aussi appelé Underwriting risk, il s’agit du risque de pertes dues à la sinistralité et d’une
mauvaise estimation de celle-ci. La sinistralité de l’année à venir est estimée en fonction des
données connues des années passées. En pratique, on étudie les données passées et on
cherche une distribution de probabilité qui reproduit le mieux les sinistres enregistrés jusque-
là. Les montants des sinistres utilisés pour l’estimation des paramètres d’une distribution
sont traités comme s’ils étaient indépendants. Comme précisé précédemment, les sinistres
attritionnels et larges ne sont pas traités de la même façon.
25
Dans les deux cas, il est nécessaire de récolter les données des coûts des sinistres des
années passées, de les rendre comparables, c’est-à-dire prendre en compte l’inflation d’une
année sur l’autre, l’évolution du nombre de contrats, ou du montant globale des primes. Pour
le cas des sinistres attritionnels, une fois nos données traitées, on estime la moyenne et le
coefficient de variation (CoV) de nos données, généralement par une simple méthode des
moments. On rappelle que le CoV est défini par :
̅ ∑
∑ ̅
∑ ̅
Une fois que la moyenne et le CoV sont connus, on choisit plusieurs distributions que l’on
estime adaptées et on détermine la valeur de leur paramètre à l’aide d’un maximum de
vraisemblance. Il faut ensuite déterminer quelle distribution décrit au mieux l’échantillon de
données, pour cela on utilise des tests d’adéquation de loi, comme le test d’Anderson-
Darling ou le test de Kolmogorov-Smirnov défini ci-dessous :
Soit un n-échantillon d’une loi inconnue P. Soit une loi connue fixée. On
cherche à tester l’hypothèse
26
Les données sont distribuées selon la loi
Contre
: Les données ne sont pas distribuées selon la loi
( ̂) ,| | | |-
On utilise aussi des méthodes graphiques pour déterminer l’adéquation de distribution, par la
suite nous utiliserons la méthode du QQ-Plot :
Définition : QQ-Plot :
QQ-Plot signifie Quantile-Quantile Plot, c’est une méthode de comparaison graphique entre
deux distributions (ou échantillons). Les quantiles de même niveau des deux distributions
sont comparés deux à deux. Le résultat est donc une courbe sur l’intervalle [ , si les
deux distributions/échantillons sont identiquement distribuées alors la courbe quantile-
quantile aura l’allure de la droite y=x, signifiant que les quantiles de même niveau sont égaux
(ou suffisamment proches) deux à deux.
Pour les sinistres attritionnels, le coût des sinistres de toute la branche d’activité est
généralement défini par une distribution Log-Normale. Les distributions Gamma et Normale
sont parfois utilisées. Bien sûr, comme on parle de coût des sinistres, une distribution dont
3
On rappelle que ( ) est l’échantillon ordonné
4
On prend généralement
27
les valeurs sont uniquement positives est plus adaptée, ce qui n’est pas le cas de la loi
Normale.
Pour les sinistres larges, on utilise l’approche coût-fréquence, c'est-à-dire qu’on modélise le
nombre de sinistres et leur coût séparément, les distributions de fréquence les plus utilisées
sont les lois de Poisson, Binomiale et Binomiale Négative. Un simple critère de choix pour
ces distributions est la comparaison de l’espérance et de la variance, en effet on a :
Loi Binomiale : [ [
Loi Poisson : [ [
Loi Binomiale Négative : [ [
Pour la distribution du coût des sinistres dans le cas des sinistres larges, on utilise des
distribution de probabilité dont la queue de distribution à droite est plus large, c’est-à-dire
une distribution dont la probabilité d’obtenir des valeurs extrêmes est plus importante. On
utilise par exemple la loi de Pareto, la loi de Pareto généralisée (GPD) ou la loi GEV
(generalized extreme value distribution).
3- LE RISQUE DE MARCHE
Le risque de marché est le risque de pertes liées aux fluctuations du prix ou de la volatilité du
prix de marché des actifs et des passifs. Il existe un très vaste nombre de produits financier,
qui fluctuent pour diverses raisons, ainsi le risque de marché est une notion assez large,
pour préciser, voici trois risques de marchés auxquels sont sensibles les sociétés
d’assurance :
Le risque de taux : les primes des assurés sont principalement investies dans
des obligations, une hausse des taux se traduit par une baisse du prix des
obligations et un risque de liquidité, alors qu’une baisse des taux entraîne une
hausse du prix des obligations et un risque de réinvestissement.
28
Le risque de variation du prix et de la volatilité des actions : une partie non
négligeable des primes est investie en actions, une baisse du rendement des
actions peut produire une diminution de l’actif de la société d’assurance.
Il est important de noter que pour limiter le risque de marché et protéger les assurés, la
réglementation impose des règles strictes concernant l’investissement des primes des
assurés, les assureurs sont par exemple obligés d’investir la majeure partie des primes dans
des obligations, ils doivent aussi respecter des règles de congruence.
Aussi, le risque de marché est plus important pour les sociétés d’assurance vie, car les
durations des passifs sont plus longues (contrats d’épargne, retraites,…), alors qu’en
assurance non-vie, la plupart des contrats ne durent qu’un an.
4- LE RISQUE DE CREDIT
Le risque de crédit, aussi appelé risque de défaut, est le risque qu’un agent possédant
l’argent qui nous est dû fasse défaut et se retrouve incapable de nous payer. Par exemple si
on achète une obligation d’entreprise, et que celle-ci fait un dépôt de bilan.
Le risque de crédit pour un assureur existe aussi envers les courtiers, qui sont chargés de
réunir assureur et client, et qui au court de la transaction reçoivent la prime du client qu’ils
sont chargés de remettre, net de commission, à l’assureur.
Pour quantifier le risque de crédit, on utilise les ratings des agences de notations, ainsi que
la matrice de transition d’un rating à un autre.
5
i.e l’assureur cédant sa prime au réassureur
29
5- LE RISQUE OPERATIONNEL
Le risque opérationnel est le risque d’une perte lié à une erreur de procédure, une erreur
humaine ou informatique ou tout autre évènement interne. Ce risque est certainement le plus
difficile à quantifier, car non seulement les données sont peu nombreuses, mais le montant
de la perte causée par une erreur opérationnelle est difficile à estimer. La modélisation du
risque opérationnel fait partie des risques à prendre en compte dans la réforme Solvabilité 2.
Pour plus d’informations sur le sujet les lecteurs intéressés pourront se référer à la littérature
sur le sujet6.
Il est important de noter que ces différents risques sont corrélés entre eux, et cette
corrélation a un impact important dans la modélisation de capital.
v- LA REASSURANCE
La réassurance est l’assurance des assureurs, ceux-ci cèdent une partie de leurs primes et
les réassureurs garantissent une prise en charge d’une partie des sinistres en contrepartie.
Les mécanismes de la réassurance ne seront pas détaillés ici par soucis de concision, mais
il existe de nombreux ouvrages sur le sujet dans la littérature.
6
Par exemple le mémoire de Julie Gamonet, Modélisation du risque opérationnel dans l’assurance
30
Un modèle interne est un outil puissant qui simule le fonctionnement d’une compagnie
d’assurance, les informations qui en ressortent, telles que les Loss ratios bruts et nets de
réassurance, le ratio combiné, les informations relatives à chaque ligne de business, le
montant de l’exigence de capital et la part de chaque risque dans ce dernier, permettent de
prendre des décisions stratégique sur l’évolution d’une compagnie d’assurance.
Cependant, il est important de garder à l’esprit que derrière chacun de ces chiffres, il y a des
méthodes d’estimation statistique, qui permettent de déterminer des paramètres sur lesquels
seront basées les simulations du modèle.
31
PARTIE II
ESTIMATION DE PARAMETRES ET
SINISTRALITE
32
I - INTRODUCTION
Comme mentionné précédemment, l’estimation des paramètres est un élément déterminant
de la modélisation de capital, une erreur de paramétrisation peut avoir des répercussions
importantes sur l’exigence de capital. L’objet de cette partie est d’étudier les mécanismes
habituels de paramétrisation, et des comparer leurs résultats avec ceux d’une seconde
approche, l’approche bayésienne.
Pour cela, nous présenterons dans un premier temps les mécanismes et outils nécessaires
pour effectuer cette paramétrisation. Ensuite, nous appliquerons la théorie à la pratique,
avec un exemple de données de sinistres attritionnels. Pour comparer les résultats des deux
méthodes, nous travaillerons avec les deux mesures du risque présentées précédemment,
la Value at Risk et la Tail Value at Risk.
i- LE MAXIMUM DE VRAISEMBLANCE
Soit une variable aléatoire réelle de fonction de répartition dont on veut estimer le
paramètre , on note la fonction de densité de . On appelle vraisemblance de au vu
des observations d’un n-échantillon indépendamment et identiquement distribué
selon la loi la fonction :
Il est également classique de travailler sur la log-vraisemblance pour faciliter les calculs, i.e :
( ) ∑
En pratique, on choisit dans un premier temps les distributions qui pourraient convenir à
notre échantillon, on détermine la valeur de l’estimateur du (ou des) paramètre(s) à l’aide du
maximum de vraisemblance, puis on choisit la distribution qui convient le mieux à l’aide de
tests statistiques tel que le test de Kolmogorov présenté précédemment.
33
Lorsque la résolution analytique de n’est pas possible par une
formule fermée, on a recours à des méthodes numériques pour déterminer la valeur du (des)
paramètre(s), la méthode de Newton-Raphson ou la méthode BFGS (Broyden-Fletcehr-
Goldfarb-Shanno) sont des méthodes numériques courantes et efficaces.
√ ̂ →
0 ( )| 1
Cette propriété est intéressante car elle montre que l’EMV suit asymptotiquement une
distribution Normale, et nous permet donc de prendre en considération toute l’incertitude
autour de l’estimation du paramètre. En pratique cette propriété est peu mise en application,
car la matrice d’information de Fisher n’est pas toujours simple à déterminer. On se contente
généralement de la valeur de l’EMV pour estimer .
ii - L’APPROCHE BAYESIENNE
1- MOTIVATIONS
L’estimateur d’un paramètre d’une distribution est une variable aléatoire. L’utilisation de
méthodes telles que le maximum de vraisemblance nous donne pour un échantillon une
unique valeur estimée de ce paramètre. Or, cette valeur est rarement égale au vrai
paramètre de notre distribution, en effet, en prenant deux échantillons différents (et finis)
simulés par une même distribution, l’estimateur du maximum de vraisemblance (EMV) de
chacun des échantillons sera généralement différent. Il y a donc une erreur d’estimation au
niveau du paramètre, celle-ci peut être d’autant plus importante si la taille de l’échantillon est
réduite, ce qui est souvent le cas en pratique.
34
L’utilisation de la méthode Bayésienne permet d’obtenir toute la distribution des paramètres
étudiés. Cette méthode rend nos simulations plus variables et les quantiles de niveau élevé
sont généralement plus grands que ceux obtenus par un EMV classique.
Pour estimer les paramètres puis simuler une distribution par l’approche Bayésienne, il faut
d’abord réaliser un grand nombre de simulations pour obtenir une distribution des
paramètres, et ensuite il faut pour chaque point de la distribution de ces paramètres simuler
la distribution de notre ligne de business (par exemple). Par conséquent, cette méthode est
beaucoup plus couteuse en ressources qu’un EMV classique.
Les méthodes prenant en compte l’incertitude paramétrique sont déjà utilisées en assurance,
principalement en provisionnement où la méthode du Chain Ladder, déterministe, n’est pas
forcément suffisante. Les méthodes de Mack ou GLM (Generalized Linear Model) permettent
de prendre en compte cette incertitude paramétrique. Cependant, ce type de méthode est
rarement utilisé pour la paramétrisation des distributions de sinistre ou des structures de
dépendance, cette dernière fera l’objet de la 3ème partie de ce mémoire.
2- LA STATISTIQUE BAYESIENNE
On obtient alors :
|
|
|
|
∫ |
L’influence du choix de la distribution a priori sur la distribution a posteriori nous donne une
indication sur la qualité d’information contenue dans l’échantillon de données
Si la distribution a posteriori est très dépendante du choix de la distribution a priori, alors il y
a de fortes chances que les données apportent peu d’information. Au contraire, si la
distribution a posteriori est peu influencée par le choix de la distribution a priori, les données
sont probablement très informatives.
̂ [ | ou ̂ |
Le choix d’une distribution a priori est bien entendu important, puisqu’il influence la
distribution a posteriori. Même s’il est vrai qu’avec un échantillon de données suffisamment
informatif, le choix de la distribution a priori a peu d’importance, ce n’est pas toujours le cas
en pratique. La distribution a priori d’un paramètre inconnu peut être assimilable à un avis
d’expert ou l’expérience. En l’absence d’avis d’expert, on privilégiera une distribution dite non
informative, à savoir une distribution uniforme, ce choix est justifié par le fait que nous
n’avons aucune raison de privilégier, a priori, une distribution à une autre pour notre
paramètre et ainsi on considère que toute l’information sur le paramètre est donnée par
l’échantillon de données.
Dans le cas où l’on choisit une distribution a priori non informative, ce qui sera notre cas par
la suite, on observe le résultat suivant :
| |
Le choix d’une distribution a priori et son impact sur la qualité de l’estimation n’est pas l’objet
de cette étude, par la suite nous travaillerons avec une distribution a priori non informative.
4- L’ALGORITHME ARMS/GIBBS
36
ARMS signifie Adaptive Rejection Metropolis Sampling, c’est une méthode numérique qui
permet de réaliser un échantillon pour toute densité . Pour présenter cette méthode,
commençons par étudier le Rejection Sampling :
Le Rejection Sampling est une méthode pour simuler un échantillon de distribution , pour
cela, on utilise une fonction et une constante tel que pour tout x appartenant au domaine
de définition de , ,on appelle l’enveloppe, on applique l’algorithme
suivant :
L’Adaptive Metropolis Rejection Sampling est une généralisation de l’ARS, puisqu’il est
utilisable pour toute les densités, pas seulement les log-concaves.
III - APPLICATION
Pour étudier la paramétrisation d’une série de données de sinistres, nous allons étudier les
triangles de sinistre publiés en 2010 par ACE, en particulier, nous travaillerons sur deux
triangles, concernant les lignes de business « Insurance Overseas General Casualty7 » et
« Insurance Overseas General Non-Casualty8 », ces données seront étudiées à la manière
7
Regroupe notamment les sinistres de type : General Liability, professional liability, automobile, aviation,
marine and political Risk.
8
Regroupe notamment les sinistres de type : fire, construction, energy exposure.
37
de sinistres attritionnels en travaillant sur des Loss Ratios et l’utilisation de deux lignes de
business permettra d’étudier dans la dernière partie de ce mémoire la dépendance entre
celles-ci.
Nous vérifions donc en annexe que les données sont régulières et qu’elles ne présentent
pas de « sauts » dus à des sinistres larges ou catastrophiques, leur régularité et le fait de
travailler sur des Loss ratio n’aura ainsi pas un impact important sur la qualité de l’estimation
des paramètres des distributions de sinistres.
Ci-dessus est le triangle de paiement des sinistres des années 2001 à 2010 pour la ligne de
business Overseas General Casualty, Overseas signifiant dans ce cas principalement les
marchés Européens et Asiatiques. Avec ce triangle, on a l’assiette de primes suivante (en
milliers de Dollars également) :
38
Net Earned Prem ium
Accident
Year NEP
2001 1 320 052
2002 1 554 300
2003 1 730 028
2004 1 868 962
2005 1 959 267
2006 1 983 600
2007 1 858 292
2008 1 919 275
2009 1 874 608
2010 1 910 465
Pour traiter ces données, il faut prendre en compte plusieurs éléments, tout d’abord, pour
qu’elles soient comparables d’une année sur l’autre, il faut prendre en considération la taille
de l’assiette de prime chaque année. En effet, le coût des sinistres d’une année à l’autre
n’est comparable que si le montant des primes l’est également. Pour cela, nous travaillerons
par la suite sur les Loss ratio de chaque année (nous nous intéresserons dans cette partie
qu’à une seule ligne de business, car le traitement de la seconde est rigoureusement
similaire, les résultats de la seconde ligne de business sont donnés en annexe). Aussi, si l’on
suppose un taux d’inflation constant, il n’est pas nécessaire d’ajuster davantage ces
données9.
9
L’inflation a déjà été prise en considération ici, comme l’atteste cette note :
« Changes in inflation rates distort any reserve analysis based on loss triangles. If expected future inflation is
lower (higher) than historical inflation rates, needed reserves may be overstated (understated) as a result,
and appropriate adjustments should be made. If inflation rates are stable over time, no adjustment may be
required. » Source : Ace Limited 2010 Global Loss Triangles (Disponible sur le site internet de ACE Group)
39
Enfin, pour étudier les charges à l’ultime des sinistres, nous effectuons un traitement des
triangles par la méthode Chain Ladder, les résultats finaux, pour la ligne de business
« Overseas General Casualty » sont présentés ci-dessous :
2001 2002 2003 2004 2005 2006 2007 2008 2009 2010
74% 53% 43% 37% 43% 46% 57% 53% 57% 56%
Il s’agit maintenant, d’étudier cette série de Loss Ratios, et notamment de déterminer quelles
distributions sont les plus adaptées pour modéliser cette série. Pour cela, il faut avant tout
choisir les distributions que l’on souhaite tester, nous choisissons ici des distributions
classiques de la modélisation des sinistres :
Distribution Normale
Distribution Log-Normale
Distribution Gamma
40
Distribution Exponentielle
Pour faire un choix parmi ces distributions, nous utilisons plusieurs méthodes présentées
précédemment, à savoir les tests d’hypothèse ainsi que d’autres méthodes graphiques.
Test de Kolmogorov-Smirnov
Test d’Anderson-Darling
Nous obtenons ainsi les estimations suivantes pour les paramètres de chacune des
distributions :
Pour choisir la loi qui convient le mieux à cette série, nous utilisons les méthodes citées ci-
dessus, on obtient les résultats suivants :
41
Graphique 1 : Graphique 2 :
QQ-Plot pour la distribution Log-Normale QQ-Plot pour la distribution Normale
Graphique 3 : Graphique 4 :
QQ-Plot pour la distribution Gamma QQ-Plot pour la distribution Exponentielle
A première vue, pour les tests d’hypothèse comme pour les QQ-Plots, la distribution
exponentielle ne convient pas, nous ne l’utiliserons donc pas dans la suite de notre étude.
Ensuite, entre les lois Normales, Log-Normales et Gamma, le choix est plus difficile, la loi
Gamma est la meilleure concernant les tests d’hypothèse, mais ceux-ci ne permettent pas
d’affirmer avec certitude que la loi Gamma est la seule qui convient. De plus, les QQ-Plot de
ces trois distributions se valent.
Pour la suite de l’étude, on travaillera avec les lois Gamma et Log-Normale, ce choix est
motivé par le fait qu’une loi Normale peut prendre des valeurs négatives, ce qui est à exclure
dans le cas des Loss Ratios, de plus, même si la loi Gamma est privilégiée par les tests
d’hypothèse, la distribution Log-Normale est la plus souvent utilisée en pratique, nous
conserverons donc les deux, et cela nous permettra de comparer les résultats pour la suite
de l’étude.
42
Estimation Classique
mu sigma
Log Normale
-0,671 0,185
Alpha Beta
Gamma
29,055 0,018
Pour simuler les paramètres avec l’approche Bayésienne, avec une distribution a priori
uniforme, nous faisons le calcul suivant :
( | )
( ) ∏
∑
Ainsi ( ) ∏
( ) ( ) ∑ ∑
Et ainsi :
( ( | )) ( ) ∑ ∑
10
On rappelle que ∫
43
Graphique 5 : Distribution de par l’approche Bayésienne
ALPHA BETA
Moyenne 27,428 Moyenne 0,023
Ecart-type 11,678 Ecart-type 0,010
Min 7,560 Min 0,006
Max 80,737 Max 0,050
Quantile a 0,5% 10,242 Quantile a 0,5% 0,008
Quantile a 1% 10,694 Quantile a 1% 0,008
Quantile a 5% 12,601 Quantile a 5% 0,010
Quantile a 95% 49,764 Quantile a 95% 0,042
Quantile a 99% 63,075 Quantile a 99% 0,048
Quantile a 99,5% 67,862 Quantile a 99,5% 0,049
Remarques :
44
L’estimation classique des paramètres de la distribution Gamma nous donnait les valeurs
Alpha = 29,01 et Beta = 0,018, comme on peut le voir sur les graphiques, ces valeurs
correspondent à des zones de la courbe où la densité est élevée, seulement, on constate
que l’aspect aléatoire d’un estimateur est bien mieux pris en considération dans l’approche
Bayésienne. Les statistiques de chacun des paramètres nous montrent que le niveau moyen
des paramètres estimés ci-dessus est sensiblement différent des valeurs obtenues par EMV,
cette différence est due à l’asymétrie des distributions de chacun des paramètres.
Pour étudier l’impact sur le capital de cette seconde approche, étudions l’évolution des Loss
Ratios après simulation et application de la VaR et TVaR. Pour cela, on simule donc 100 000
valeurs de la distribution Gamma avec les paramètres obtenus par le maximum de
vraisemblance. Pour l’approche Bayésienne, on simule pour chaque couple ( ) une loi
Gamma.
On choisit pour le niveau de la VaR 99,5% qui est le niveau réglementaire et le plus utilisé,
pour choisir le niveau de la TVaR, on fait en sorte que le résultat obtenu par celle-ci soit le
plus proche possible (aussi proche que nous permettent un nombre fini de simulations) de la
valeur de la VaR pour l’estimation par EMV. Pour la loi Gamma, on fait donc une TVaR à
98,50%
On obtient les résultats suivants pour le Loss Ratio de notre ligne de business :
On constate tout d’abord qu’on observe un écart proche de 10% pour la VaR comme pour la
TVaR selon la méthode d’estimation utilisée, l’estimation Bayésienne augmente donc
sensiblement la valeur des mesures du risque. Aussi, on remarque que les résultats de la
TVaR sont légèrement meilleurs que ceux de la VaR. Dans les deux cas, ce résultat peut
avoir un impact important sur l’exigence de capital d’un assureur. Nous nous intéresserons
davantage à cet impact à la fin de ce mémoire.
Afin de confirmer ces résultats, étudions maintenant l’impact sur le Loss Ratio de différentes
méthodes d’estimations, si ceux-ci suivent une distribution Log-Normale.
( )
( | ) ( ) ∏
√
∑( )
( | )
( √ ) ∏
45
Ici encore, on ne reconnait pas de distribution connue pour la distribution à posteriori. Il faut
donc utiliser une nouvelle fois l’algorithme d’ARSM/GIBBS pour déterminer la loi des
paramètres et . On a pour ça besoin de la log-vraisemblance :
( ) ∑. / √ ∑
Et ainsi :
( ( | )) ∑. / √ ∑
Suite à l’application de l’algorithme de GIBBS avec 100 000 simulations, on trouve comme
distributions pour et :
MU SIGMA
Moyenne -0,671 Moyenne 0,304
Ecart-type 0,096 Ecart-type 0,069
Min -0,996 Min 0,127
Max -0,346 Max 0,488
Quantile a 0,5% -0,859 Quantile a 0,5% 0,125
Quantile a 1% -0,839 Quantile a 1% 0,130
Quantile a 5% -0,785 Quantile a 5% 0,148
Quantile a 95% -0,512 Quantile a 95% 0,434
Quantile a 99% -0,436 Quantile a 99% 0,474
Quantile a 99,5% -0,410 Quantile a 99,5% 0,481
Au niveau de leur moyenne, les résultats obtenus par EMV et par l’approche Bayésienne
sont assez proches, par conséquent, cette seconde approche semble tout à fait légitime pour
estimer les paramètres d’une distribution.
On s’intéresse maintenant aux résultats de ces deux approches sur la valeur du Loss Ratio
après une Value at Risk et une Tail Value at Risk. Pour la distribution Log-Normale, le niveau
de la TVaR est fixé à 98,52%. On obtient les résultats suivants :
On constate tout d’abord qu’on trouve des résultats similaires à ceux de la loi Gamma, dans
le sens où le Loss Ratio obtenu par l’approche Bayésienne est bien supérieur à celui obtenu
par l’approche classique.
Les résultats suite à l’estimation classique sont cependant différents, on trouvait une Value
at Risk de 80,2% pour la loi Gamma contre 82,4% pour la loi Log-Normale, la queue de
distribution de la loi Log-Normale semble donc plus épaisse que celle de la loi Gamma, et
l’impact sur la VaR s’en ressent. On retrouve ces mêmes résultats sur l’approche
Bayésienne, qui augmente la variabilité des résultats et donc augmente les valeurs
extrêmes, impactant ainsi les VaR et TVaR.
47
Pour cette même raison, l’écart entre les deux approches est pour la distribution Log-
Normale beaucoup plus important, en effet, on avait environ 14% d’écart pour la loi Gamma
contre plus de 26% pour la loi Log-Normale.
Aussi, il est intéressant de constater que pour les deux distributions, on observe
. Cet exemple à lui seul me semble cependant insuffisant pour conclure ici, il pourrait
être intéressant de vérifier cette observation sur d’autres échantillons avant d’en tirer des
conclusions, le nombre de simulations peut aussi avoir son importance ici.
Ces mêmes résultats pour la deuxième ligne de Business sont donnés en annexe.
On a donc constaté que le choix de la distribution à un impact non négligeable sur la valeur
des mesures du risque. Aussi, l’impact du choix de la méthode d’estimation est tout autant
important. Dans cet exemple précis, le choix d’une distribution Gamma plutôt que Log-
Normale réduit significativement la valeur de la VaR, et donc éventuellement de l’exigence
de capital.
L’incertitude qui réside dans l’estimation de paramètre est principalement due à la quantité
d’information disponible. Pour vérifier ceci, nous allons maintenant étudier l’influence du
nombre de données d’historique.
L’objet est ici de mesurer l’incertitude paramétrique en faisant varier le nombre d’années
d’historique. Pour cela, nous commençons par ajouter un 11ème Loss ratio, que l’on simule à
partir d’une distribution Log-Normale11 (-0,671 ; 0,185), qui sont les paramètres obtenus
précédemment par maximum de vraisemblance.
Nous allons donc vérifier ceci pour nos deux distributions, en s’intéressant à l’écart des VaRs
et TVaRs obtenus par estimation classique et estimation Bayésienne.
Pour la suite de l’étude, nous utiliserons donc comme mesure de l’incertitude l’écart relatif
de la value at risk (respectivement TVaR) du Loss ratio estimé par les deux méthodes
présentées précédemment :
| |
11
Le choix entre une distribution Gamma ou Log-Normale est ici arbitraire
48
2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 2011
74% 53% 43% 37% 43% 46% 57% 53% 57% 56% 58%
Pour rester consistant avec les résultats précédents, nous allons utiliser les mêmes
distributions que précédemment, à titre informatif, voici le résultat des tests d’hypothèse pour
ce nouvel échantillon.
Les mesures du risque sur le Loss ratio obtenues suite à l’estimation des paramètres sont
les suivantes :
On constate sur ce dernier tableau que l’écart relatif pour chacune des mesures du risque a
diminué entre l’estimation de l’échantillon à 10 données et l’échantillon à 11 données. Ce
résultat peut s’interpréter par le fait que l’estimation est plus précise quand le nombre de
données augmente, par conséquent l’incertitude paramétrique diminue.
Les Loss ratios obtenus par l’estimation bayésienne sont ici tous plus grands que ceux
obtenus par estimation classique. Ceux-ci vont donc amener à une exigence de capital plus
importante, ce qui n’est pas l’objectif d’une société d’assurance.
Cependant, au regard d’une telle différence de résultat entre les deux estimations, on peut
se demander si le risque de sinistralité n’est pas sous-estimé dans les sociétés d’assurance.
49
Les sociétés d’assurance n’ont pas intérêt à utiliser cette méthode de leur propre gré,
cependant si les régulateurs estimait qu’il est nécessaire de mieux prendre en compte
l’incertitude paramétrique, les assureurs seraient dans l’obligation d’utiliser de telles
méthodes, c’est déjà le cas en provisionnement où les assureurs doivent prendre en compte
cette incertitude en utilisant des méthodes telles que celle de Mack.
Pour approfondir cette étude, nous allons étudier maintenant ce même écart relatif de
manière plus théorique, nous allons simuler un échantillon de 50 Loss ratios simulé par une
distribution Log-Normale(-0,671 ; 0,185), qui sont les paramètres estimés sur la série initiale,
et nous allons étudier l’écart relatif entre les deux estimations pour chaque taille d’échantillon
de 2 à 50.
Distribution Log-Normale(-0.671,0.185)
Moyenne 51,99%
Ecart-type 9,71%
Min 19,77%
Max 135,49%
Quantile a 0,5% 31,74%
Quantile a 1% 33,22%
Quantile a 5% 37,70%
Quantile a 95% 69,30%
Quantile a 99% 78,61%
Quantile a 99,5% 82,37%
50
Graphique 10 : Densité de la distribution Log-Normale (-0,671 ; 0,185)
Au vu de ces statistiques, on constate que le 24ème Loss Ratio est une valeur extrême de
cette distribution, puisque sa valeur est bien au-delà du quantile à 99,5%, nous verrons par
la suite si cela influe sur notre mesure d’incertitude.
Nous considérons toujours les deux distributions précédentes Gamma et Log-Normale pour
étudier nos deux mesures du risque, la distribution Log-Normale est bien sûr la plus adaptée
puisque l’échantillon a été généré à partir de celle-ci, cependant, comparer les résultats avec
une deuxième distribution permet de montrer une certaine consistance dans ceux-ci, nous
pourrons aussi voir si nous retrouvons des résultats similaires à ceux vu précédemment.
0.
Graphique 11 : Value at Risk en fonction de la taille de l’échantillon
51
Et pour les TVaR :
On constate, tout d’abord que les résultats sont comparables pour les deux mesures du
risque. Aussi, on remarque que les résultats des deux mesures du risque, pour les deux
distributions convergent assez lentement vers un Loss Ratio proche de 80%, sachant que le
quantile à 99,5% de notre distribution vaut 82,37%. Cette convergence aurait pu être plus
rapide mais la valeur extrême obtenue pour le 24ème point de l’échantillon fait varier fortement
les mesures du risque. En pratique, il peut être préférable de ne pas prendre en compte
cette valeur pour l’estimation des paramètres. La variation des mesures du risque aurait pu
être beaucoup plus importante si les premières données de notre échantillon avaient été un
peu plus extrêmes. Ici, les 13 premières valeurs de l’échantillon sont relativement proches de
la moyenne, on observe donc peu de variation avant le 14ème point de l’échantillon.
De plus, on constate que les résultats des deux distributions pour l’estimation par EMV sont
très similaires, et que les résultats obtenus par estimation Bayésienne sont bien plus
variables lorsque la taille de l’échantillon est réduite (inférieure à 10).
Aussi, il faut garder à l’esprit que nous utilisons une distribution a priori non informative, et
qu’ainsi toute l’information sur les paramètres est données par l’échantillon de données, pour
approfondir cette étude, il peut être intéressant d’étudier l’impact du choix de la distribution a
priori sur ces mêmes résultats, par défaut d’information, nous ne pouvons le faire ici.
52
Aussi, intéressons-nous à l’écart relatif entre les deux méthodes d’estimation:
Graphique 13 : Graphique 14 :
Ecart relatif de la VaR Gamma (en rouge) Ecart relatif de la TVaR Gamma (en rouge)
contre la VaR Log-Normale (en bleu) contre la TVaR Log-Normale (en bleu)
Graphique 15 : Graphique 16 :
Ecart relatif de la VaR (en bleu) contre la Ecart relatif de la VaR (en bleu) contre la
TVaR (en rouge) pour la loi Log-Normale TVaR (en rouge) pour la distribution Gamma
Les deux premiers graphes mettent bien en avant le fait que la distribution Log-Normale est
plus sensible à l’utilisation de l’estimation Bayésienne. Pour la loi Gamma, il faut ici 25
données dans l’échantillon pour que l’écart relatif entre les deux méthodes soit inférieur à
5%, pour la loi Log-Normale, il faut 10 données de plus. Quant aux deux graphes suivants,
ils nous permettent de constater que les résultats pour la VaR et TVaR sont très similaires.
Nous n’avons ici travaillé qu’avec une seule simulation de Loss Ratios, pour confirmer ces
résultats, nous répétons les estimations et le calcul des mesures du risque pour 20
53
simulations, et présentons la moyenne des écarts relatifs en fonction de la taille de
l’échantillon. On obtient les résultats suivants :
70%
60%
50%
VaR Log Normale
40%
TVaR Log Normale
30%
VaR Gamma
20%
TVaR Gamma
10%
0%
0 10 20 30 40 50 60
Graphique 17 : Moyenne sur 20 simulations des écarts relatifs des mesures du risques
obtenues par estimation EMV et Bayésienne en fonction de la taille de l’échantillon
Ce graphe montre bien que les deux méthodes d’estimation convergent quand la taille de
l’échantillon augmente, de plus il confirme le fait que la distribution Log-Normale est plus
sensible à l’utilisation de l’approche Bayésienne dans notre cas car l’impact sur la (T)VaR est
bien plus important que pour la distribution Gamma, surtout quand la taille de l’échantillon
est réduite.
Aussi, ce dernier graphe confirme à quel point les résultats d’une mesure du risque à l’autre
sont similaires, on peut en déduire que pour des sinistres attritionnels, le choix d’une mesure
du risque entre VaR et TVaR donne des résultats similaires. En théorie la TVaR est
préférable car c’est une mesure du risque cohérente, en pratique la VaR est plus simple à
implémenter et plus rapide à calculer. Compte tenu de la similitude des résultats entre les
deux mesures du risque, nous ne travaillerons qu’avec la Value at Risk dans la suite de cette
étude.
IV - CONCLUSION
Nous avons vu ici que la manière d’estimer les paramètres d’une distribution peut avoir un
impact important sur le calcul de la Value at Risk ou de la Tail Value at Risk. Parce que
l’estimation classique ne nous donne qu’une valeur fixe pour chacun des paramètres, on
peut se poser la question de savoir si on ne sous-estime pas le risque. Au contraire, on peut
considérer que l’approche Bayésienne rend la distribution trop variable et gonfle le niveau
des valeurs extrêmes.
54
diminue significativement la valeur des mesures du risque étudiées ici, et par conséquent,
l’exigence de capital.
Aussi, nous avons vu que dans le cas de données de sinistres attritionnels, le choix de la
mesure du risque entre VaR et TVaR n’a pas un impact significatif sur les résultats, il pourrait
être intéressant d’étudier cette observation dans le cas de sinistres larges ou
catastrophiques.
Par extension, l’exigence de capital pour cette ligne de business sera également différente
selon la méthode d’estimation. Bien entendu, le problème du calcul de l’exigence de capital
se pose à un niveau plus global pour toute la compagnie d’assurance, il faut prendre en
compte chacune des lignes de business ainsi que la dépendance entre celles-ci. L’étude de
la paramétrisation pour les structures de dépendance fait l’objet de la dernière partie de ce
mémoire, où nous verrons comment différentes méthodes d’estimation ont un impact sur les
VaR et TVaR, pour conclure sur l’impact sur l’exigence de capital.
55
PARTIE III
ESTIMATION ET STRUCTURES DE
DEPENDANCE
56
I - INTRODUCTION
Nous allons utiliser les deux séries de Loss ratios présentées dans la partie précédente et
étudier la dépendance entre celles-ci. Pour ce faire, nous utiliserons la théorie des copules,
structure de dépendance de plus en plus utilisée au sein des modèles internes, et étudierons
différentes méthodes de paramétrisation de celles-ci.
Une fois la dépendance entre les séries établie, nous verrons son impact sur l’exigence de
capital.
II - RESULTAT PRELIMINAIRE
Les séries de Loss ratios qui seront étudiées ici sont les suivantes :
2001 2002 2003 2004 2005 2006 2007 2008 2009 2010
Overseas General Casualty 74% 53% 43% 37% 43% 46% 57% 53% 57% 56%
Overseas non General Casualty 75% 57% 45% 49% 66% 49% 64% 75% 71% 92%
Graphique 18 : Loss Ratios annuels pour les lignes de business General & Non General
Casualty
A première vue les séries semblent corrélées, on a globalement une tendance décroissante
jusqu’en 2004 puis une tendance croissante pour les deux séries. On peut donc penser que
les séries ne sont pas indépendantes. Une première mesure de la dépendance entre ces
57
deux séries est le classique coefficient de corrélation aussi appelé coefficient de corrélation
de Pearson.
Pour deux variables aléatoires X et Y, le coefficient de corrélation de Pearson est défini par :
Pour étudier des échantillons de données de taille n, nous avons les estimations empiriques
suivantes :
̂( ) ∑
Et
̂ ( ) ∑
Ce coefficient est compris entre [-1 ; 1], s’il est positif, les variables aléatoires
(respectivement échantillons) sont positivement corrélés, on parle de co-monotonie lorsque
leur corrélation vaut 1. S’il est négatif, les variables aléatoires sont négativement corrélées
(une valeur relativement élevée de la variable aléatoire X a plus de chance d’être couplée
d’une valeur relativement faible pour Y). Si ce coefficient vaut 0, les variables aléatoires ne
sont pas nécessairement indépendantes, mais si elles sont indépendantes alors leur
corrélation vaut 0.
Nos deux séries de données sont donc fortement positivement corrélées. Cependant, ce
coefficient de corrélation est linéaire, et ne prend pas en considération différent niveau de
corrélation au sein de l’intervalle de définition de chacun des deux échantillons. Par exemple,
il est envisageable que la corrélation au niveau des queues de distributions à gauche ne soit
pas la même que celle au sein des queues de distributions à droite, ou du reste de la
distribution.
58
i- DEFINITIONS ET PROPRIETES
Une copule est une fonction de répartition multi-variée définie sur [ et donc les
marginales sont uniformes sur [ . Elle permet de séparer une loi jointe en loi marginales
et une structure de dépendance.
Définition : Copule
Pour Une copule de dimension d est une fonction définie de [ ] dans [ définie
par :
Propriétés : Copules
est 2-croissante, i.e.
et
Théorème de Sklar :
Soit une distribution jointe avec les lois marginales continues, il existe une unique
copule qui satisfait :
( )
Le théorème de Sklar est la principale raison de considérer les copules comme des
structures de dépendance. L’égalité précédente signifie que la copule permet de lier lois
marginales et la loi jointe de la distribution.
59
On en déduit :
Il existe un nombre important de copule, nous ne décrivons pas ici une liste exhaustive mais
simplement quelques copules assez fréquemment rencontrés.
1- LA COPULE GAUSSIENNE
La copule Gaussienne est définie, pour un couple de variables aléatoires (X,Y) continues ,
par :
( ) ∫ ∫ . /
Graphique 19 : Graphique 20 :
Copule gaussienne pour Copule gaussienne pour
60
Graphique 21 : Copule gaussienne pour
2- LA COPULE INDEPENDANTE
Il s’agit d’une famille de copules qui ont une construction particulière, on appelle le
générateur d’une copule archimédienne. Une copule archimédienne est alors de la forme :
( 0 1 )
Pour .
61
Graphique 23 : Copule de Gumbel pour Graphique 24 : Copule de Gumbel pour
La copule de Gumbel est une copule dite de valeurs extrêmes, on constate en effet que la
dépendance est particulièrement forte pour les quantiles les plus élevés.
(∑ )
Pour .
Tout comme une distribution de probabilité classique, les paramètres d’une copule font
l’objet d’une estimation, et c’est ce qui va nous intéresser ici, quelle est l’impact du choix
d’une certaine technique d’estimation sur une Value at Risk, avec les deux séries de
données présentées précédemment. Pour cela, nous allons utiliser la copule Gaussienne et
la copule de Gumbel.
L’objectif ici n’est pas de déterminer quelle est la copule optimale pour ces séries de
données, pour plus d’information sur le sujet, le lecteur intéressé peut se référer à la
littérature sur le sujet12.
Pour continuer cette étude, présentons donc les outils et méthodes d’estimation des copules.
12
Par exemple le mémoire d’Emilie AUBRON (2009) ou celui d’Esterina MASIELLO (2010) ou encore l’article
Which copula is the right one ? de DURRLEMAN, NIKEGHBALI, RONCALLI(2000)
62
iii - ESTIMATION DES PARAMETRES D’UNE COPULE
L’estimation des paramètres d’une copule n’est pas forcément intuitive, nous présentons ici
plusieurs approches. Nous considérons dans la suite uniquement le cas bidimensionnel.
1- LE TAU DE KENDALL
( ) ( )
∬
[
̂ ∑∑ ( )
̂
̂ ( )
63
d’où ̂
̂
Lorsque la copule qui nous intéresse à deux paramètres à estimer, ce qui n’est pas notre cas
ici, on peut coupler l’utilisation du Tau de Kendall au Rhô de Spearman
Le Rhô de Spearman est défini que le coefficient de corrélation de Pearson mais sur le rang
des données d’un échantillon ordonné, ainsi, il est estimé par :
∑
̂
√∑ ∑
Où sont les rangs respéctifs des valeurs de nos deux échantillons .
En pratique, il nous suffira d’estimer la valeur du taux de Kendall, et d’appliquer les égalités
précédentes pour obtenir une valeur pour de la copule Gaussienne et de la copule de
Gumbel.
La méthode CML évite ce problème en utilisant les quantiles empiriques des distributions
marginales, qui forment alors des distributions uniformes sur [0 ; 1]. Ainsi, il ne reste plus
qu’à estimer les paramètres de la copule. On note ( ) nos deux échantillons de quantiles
empiriques, de dimension .
64
Pour la copule Gaussienne, la log-vraisemblance13 est de la forme :
( ) ∑( ) ∑
Où
( ) ∑. ( ) . ( ) /
.( ) / /
Où
3- L’APPROCHE BAYESIENNE
De la même manière que pour une distribution de sinistres, il est possible d’estimer les
paramètres des copules par l’estimation Bayésienne. La théorie est très similaire, en
travaillant avec une distribution a priori non informative, la distribution a posteriori des
paramètres sachant les échantillons de données est proportionnelle à la vraisemblance de la
copule.
Ici, nous utilisons la même vraisemblance que dans la méthode CML, afin de ne pas avoir à
ré-estimer les paramètres des distributions des deux échantillons.
Les vraisemblances des copules n’étant semblables à aucune distribution classique, nous
devons réutiliser l’algorithme ARMS/GIBBS sur la log-vraisemblance pour obtenir la
distribution à posteriori des paramètres.
13
Pour une preuve de ce résultat le lecteur peut se référer à Song P., Fan Y., Kalbfleisch J. (2006) Estimating
bivariate Gaussian Copula by the means of Maximization by Parts in Likelihood Inference.
14
Des éléments de preuve de ce résultat sont donnés ici :
http://support.sas.com/documentation/cdl/en/etsug/63939/HTML/default/viewer.htm#etsug_copula_sect017
.htm
65
IV - APPLICATION
2001 2002 2003 2004 2005 2006 2007 2008 2009 2010
Overseas General Casualty 74% 53% 43% 37% 43% 46% 57% 53% 57% 56%
Overseas non General Casualty 75% 57% 45% 49% 66% 49% 64% 75% 71% 92%
Comme précisé précédemment, les estimations effectuées par la suite sont indépendantes
de la distribution des Loss Ratios, ainsi, les résultats donnés par la suite sont valables pour
la distribution Gamma et Log-Normale.
Dans un premier temps, nous estimons le Tau de Kendall pour ces deux séries qu’on
appellera X et Y (respectivement General Casualty et non General Casualty) :
̂ ∑∑ ( )
Avec une estimation du Tau de Kendall, on peut estimer les paramètres de chacune des
copules :
̂
̂ ( ) pour la copule Gaussienne.
Pour utiliser la méthode CML, nous devons tout d’abord transformer nos données en
quantiles empiriques :
2001 2002 2003 2004 2005 2006 2007 2008 2009 2010
Overseas General Casualty 74% 53% 43% 37% 43% 46% 57% 53% 57% 56%
Overseas non General Casualty 75% 57% 45% 49% 66% 49% 64% 75% 71% 92%
Rangs General Casualty 10 5 2 1 3 4 9 6 8 7
Rangs non General Casualty 8 4 1 2 6 3 5 9 7 10
Quantiles empiriques General Casualty 0,95 0,45 0,15 0,05 0,25 0,35 0,85 0,55 0,75 0,65
Quantiles empiriques Non General Casualty 0,75 0,35 0,05 0,15 0,55 0,25 0,45 0,85 0,65 0,95
On utilise ensuite la méthode numérique BFGS sur les log-vraisemblances pour déterminer
le maximum de vraisemblance de chacune des copules, on trouve les résultats suivant :
66
On constate déjà que les résultats des deux estimations sont sensiblement différents, la
principale raison est probablement le nombre réduit de données, nous étudierons
l’importance de nombre de données de la même manière que précédemment par la suite.
Enfin, la dernière méthode d’estimation utilisée est l’approche Bayésienne, avec une
distribution a priori non informative, la distribution a posteriori de l’échantillon est
proportionnelle à la vraisemblance, pour déterminer cette distribution nous appliquons
l’algorithme ARMS/GIBBS sur la log-vraisemblance de chacune des copules, on obtient les
résultats suivants :
RHO
Moyenne 0,534
Ecart-type 0,211
Min -0,554
Max 0,918
Quantile a 0,5% -0,189
Quantile a 1% -0,110
Quantile a 5% 0,118
Quantile a 95% 0,794
Quantile a 99% 0,841
Quantile a 99,5% 0,855
On constate ici que la moyenne de ̂ par estimation Bayésienne (ou estimateur de Bayes)
est significativement différente de la valeur obtenue par les deux autres estimations. Au vue
de la courbe de densité, on constate que les valeurs à forte densité sont effectivement aux
alentours de 0,7 (comme l’estimateur CML le montre) mais cette courbe étant fortement
asymétrique, on obtient un niveau moyen assez différent. Il est intéressant de noter aussi
67
que les valeurs extrêmes sur la queue de distribution de gauche peuvent également être
négatives.
BETA
Moyenne 1,674
Ecart-type 0,378
Min 1,000
Max 4,273
Quantile a 0,5% 1,018
Quantile a 1% 1,034
Quantile a 5% 1,130
Quantile a 95% 2,366
Quantile a 99% 2,713
Quantile a 99,5% 2,850
Bien que la fonction de densité soit aussi asymétrique, la moyenne de l’estimateur est cette
fois ci assez proche du résultat des deux estimations précédentes, aussi, on constate que la
distribution du paramètre est bien en accord avec les restrictions spécifiques à la copule
puisque beta ne descend pas en dessous de 1.
Ici, on obtient donc que la dépendance obtenue par estimation CML est moins forte que celle
estimée par le Tau de Kendall pour les deux copules. Comparer directement ces résultats
avec ceux de l’approche Bayésienne est assez délicat, car cette approche nous donne
68
plusieurs valeurs possibles pour les paramètres. Cependant, si l’on s’intéresse à la moyenne
des paramètres on obtient les résultats suivants :
Le Tau de Kendall nous donne une valeur théorique du paramètre de la copule, mais étant
donné que le Tau est lui-même estimé, on ne connait pas directement la vraie valeur du
paramètre. Le seul facteur qui pourrait améliorer cette estimation est ici la taille de
l’échantillon, en effet on peut penser que la qualité de l’estimation sera meilleure si
l’échantillon est plus important, et ce quel que soit la copule étudiée.
De même l’estimation CML et Bayésienne nous donnent des informations en tenant compte
uniquement de l’échantillon. On peut penser que les écarts présents ici sont principalement
dus au manque d’information. En effet, l’estimateur du maximum de vraisemblance pour les
copules vérifie les mêmes propriétés asymptotiques qu’un maximum de vraisemblance
classique, il converge donc vers une distribution normale quand le nombre de données
augmente. On peut penser donc s’attendre à ce que les résultats de ces deux approches
soient de plus en plus proches au fur et à mesure que le nombre de données augmente.
C’est pourquoi, avant de conclure sur l’impact sur l’exigence de capital de chacune de ces
méthodes d’estimation, nous allons étudier l’influence du nombre de données dans
l’estimation des paramètres des copules.
De la même manière que pour les distributions de sinistres, nous allons étudier l’évolution de
l’estimation des structures de dépendance en fonction du nombre de données d’échantillon.
Pour cela, nous utilisons les résultats précédent et simulons deux échantillons de 50 Loss
Ratios de distributions et corrélés
à 64% (selon le coefficient de corrélation de Pearson).
69
Graphique 29 : 2 échantillons de Loss Ratios corrélés à 64%
Remarque : Ces échantillons ont été simulés de telle sorte que leur corrélation soit 64%, cela
signifie que pour n=50, la corrélation est de 64%, cependant cette valeur n’est pas fixe et
varie selon le nombre de données dans l’échantillon. Ainsi, la valeur de l’estimation des
paramètres des copules sera amenée à changer quand le nombre de données variera, on ne
s’intéresse donc pas directement à la valeur des paramètres selon la méthode d’estimation
mais à l’écart relatif entre les valeurs de chacune des estimations.
Pour étudier l’évolution des méthodes d’estimations en fonction du nombre de données dans
l’échantillon, nous allons, pour chaque taille d’échantillon dans l’intervalle {10,…,50} estimer
le Tau de Kendall, qui nous donnera par conséquent une estimation des paramètres des
deux copules. Nous allons en parallèle estimer les paramètres par les méthodes CML et
Bayésienne.
70
Graphique 30 : Corrélation et Tau de Kendall en fonction de la taille de nos échantillons
L’évolution des deux mesures de dépendance est très similaire, on constate également que
le niveau de la corrélation ne reste pas fixé à 64% pour toutes les tailles d’échantillon. Le
Tau de Kendall nous permet d’avoir une valeur pour les paramètres des deux copules pour
chaque point de l’échantillon. Comparons ces résultats avec ceux de l’estimation CML, tout
d’abord pour la copule Gaussienne :
On constate que les deux estimations suivent la même tendance, mais l’écart entre les deux
estimations ne se réduit pas significativement avec le nombre de données qui augmente, au
contraire. Une explication possible est que 50 données ne suffisent pas pour observer une
possible convergence entre les deux méthodes d’estimation. Cependant, dans un contexte
assurantiel, le nombre de données est nécessairement limité et 50 ans d’historique
représente déjà une limite très généreuse.
Quel que soit la taille de l’échantillon, l’estimation CML donne une dépendance plus forte
que celle par le Tau de Kendall, cependant la valeur trouvée précédemment sur nos vrais
Loss Ratio montrait l’inverse, on ne peut donc pas s’avancer d’avantage ici.
71
Etudions maintenant les résultats de l’estimation Bayésienne :
L’estimation Bayésienne nous donnant toute une distribution pour le paramètre, nous
pouvons étudier ici toute la dispersion de ce-dernier grâce aux quantiles, ainsi que son
niveau moyen. Concernant la tendance générale, c’est la même que pour les deux autres
estimations, avec une valeur moyenne légèrement supérieure à 0,6 pour n=50. Concernant
la dispersion, on a une légère amélioration pour les quantiles non extrêmes ( ) au fur
et à mesure que le nombre de données augmente, mais on constate que des valeurs
extrêmes sont toujours présentes. Aussi, l’asymétrie de la distribution de Rhô est bien visible
car la médiane n’est pas souvent en phase avec le niveau moyen.
Une fois encore, on peut penser que le nombre de données est insuffisant pour constater
une réelle convergence, cependant pour l’estimation Bayésienne, le problème des
ressources informatiques se pose en plus, car l’utilisation de l’algorithme ARMS/GIBBS est
lourde.
72
Graphique 33 : Valeurs du Beta de la copule de Gumbel pour le Tau de Kendall et la
méthode CML
Pour la copule de Gumbel, les résultats des deux méthodes d’estimation sont également
assez proches, la convergence des deux méthodes semble plus prononcée ici que pour la
copule Gaussienne, mais il faudrait une taille d’échantillon plus importante pour confirmer
ceci.
Les résultats pour cette copule sont plus intéressants, la tendance et les valeurs du niveau
moyen sont les mêmes que pour les deux autres méthodes d’estimation, et on constate une
vraie amélioration de la dispersion de la distribution du paramètre quand la taille de
l’échantillon augmente.
73
Pour conclure cette étude, comparons l’écart relatif des différentes estimations on prend
comme référence l’estimation CML et on s’intéresse à l’écart relatif entre les méthodes
d’estimation. Pour l’estimation Bayésienne, on s’intéresse ici au niveau moyen de la
distribution du paramètre. Nous définissons l’écart relatif ici comme :
̂ ̂
| | {
̂
Au vue de ces deux graphes, il est difficile de conclure sur la convergence des méthodes du
Tau de Kendall et CML. Mais l’écart relatif entre ces deux estimations est ici toujours
inférieur à 10% en valeur absolu, l’utilisation des deux méthodes semble donc légitime. Un
échantillon de taille plus importante pourrait ici aussi faire une différence.
74
Conclure sur la convergence des méthodes d’estimation en ne s’intéressant qu’à une unique
simulation de Loss Ratio n’est pas satisfaisant. C’est pourquoi nous allons vérifier les
résultats précédents sur plusieurs simulations. Nous répétons les simulations de Loss ratio
et l’estimation de paramètre des copules pour 20 simulations (on se limite ici à 20
simulations pour des raisons de ressources informatiques). Nous obtenons ainsi une
moyenne sur les 20 simulations des écarts des méthodes d’estimation en fonction du
nombre de données dans l’échantillon, on étudie donc la moyenne des écarts :
*̂ ̂ + ∑( ̂ ̂ )
Graphe 37 : Moyenne des écarts relatifs en fonction de la taille de l’échantillon pour la copule
Gaussienne
Graphe 38 : Moyenne des écarts relatifs en fonction de la taille de l’échantillon pour la copule
de Gumbel
75
On remarque que pour la copule Gaussienne, les méthodes d’estimation convergent de
manière assez satisfaisante, même si l’allure de la courbe pour les estimations Kendall et
CML est assez irrégulière. Pour la copule de Gumbel, comme nous l’avions vu
précédemment les méthodes Bayesienne et CML convergent de manière satisfaisante,
cependant, l’allure de la courbe pour les méthodes CML et Kendall est ici très irrégulière,
même si globalement on y observe une tendance décroissante. On peut donc supposer que
toutes les méthodes convergent asymptotiquement, mais pour des tailles d’échantillon
réalistes, le choix de la méthode d’estimation du paramètre de la copule à un impact non
négligeable sur la valeur du paramètre estimé.
En revanche, l’estimation par le Tau de Kendall donne des résultats différents des deux
autres estimations même si, dans l’absolu, les valeurs obtenues pour les paramètres de la
copule sont assez proche, on constate difficilement une convergence des résultats avec les
deux autres méthodes pour une taille d’échantillon inférieure à 50 données.
VI - EXIGENCE DE CAPITAL
Pour conclure cette étude, nous nous intéressons maintenant à l’exigence de capital que
représentent ces deux lignes de business. Pour cela, on définit le résultat net par :
Bien sûr, cette exigence de capital n’est pas vraiment représentative de la réalité, plusieurs
éléments importants ont été omis lors de cette étude, par exemple le rendement des actifs
ou la réassurance. Ce qui nous intéresse ici est surtout de pouvoir comparer l’exigence de
capital obtenue avec les différentes méthodes d’estimations présentée plus tôt.
Il faut cependant déterminer le montant des primes à utiliser pour obtenir le résultat net.
Nous avons les séries de primes suivantes pour nos deux lignes de business :
76
2001 2002 2003 2004 2005 2006 2007 2008 2009 2010
General Casualty 1 320 052 1 554 300 1 730 028 1 868 962 1 959 267 1 983 600 1 858 292 1 919 275 1 874 608 1 910 465
Non General Casualty 678 886 870 016 1 245 235 1 345 421 1 268 038 1 216 999 1 209 883 1 225 760 1 216 608 1 297 551
Pour déterminer une estimation de la prime en 2011, plusieurs méthodes de projection sont
possibles, il est possible d’utiliser des séries temporelles de type ARMA par exemple, par
soucis de simplicité, on utilisera simplement une projection linéaire.
Ainsi on pose :
Projection de la prime
Nos sinistres ont été étudiés sous forme de Loss Ratio, i.e , pour obtenir une
projection de notre résultat net, on calcule donc pour chaque ligne de business :
Soit :
Ici, les seuls éléments aléatoires sont les Loss Ratios corrélés de nos deux lignes de
business, le niveau des primes est fixé, par conséquent les charges le sont aussi. On peut
donc maintenant étudier l’exigence de capital en utilisant une mesure du risque.
Nous allons présenter les résultats pour les distributions de sinistre Gamma et Log-Normale,
pour les méthodes d’estimation EMV et Bayésienne, corrélées avec les copules Gaussienne
et Gumbel, dont les paramètres ont été estimés avec le taux de Kendall, la méthode CML et
Bayésienne. Aussi, à titre indicatif, nous présentons également les résultats ou les deux
lignes de business sont indépendantes et co-monotones.
Pour une distribution de sinistres de loi Log-Normale, on obtient les résultats suivants :
77
Ditribution Log-Normale
Exigence de Capital (en milliers de $)
Maximum de Vraisemblance Estimation Bayésienne
LoBs Indépendents 390 157 800 939
Tau de Kendall 694 631 1 277 508
Copule Gaussienne
CML 681 027 1 243 733
Kendall 768 166 1 397 572
Copule de Gumbel
CML 707 299 1 312 379
LoBs Comonotones 806 145 1 443 754
Distribution Gamma
Exigence de Capital (en milliers de $)
Maximum de Vraisemblance Estimation Bayésienne
LoBs Indépendents 343 391 572 344
Tau de Kendall 610 033 922 403
Copule Gaussienne
CML 574 051 904 743
Kendall 647 202 1 011 900
Copule de Gumbel
CML 620 641 974 763
LoBs Comonotones 685 552 1 056 102
La première chose remarquable, est l’étendue des résultats, l’exigence de capital minimale
est atteinte quand nos deux lignes de business suivent une distribution Gamma dont les
paramètres sont estimés par maximum de vraisemblance et leur dépendance est estimée
par la méthode CML sur la copule Gaussienne, on obtient une exigence de capital de 574,1
millions de dollars. En revanche, si on estime les paramètres de nos distributions de sinistres
selon l’approche Bayésienne, suivant une distribution Log-Normale, dont la dépendance est
appliquée par une copule de Gumbel dont le paramètre est obtenu par le Tau de Kendall, on
trouve une exigence de capital de 1397,6 millions de dollars, soit plus du double.
Pour mieux apprécier l’impact des méthodes d’estimation sur l’exigence de capital,
intéressons-nous aux écarts-relatif, en prenant comme référence des sinistres estimés par
EMV et dont le paramètre de la copule Gaussienne est obtenu par méthode CML :
Ditribution Log-Normale
Ecart Relatif
Maximum de Vraisemblance Estimation Bayésienne
LoBs Indépendents -43% 18%
Tau de Kendall 2% 88%
Copule Gaussienne
CML - 83%
Tau de Kendall 13% 105%
Copule de Gumbel
CML 4% 93%
LoBs Comonotones 18% 112%
Ditribution Gamma
Ecart Relatif
Maximum de Vraisemblance Estimation Bayésienne
LoBs Indépendents -40% 0%
Tau de Kendall 6% 61%
Copule Gaussienne
CML - 58%
Tau de Kendall 13% 76%
Copule de Gumbel
CML 8% 70%
LoBs Comonotones 19% 84%
78
Nous voyons sur les deux tableaux ci-dessus l’importance du choix de la méthode
d’estimation. Le choix de la méthode d’estimation des paramètres des distributions de
sinistre est celui qui a l’impact le plus important sur l’exigence de capital, d’autant plus pour
la distribution Log-Normale. Il faut cependant garder à l’esprit que nous travaillons ici avec
un échantillon d’uniquement 10 données et que nous utilisons une distribution a priori
uniforme dans le cas de l’approche Bayésienne, ces deux éléments ont leur importance dans
la qualité de l’estimation. Ici, cette approche a tendance à rendre les distributions plus
variables et une forte dépendance entre les deux LoBs accentue l’impact sur la VaR. On
remarque par exemple que l’écart entre les deux méthodes d’estimation est plus important
pour des LoBs co-monotones que tous les autres écarts.
Le choix de la copule a aussi son importance, mais celui-ci est moindre que celui de la
distribution des sinistres, le seul écart vraiment significatif par rapport à l’estimation CML de
la copule Gaussienne concerne l’estimation par le Tau de Kendall pour la copule de Gumbel,
aussi, en regardant les résultats de la colonne Maximum de Vraisemblance, on voit que le
choix de la distribution de sinistres a peu d’impact sur l’écart entre les copules. Ce résultat
n’est pas forcément surprenant puisque l’estimation des paramètres de la copule s’est faite
indépendamment de la distribution des sinistres.
Enfin, nous constatons que pour chacune des méthodes d’estimation, les résultats sont
logiquement compris entre le cas des LoBs indépendants et co-monotones.
Les résultats obtenus en estimant les paramètres de la copule par approche Bayésienne ne
sont pas présentés dans les tableaux ci-dessus. En effet, l’estimation Bayésienne nous
donne toute la distribution a posteriori pour les paramètres, soit dans ce cas précis, un
échantillon de 100 000 valeurs, pour chacune des copules.
Pour pallier à ce problème, nous n’allons étudier que certaines valeurs clés de la distribution
des paramètres de dépendances, nous présentons donc les résultats pour les quantiles de
niveau {0,5% ; 5% ; 10% ; … ; 90% ; 95% ; 99,5%}.
Pour plus de lisibilité, l’exigence de capital est présentée sous forme de graphique en
fonction du niveau du quantile pris pour le paramètre des copules, tout en présentant les
résultats obtenus par Tau de Kendall et méthode CML.
79
Gr. 39 :Loi Log-Normale, estimation : EMV Gr.40 : Loi Log-Normale, estimation : Bayésienne
On remarque ici que pour les quantiles les plus faibles de la copule Gaussienne, on obtient
une exigence de capital inférieure à celle obtenue pour des Lobs indépendants. Nous avons
vu plus haut que le rhô de la copule Gaussienne pouvait prendre des valeurs négatives, ce
qui implique une corrélation négative entre les deux lignes de Business. Par conséquent,
l’exigence de capital devient inférieure à celle obtenue pour des LoBs indépendants. Aussi,
pour la copule Gaussienne, le paramètre estimé par approche Bayésienne est au niveau de
celui des deux autres estimations aux alentours du quantile à 65%, pour les quantiles les
plus élevés, on trouve une exigence de capital très proche de celle de LoBs co-monotones.
Gr. 43 : Loi Log-Normale, estimation : EMV Gr. 44 : Loi Log-Normale, estimation : Bayésienne
80
Gr. 45 Loi Gamma, estimation : EMV Gr. 46 : Loi Gamma, estimation : Bayésienne
Pour la copule de Gumbel, on voit que le résultat de l’estimation faite par le Tau de Kendall,
est très proche du résultat des LoBs co-monotones, surtout suite à l’estimation des sinistres
par EMV. La copule de Gumbel ne permet pas de simuler une corrélation négative, c’est
pourquoi l’exigence de capital obtenue par estimation bayésienne est toujours plus grande
que celle de LoBs indépendants. Aussi, la convergence des quantiles élevés vers le résultat
des LoBs co-monotones est plus marquée pour cette copule.
VII - CONCLUSION
Dans cette partie, nous avons vu qu’il existe différents moyens d’estimer les paramètres
d’une copule, la méthode des moments est probablement la plus rapide à réaliser mais elle
n’est pas réalisable pour toutes les copules. La méthode CML utilise une méthode différente
puisqu’il s’agit d’un maximum de vraisemblance. L’approche Bayésienne nous permet
d’appréhender différents niveau de dépendance pour chacune des copules et nous permet
donc d’avoir une exigence de capital qui varie en fonction de niveau de dépendance choisi.
Cette méthode est cependant bien plus lourde à calculer.
Le calcul de l’exigence de capital pour nos deux lignes de business montre que, pour nos
deux copules, la méthode CML donne une exigence plus faible que la méthode du Tau de
Kendall.
Pour l’estimation Bayésienne, l’exigence de capital est égale à celle de la méthode CML au
niveau de la médiane pour la copule de Gumbel, alors que pour la copule Gaussienne,
l’exigence de capital Bayésienne est égale à celle de la méthode CML aux alentours du
quantile à 70% de la distribution estimée du paramètre de la copule.
81
CONCLUSION
Au cours de cette étude, nous avons vu que le choix de la méthode d’estimation à un impact
important sur l’exigence de capital. De manière générale, les méthodes d’estimation
classiques du maximum de vraisemblance donnent au final des exigences de capital
minimales. Le choix de l’estimation Bayésienne est intéressant car elle nous donne plus
d’information sur les paramètres, par exemple une asymétrie de leurs densités, elle est
cependant plus difficile à implémenter et l’impact de cette approche sur la VaR ou la TVaR
est vraiment lourd pour l’assureur. Aussi, nous avons vu que le choix de la distribution des
sinistres a son importance et l’impact sur la VaR peut être important. Bien sûr, il faut garder à
l’esprit que ces résultats sont amplifiés par le fait que nous ne travaillons qu’avec un
échantillon de 10 données, nous avons vu que les deux méthodes d’estimation donnent des
résultats proches lorsque que la taille de l’échantillon de données augmente.
La méthode d’estimation a aussi son importance ici, en effet, nous avons vu que l’approche
la plus simple qu’est la méthode des moments avec l’utilisation du Tau de Kendall n’est pas
forcément la plus favorable pour l’assureur, dans notre cas l’estimation par la méthode
Canonical Maximum Likelihood donne les meilleurs résultats. L’approche Bayésienne est
aussi possible pour les copules, et nous donne également plus d’information sur les
paramètres des copules puisqu’elle nous donne toute une distribution du paramètre, et ainsi,
une fonction du capital en fonction de la valeur du paramètre de la copule. Nous avons
82
également vu que les résultats de l’estimation CML et Bayésienne convergent quand la taille
de l’échantillon de données augmente.
Nous pouvons donc conclure que l’estimation de paramètres à un impact important sur la
modélisation de capital et par extension sur l’exigence réglementaire. L’utilisation de la
théorie Bayésienne est intéressante car elle donne plus d’information et si on se limite à
l’estimateur de Bayes, les résultats de cette approche sont comparables à ceux des
méthodes classiques, mais les valeurs extrêmes sont fortement impactées et l’exigence de
capital a tendance à fortement augmenter, surtout quand la taille de l’échantillon est réduite.
Pour approfondir cette étude, il peut être intéressant d’étudier si on trouve des résultats
comparables pour des sinistres larges et une étude du type cout-fréquence. Aussi, une étude
de l’influence du choix de la distribution a priori dans le cadre de l’approche Bayésienne et
son impact sur les mesures du risque peut être intéressante pour juger de la pertinence de
cette méthode d’estimation.
83
LISTE DES ABRÉVIATIONS
A&H : Accident&Health
ARMS : Adaptive Rejection Metropolis Sampling
ARS : Adaptive Rejection Sampling
BFGS : Broyden-Fletcehr-Goldfarb-Shanno
CML : Canonical Maximum Likelihood
CoV : Coefficient of variation
DFA : Dynamic Financial Analysis
ESG : Economic Scenario Generator
EMV : Estimateur du maximum de vraisemblance
FSA : Financial Services Authority
GEV : Generalized Extreme Value
GLM : Generalized Linear Model
GPD : Generalized Pareto Distribution
IAIA : International association of insurance supervisors
ICA : Individual Capital Assessment
NAV : Net Asset Value
SCR : Solvency Capital Requirement
TVaR : Tail Value at Risk
VaR : Value at Risk
84
BIBLIOGRAPHIE
Borowicz,J & Norman,J (2005). The effects of parameter uncertainty in the extreme event Frequency Severity
model
Borowicz,J & Norman,J (2006). The effect of parameter uncertainty in dependency structure
Dutang, M. N. (2008). Mersenne Twister et translation irrationnelle du Tore : comparaison et mise en oeuvre.
Eling, Parnitzke (2005). Dynamic Financial Analysis : Classification , Conception and Implementation
IAIS (2008). Guidance paper on the use of Internal Models for Regulatory Capital Purposes
Wüthrich,M. (2003). Asymptotic Value-at-Risk Estimates for Sums of Dependent Random Variables
Mémoires d’actuariat :
Agenos X. (2010). Appétit pour le risque et gestion stratégique d’une société d’assurance non-vie
Veber.A (2009). Modélisation de la sinistralité non-vie, aléa sur la détermination des paramètres des lois de
modélisation et impact sur la VaR
http://investors.acegroup.com/phoenix.zhtml?c=100907&p=irol-reportsannual#STS=g76ftr6z.19zv
85
ANNEXES
86
i- ANNEXE : ESTIMATEURS DU MAXIMUM DE VRAISEMBLANCE
∑
( )
En passant à la log-vraisemblance on obtient :
̂ ∑
87
Estimateur du maximum de vraisemblance pour une distribution Normale
∏
√
∑
( )
√
En passant à la log-vraisemblance on obtient :
( √ ) ∑
̂ ∑
̂ ∑
̂ √ ∑
88
Estimateur du maximum de vraisemblance pour une distribution Gamma
∏( )
( ) ∑ ∑
∑
̂
̂
89
Estimateur du maximum de vraisemblance pour une distribution Log-Normale
90
ii - ANNEXE : ETUDE DE LA REGULARITE DES DONNEES
Pour étudier la régularité des données, nous nous intéressons aux facteurs de passage
d’une année à l’autre, en notant le montant payé pour le sinistre survenu en j et au cours
de l’année de développement i, on appelle facteur de passage le ratio :
Year 1 2 3 4 5 6 7 8 9
2001 1,665816 1,198604 1,17953 1,069281 1,053475 1,082366 1,019294 1,02528 1,037862
2002 2,021361 1,252427 1,17355 1,109102 1,093494 1,041767 1,023073 1,02332
2003 1,804041 1,232061 1,165733 1,144181 1,090128 1,060103 1,053358
2004 2,099048 1,242183 1,146891 1,083727 1,069687 1,035372
2005 1,895311 1,313974 1,189008 1,105492 1,121546
2006 1,866046 1,307261 1,14047 1,108664
2007 2,008785 1,314654 1,192752
2008 1,993108 1,238329
2009 1,957166
Soit le graphe :
Year 1 2 3 4 5 6 7 8 9
2001 2,432055 1,186204 1,051752 1,02735 1,012992 0,993532 1,013436 1,001499 0,998415
2002 2,046003 1,209734 1,043334 1,007075 1,00736 1,00379 0,995375 1,006077
2003 2,476583 1,224315 1,066013 1,034411 1,004465 1,015492 1,002697
2004 2,256369 1,174626 1,054324 1,028801 1,012704 1,011351
2005 2,435226 1,268934 1,099118 1,03542 1,006668
2006 2,227477 1,207792 1,055285 1,025337
2007 2,217175 1,225192 1,058661
2008 2,211388 1,167977
2009 2,212036
91
On constate donc que les données sont très régulières d’une année sur l’autre, et que les
sinistres larges n’impliquent pas ici d’irrégularité dans les facteurs de passage d’une année
de développement à une autre. Nous traiterons donc ces données comme des sinistres
attritionnels, en utilisant des Loss Ratios.
92
iii - ANNEXE : RESULTATS DE L’ESTIMATION DE PARAMETRES POUR LA LIGNE DE
BUSINESS NON GENERAL CASUALTY
Chain Ladder :
Série de données :
2001 2002 2003 2004 2005 2006 2007 2008 2009 2010
75% 57% 45% 49% 66% 49% 64% 75% 71% 92%
Average 64%
St Deviation 15%
Tests d’hypothèse :
Distributions et paramètres :
93
Estimation Classique
mu sigma
Log Normale
-0,466 0,218
Alpha Beta
Gamma
21,217 0,030
mu sigma
Normale
0,642 0,140
Exponentielle Lambda 0,642
Mesures du risque : (pour rester consistant avec le modèle, nous restons sur les distributions
Gamma et Log-Normale, même si, ici aussi, la loi Normale semble également appropriée)
94
95