Académique Documents
Professionnel Documents
Culture Documents
Autorisation de publication et de
mise en ligne sur un site de
diffusion de documents actuariels
(après expiration de l’éventuel délai de
confidentialité)
Signature du candidat :
Bibliothèque :
Mots clés : Inondation, Vulnérabilité, Catastrophes naturelles, Machine Learning, GLM, GBM,
GAM, Taux de destruction, Réassurance non-vie, AEP, OEP, Période de retour, Création de valeur
Depuis quelques décennies, les catastrophes naturelles n’ont cessé de prendre de l’importance à travers le monde,
faisant ainsi de plus en plus de morts et de dégâts matériels. Compte tenu de cet impact grandissant, leur mutuali-
sation via l’assurance est indispensable.
Cependant, les assureurs ne pouvant faire face à des pertes financières hautement volatiles, se trouvent contraints de
s’assurer à leur tour à un niveau supérieur de mutualisation, c’est-à-dire de se réassurer.
Il est alors crucial de pouvoir quantifier ces risques et donc de disposer d’un modèle mathématique dit modèle
Catastrophe ou modèle CAT.
Ce mémoire s’inscrit dans cette démarche en proposant de modéliser le risque d’inondation pour le portefeuille d’As-
surance non-vie d’AXA France sur le territoire de la France métropolitaine d’une part et d’autre part d’implémenter
le processus de modélisation à travers une architecture de calcul rapide et efficiente permettant ainsi d’obtenir des
résultats applicables dans le monde de la Réassurance en un temps de calcul raisonnable.
L’ensemble des données figurant dans ce mémoire ayant été modifiées, il est suggéré au lecteur d’apprécier la
pertinence de la démarche, plus que les résultats chiffrés.
Abstract
Key words : Flood, Vulnerability, Natural disaster, Machine Learning, GLM, GBM, GAM, Des-
truction rate, Non-Life Reinsurance, AEP, OEP, Return period, Value creation
Over the past few decades, the impact of natural disasters has become more and more important around the
world, causing increasing amount of deaths and material damage. Given this growing impact, it is necessary to mu-
tualize this risk through insurance.
However, insurers cannot face financial losses with large volatility, they are forced to insure themselves in a higher
level of mutualization : Reinsurance.
Consequently, it is important to have the ability to assess the underlying risks and the modality of their cession
with use of what we call a catastrophe model or CAT model.
This paper aims on one hand at building a Flood model for AXA France non-life portfolio in Metropolitan France
and on the other hand at efficiently implementing this model trough a new calculation architecture which enables us
to get outputs in a very short calculation time.
All the sensible information used or produced in this work has been changed. We thus advise the reader to focus
on the methodology adopted, and not the numerical results.
Note de Synthèse
La quantification des risques liés aux phénomènes CAT constitue un enjeu crucial puisque ces évènements sont
par nature très peu fréquents fournissant alors un échantillon de données bien trop faible pour appliquer des mé-
thodes statistiques classiques. Il est donc nécessaire pour l’assureur, pour modéliser ces risques, de mettre en place
des modèles complexes appelés modèles CAT permettant de modéliser le phénomène physique sous-jacent à l’origine
des catastrophes naturelles et non pas son seul impact financier.
L’objectif principal de ce mémoire est de participer au développement du modèle France Inondation, qui comme
son nom l’indique, permet de quantifier le risque réel d’inondation sur le territoire de la France métropolitaine.
Ensuite, un certain nombre d’applications seront exhibées afin de démontrer l’utilité d’un modèle CAT performant
et précis.
2. Démarche de résolution
2.1 Structure du mémoire
Le mémoire débute par l’étude du risque Assurantiel lié aux catastrophes naturelles, de son assurabilité et de sa
spécificité puis présente le fonctionnement d’un modèle CAT dans un cadre général puis plus spécifiquement pour le
péril Inondation.
Par une approche modulaire, un modèle CAT permet donc de quantifier le risque réel d’un portefeuille en dé-
composant l’estimation de ce risque complexe en différentes composantes que sont : l’exposition géographique, l’aléa
physique, la vulnérabilité et les conditions financières du bien assuré.
Dans une seconde partie, nous proposons de développer le module vulnérabilité, véritable pierre angulaire du modèle
permettant d’associer une perte financière à une valeur d’aléa donnée, du modèle Inondation et ceci par le biais de :
— méthodes statistiques classiques quand nous disposons d’un historique de sinistralité suffisamment important
et de bonne qualité.
— par des approches dites a priori quand l’historique de sinistres pour certaines branches d’activité n’est pas
suffisamment fiable ou d’une profondeur insuffisante.
L’approche par « dires d’experts » résulte d’une étroite collaboration entre l’équipe d’AXA Global P&C et AXA Ma-
trix, filiale du groupe AXA spécialisée dans la réalisation d’études d’ingénierie permettant d’analyser la vulnérabilité
physique de certains types de bâtiments face à des conditions extrêmes.
1
Figure 1 – Schéma : Structure d’un modèle CAT
La question centrale de l’implémentation du modèle CAT est étudiée dans la troisième partie.
Nous faisons le choix de nous rapprocher de l’initiative OASIS, consortium de partenaires publiques et privés euro-
péen ayant pour objectif d’améliorer la modélisation des risques CAT et d’augmenter la transparence des modèles
CAT vendeurs jugés souvent trop obscurs en proposant un coeur de calcul en C++ en libre-accès permettant une
accélération considérable des temps de calcul.
A partir de ce coeur de calcul et de différents développements informatiques, nous mettons en place une architecture
de calcul distribué et parallèle nous permettant d’obtenir une distribution de pertes annuelles pour le portefeuille
non-vie d’AXA France en un temps de calcul raisonnable.
Les applications de ces résultats sont alors tout aussi nombreuses que variées : sur le plan opérationnel, nous pou-
vons alors produire des cartes de risques mettant en lumière les zones du territoire présentant un risque accru pour
l’assureur malgré une sinistralité historique faible ou même inexistante.
Sur le plan réglementaire, le modèle interne CAT permet de déterminer la perte à horizon deux cents ans et donc de
déterminer le montant de fonds propres nécessaires à l’assureur pour continuer à exercer son activité.
Enfin, sur le plan de la Réassurance, ces résultats nous permettent dans la dernière partie de tarifer n’importe
quelle structure de réassurance CAT non-proportionnelle (CATXL) dont le sous-jacent est le portefeuille d’AXA
France. A l’aide de l’optimisation d’un critère objectif que constitue la notion de Création de valeur, nous proposons
par ailleurs une démarche pour la détermination d’un traité « optimal » devant l’ensemble des traités possibles.
2
Le processus de calibration peut être résumé dans la figure ci-dessous :
Pour chaque branche d’activité, nous essayons d’identifier les facteurs ayant une influence significative sur le risque
CAT, que ces facteurs soient internes au contrat (Appartement en étage ou non, assuré locataire ou propriétaire,
nombre de pièce du bien etc.) ou externes nécessitant alors du feature engineering pour récolter de l’information.
De plus, l’analyse de la base sinistre met en évidence une importante volatilité des taux de destruction entre évène-
ments pour des sites à la vulnérabilité a priori similaire.
Pour capturer cet effet, nous générons une volatilité supplémentaire sur nos estimations par l’implémentation d’un
event volatility factor.
Formellement, c’est un coefficient qui suit une loi log-normale centrée en 1 et dont l’écart-type dépend de la branche
d’activité qui va venir venir « chocker » les taux de destruction déterminés auparavant.
Ce facteur est souvent aussi appelé coefficient de variation (CoV ).
Ce coefficient a été estimé sur les données sinistres et est défini par :
σ
Cov =
µ
où σ est l’écart-type and µ la moyenne de la perte.
Nous pouvons représenter dans la page suivante la courbe de Lorenz de l’ensemble des modèles testés (GBM brut et
GLM retraité) pour la modélisation du taux de destruction pour les sites dans une empreinte inondation.
Il est important de noter que suite à notre modélisation du taux de destruction, nous ne retenons pas la hauteur d’eau
comme un facteur explicatif dans notre modèle de taux de destruction ce qui peut paraître quelque peu contre-intuitif.
Cependant, celle-ci apparaît comme étant la principale variable explicative pour la fréquence de sinistre.
3
Figure 3 – Graphique : Courbe de Lorenz des différents modèles testés
Aussi, pour la fréquence de sinistre, nous ne proposons pas de modèle statistique faute de données suffisamment
fiables mais proposons une méthode pour la déterminer en considérant que les trois principales variables explicatives
sont la branche d’activité, la hauteur d’eau et la zone de risque considérée.
Figure 4 – AEP & OEP en échelle log Figure 5 – AEP & OEP en échelle standard
4
Nous constatons par ailleurs que les deux courbes tendent à converger pour des périodes de retour très fortes met-
tant en lumière le fait que les pertes extrêmes sont induites par un unique évènement plutôt que par une multitude
d’évènements d’intensité inférieure.
Pour des raisons de confidentialité, nous avons choisi de normaliser les pertes par les sommes assurées. Nous avons
donc des courbes donnant les valeurs des taux de destructions suivant les différentes périodes de retour.
Il nous est ainsi particulièrement aisée d’établir le SCR CAT (sous l’hypothèse que le seul risque CAT est le risque
inondations) en allant chercher la valeur du taux de destruction pour la période de retour 200 ans de l’OEP.
A la suite des nombreux chocs appliqués sur nos paramètres de vulnérabilités ou d’exposition, nous évaluons
l’impact de ces changements sur le calcul du SCR à 17.5%.
5
3.4 Construction de cartes de risques
Le modèle CAT permet de construire des cartes de risques ayant une utilité évidente pour des souscripteurs soucieux
de savoir si les biens qu’ils souhaitent assurer se trouve dans des zones à risques.
A l’aide du modèle CAT, nous pouvons construire deux types de cartes de risques :
— Une carte de risques basée sur le module Aléa et présentant les zones les plus risquées vis à vis de la vulnérabilité
physique sans tenir compte de la réalité du portefeuille.
— Une carte de risque basée sur les pertes générées par le modèle tenant ainsi compte de l’exposition du porte-
feuille, de la vulnérabilité et des conditions financières.
Bien qu’AXA France dispose d’un portefeuille bien diversifié géographiquement, les deux cartes diffèrent quelque
peu.
Ci-dessous, nous donnons un aperçu d’une carte de risque de la première catégorie où la zone est considérée comme
plus risquée lorsque la teinte de bleu est plus foncée.
Bien que la prime pure reste relativement aisée à déterminer à partir du moment où nous disposons des sorties du
modèle CAT, la problématique dans la détermination du coefficient de chargement est souvent délicate.
Dans ce mémoire, nous considérons un chargement égal à 15% de l’écart-type de la distribution de pertes et 10%
supplémentaires pour les frais de gestion.
Ci-dessous, nous pouvons par ailleurs représenter la fonction de répartition de pertes de la cédante (en rouge) et du
réassureur (en bleu) en cas de traités 100XS100.
6
Figure 8 – Graphique : Distribution de pertes de la cédante et du réassureur
Enfin, nous finissons ce mémoire par aborder la notion de création de valeur permettant de choisir le traité le plus
intéressant pour l’assureur parmi l’ensemble des traités envisagés et définie comme la différence entre le gain apporté
par la structure de réassurance en termes de fonds propres (valeur positive) et le coût moyen de la réassurance (
valeur négative).
Pour y arriver, nous cherchons donc un maximiser ce score sur l’ensemble des traités possibles et produisons la
heatmap suivante concluant ainsi que dans cette situation le traité optimal est un traité 200XS150.
7
Executive Summary
Most risks taken by insurers can be statistically modeled with good confidence levels, thanks to their large loss
databases. But, with their low frequency, natural disasters have too few data points for insurers and reinsurers to
afford these classical methods. A different approach is needed, where the physical phenomenon is modeled, rather
than only its financial impact.
The main objective of this paper is to contribute to the France Flood model development which assesses flood
risks in metropolitan France. Then, a large number of applications will be shown to demonstrate the utility of a
powerful and accurate CAT model.
2. Solving approach
2.1 Study framework
This paper begins by studying the insurance environment related to natural disasters, its specificity, and then pre-
sents the general framework of a CAT model and more specifically for Flood peril.
By using a modular approach, a CAT model allows to assess the real risk of a portfolio by decomposing this complex
risk into different components : geographic exposure, physical hazard, vulnerability and financial conditions of the
insured property.
In a second part, we propose to develop the vulnerability module, the cornerstone of the model, allowing to as-
sociate a loss to a given physical value by means of :
— Statistical methods when we have a sufficiently large and good quality claims experience.
— An approach called Expert judgement when the claims experience for some lines of business is not sufficiently
reliable or of insufficient depth.
The « expert judgement » approach is the result of a close collaboration between AXA Global P&C and AXA Matrix,
a subsidiary of AXA group specialising, among other things, in the analysis of the physical vulnerability of certain
types of buildings in the face of extreme conditions.
8
Figure 10 – CAT Model framework
The central question of CAT model implementation is studied in the third part.
We are making the decision to move closer to the OASIS initiative, a consortium of European public and private
partners with the objective of improving CAT modeling and increasing the transparency of CAT models often consi-
dered too obscure, by proposing a particularly optimised C ++ computing core which considerably decreases the
computation time.
From this core of computing and from various computer developments, we set up a high performance computing
(HPC) architecture allowing us to get an annual loss distribution for AXA France’s non-life portfolio within a reaso-
nable computation time.
The applications of these results are wide : operationally, we can produce risk maps highlighting areas of the territory
presenting a major risk for the insurer despite a weak historical loss.
From a regulatory perspective, the CAT model makes it possible to determine a two hundred year return period loss
and therefore to determine the amount of capital necessary for the insurer to continue its operations.
Finally, from a Reinsurance perspective, these results allow us to price a reinsurance treaty CATXL under different
assumptions.
Using the optimization of an objective criterion that constitutes the notion of Value creation, we propose an approach
for the determination of an « optimal » treaty among all the possible treaties.
9
The calibration process can be summarized in the following figure :
For each line of business, we try to identify the factors having a significant influence on the CAT risk, whether these
factors are internal to the insured policy (floor level, insured renter or owner, number of room of the property etc.)
or externally requiring feature engineering to gather information.
Looking at the historical destruction rates, we notice a large volatility of destruction rates between events.
To capture this effect, we generate extra volatility. To do so, we implemented an “event volatility” factor.
It is formally a coefficient drawn using a log-normal distribution (centered in 1), modeling the distance to the
average behavior. It is usually called a coefficient of variation (CoV).
Such CoV was estimated on the empirical data and is as a reminder defined as
σ
Cov =
µ
where σ is the standard deviation and µ the average of a random variable.
We can represent in the next page the Lorenz curve of all tested models (gross GBM and modified GLM) for
the destruction rate modeling.
It is important that following our destruction rate modeling, we do not retain the height of water as an explanatory
factor, which may seem somewhat counter-intuitive.
However, this appears as the main driver of the claim frequency.
10
Figure 12 – Lorenz curve for all tested models
Thus, for the frequency, we do not propose a statistical model due to a lack of reliable data but we propose an
approach for computing it by considering that there is only three main explanatory features : the line of business,
the height of water and the area of risk considered.
Figure 13 – AEP & OEP in log scale Figure 14 – AEP & OEP in linear scale
11
An EP curve illustrates the probability of any given financial loss being exceeded. It can be used in one of two ways :
provided with a financial loss the EP curve could be read to give you the probability of this loss (or a greater loss)
occurring ; or alternatively provided with a probability level the EP curve could be read to show you the financial
loss level that this corresponds to.
AEP and OEP can be used in tandem to assist with managing exposure to both single large events, and saccu-
mulations of multiple events across a period.
We also observe that the two curves tend to converge for very long return periods, highlighting the fact that the
extreme losses are induced by a single event rather than by a multitude of events.
For confidentiality, we have chosen to normalize the losses by insured sums. Our curves therefore represent the
destruction rate according to return period. It is thus particularly easy for us to compute the CAT SCR (under the
assumption that the only CAT risk is flood) by seeking the value of the destruction rate for the 200-year return
period of the OEP.
Thus, we evaluate the impact of these changes on the SCR computation at 17.5%
12
3.4 Risk maps construction
Moreover, CAT model makes it possible to build risk maps that have an obvious utility for underwriters wishing to
know if a specific insured property is located in risk zones.
Using the NAT CAT model, we can build two types of risk maps :
— A risk map based on the Hazard module and representing the most risky zones vis-à-vis the hazard vulnerabity
and not taking into account exposure portfolio.
— A risk map based on the losses generated by the model taking into account the portfolio’s exposure, Vulnera-
bility parameters and financial conditions.
Although AXA France has a portfolio that is well diversified geographically, the two maps somewhat differ.
Below, we give an overview of a risk map of the first category where the zone is considered riskier for darker shades
of blue.
Although the pure premium remains relatively easy to compute from the CAT model outputs, the determination of
the loading coefficient is often delicate.
In this paper, we consider a loading that is equal to 15% of the standard deviation of the loss distribution and 10%
additional fees for management fees.
In the next page, we have represented the loss distribution of the insurer (in red) and the reinsurer (in red) with a
100XS100 CATXL.
13
Figure 17 – Loss distribution for the insurer and reinsurer
We conclude this thesis by talking about the concept of value creation, making it possible to choose the most inter-
esting treaty for the insurer from among all the treaties tested and defined as the difference between the reinsurance
structure’s gain in terms of equity (positive value) and the average cost of reinsurance (negative value).
14
Remerciements
Ce mémoire est l’aboutissement de mes études et restitue le travail d’une année au sein de l’équipe Actuariat
Réassurance d’Axa Global P&C.
Avant toute chose, je tiens à remercier François Bourgin et Jérôme Crétien mes tuteurs en entreprise pour leur
encadrement, leur relectures attentives et leurs conseils.
Je remercie aussi Simon Blaquière qui m’a permis de réaliser ce projet de fin d’études autour d’une problématique
passionnante, et qui m’a fait bénéficier de son expérience et de ses conseils.
Je remercie également l’ensemble d’AXA Global P&C, en particulier l’équipe Actuariat Réassurance, pour leur accueil
et leur disponibilité durant toute la durée de mon alternance.
Je souhaite enfin remercier mon entourage, qui de près ou de loin, a su m’apporter sa confiance et son soutien.
15
Table des matières
Introduction 2
16
3.3.3 AEP et OEP du modèle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
3.3.4 OEP et prime pure par mois . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
3.3.5 Contribution des différentes branches d’activité à l’AEP . . . . . . . . . . . . . . . . . . . . . 65
3.3.6 Contribution de l’OEP dans l’AEP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
3.3.7 Calcul de la TVAR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
3.3.8 Sensibilité du modèle aux paramètres de vulnérabilité . . . . . . . . . . . . . . . . . . . . . . . 68
3.4 Construction de cartes de risques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
3.5 Reproduction de la crue Paris 1910 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
4 Applications en Réassurance 72
4.1 Concepts généraux et utilité de la Réassurance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
4.1.1 L’utilité de la Réassurance comme outil de Risk Management . . . . . . . . . . . . . . . . . . . 73
4.1.2 La Réassurance Proportionelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
4.1.3 La Réassurance Non-Proportionelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
4.1.4 La notion de reconstitutions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
4.1.5 La Réassurance du risque Catastrophe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
4.2 Tarification d’un traité classique de Réassurance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
4.2.1 Calcul de la prime pure . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
4.3 Optimisation de la réassurance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
4.3.1 Définition du coût de réassurance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
4.3.2 Impact sur le capital immobilisé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
4.3.3 Détermination du traité optimal dans un cas simple . . . . . . . . . . . . . . . . . . . . . . . . 87
Conclusion 90
Bibliographie 96
Introduction
La question centrale de la modélisation des catastrophes naturelles est à l’origine de nombreuses publications cher-
chant à quantifier les risques sous-jacents à ces phénomènes particulièrement complexes. Dans les régions longtemps
épargnées par des évènements catastrophiques, le risque émanant des périls naturels est généralement sous-estimé.
Pour éviter de telles erreurs d’appréciation, le secteur de l’assurance utilise aujourd’hui des modèles mathématiques
afin d’établir une estimation réaliste du risque fondé sur les dernières découvertes scientifiques.
En raison de la complexité de ces modèles et de l’investissement qu’ils représentent, la plupart des compagnies
d’assurance et de réassurance utilisent des modèles conçus par des sociétés externes, les trois principales étant Risk
Management Solutions (RMS), AIR WorldWide (AIR) ou encore EQECAT (EQE).
Spécialisées dans la modélisation de catastrophes depuis plusieurs décennies, ces sociétés forment aujourd’hui un
oligopole du fait de leur expertise pointue dans le domaine.
Cependant, dans un nouveau contexte réglementaire européen fort matérialisé par la directive Solvabilité 2 qui
exige un degré de transparence accru et une meilleure connaissance de leurs risques, de plus en plus de sociétés
d’assurance et de réassurance commencent à développer leurs propres modèles CAT et s’affranchissent des modèles
vendeurs souvent considérés à juste titre comme de véritables boites noires. AXA s’inscrit dans cette initiative par
le biais des travaux de l’équipe Actuariat Réassurance d’AXA Global P&C qui commence depuis plusieurs années à
développer des modèles pour différents périls et ceci pour les différents pays où se trouve le groupe AXA.
Le présent mémoire a pour principal objectif de participer au développement du modèle Inondations et ceci dans le
périmètre de la France Métropolitaine.
Pour se faire, notre travail s’articulera autour de quatre axes principaux :
Le premier propose de dresser un portait global du monde de l’Assurance des catastrophes naturelles et d’ex-
pliciter un certain nombre de chiffres-clés qu’il est intéressant de connaître lorsque l’on travaille dans ce secteur. Un
intérêt particulier sera accordé au risque Inondation et à la question de son assurabilité. Une présentation, qui se
veut la plus succincte possible, portera sur les modèles CAT NAT qui ont une architecture complexe qui reposent
sur une décomposition modulaire singulière.
Le deuxième consiste à développer le module de vulnérabilité du modèle et ceci par le biais de la modélisation
des principales variables cibles que sont le taux de destruction et la fréquence de sinistres à l’aide de plusieurs mé-
thodes statistiques qu’elles soient classiques (GLM) ou orientée machine-learning (GBM). Une approche par dire
d’experts sera indispensable pour certaines catégories de contrats faute de données en nombre suffisant.
Le troisième propose d’implémenter le modèle suivant une architecture de calcul dénommée OASIS faisant l’objet
d’une présentation détaillée et qui permettra entre autre une prise en compte totale des incertitudes de nos modèles.
Cette nouvelle architecture plus rapide en terme de temps de calcul et plus efficiente permettra d’effectuer des ana-
lyses de sensibilités et d’avoir une vision plus précise du risque réel dans le périmètre considéré. A partir des données
d’Aléa construites antérieurement et matérialisées par une liste d’évènements fictifs probables d’inondations, nous
pouvons quantifier le risque réel d’inondations en France et produire les sorties classiques d’un modèle CAT et en
analyser les conclusions.
Le quatrième et dernier axe de travail mettra en lumière l’utilité d’un modèle CAT en Réassurance par le biais
d’une application directe consistant à la tarification de traités de réassurance XL et à la détermination du traité
optimal suivant le critère de la création de valeur.
Enfin le mémoire s’achève sur la conclusion, pointant sur ses apports, ses limites, ainsi que les perspectives qu’il
ouvre.
Chapitre 1
En 2015, le groupe AXA était présent dans 64 pays et employait près de 166.000 personnes au service de 103 millions
de clients.
3
1.1.2 L’entité AXA Global P&C
Filiale du groupe AXA créée en 2010, AXA Global P&C a pour mission le pilotage de l’activité d’Assurance
non-vie de l’ensemble du groupe qui représente près de 39% du résultat opérationnel en 2015.
L’un de ses rôles principaux consiste en la bonne gestion de la Réassurance pour ces différentes branches d’activité
par le biais de l’estimation des besoins des entités régionales et au placement de ces besoins auprès des réassureurs.
Afin de déterminer le niveau de risque que le groupe est prêt à conserver ou à céder, AXA Global P&C doit être en
mesure de produire une évaluation la plus précise possible.
Il est donc indispensable pour le groupe de développer son expertise en terme de modélisations de risques pour mieux
connaître le montant à partir duquel elle doit réassurer ses contrats et ainsi pérenniser son activité conformément à
son appétence au risque.
Parmi les risques les plus dangereux pouvant avoir un effet significatif sur le bilan du groupe, les catastrophes
naturelles occupent naturellement une place majeure puisque leur impact financier peut être potentiellement illimité.
A l’aide du graphique ci-dessus, nous constatons que malgré d’importantes fluctuations d’une année à l’autre, une
tendance semble se dégager de ces dernières années : les pertes causées par des catastrophes naturelles ont massi-
vement augmenté.
Cette augmentation ne permet cependant pas de déduire que les catastrophes naturelles en elles-mêmes c’est-à-dire
leur nombre et leur intensité connaissent une recrudescence en raison de l’accroissement global de la densité démo-
graphique et de la plus grande fragilité de certaines matériaux.
Toutefois, notons que de nombreuses études scientifiques 2 corroborent de plus en plus cette tendance à la hausse justi-
fiant que c’est le dérèglement climatique qui serait à l’origine de l’augmentation de phénomènes naturels dévastateurs.
1. Swiss Re : Publication Sigma 2015
2. Groupe d’experts Intergouvernemental sur l’évolution du Climat - Catastrophes naturelles et réchauffement climatique
4
Sur le plan assurantiel, la figure ci-dessous montre l’écart entre les pertes assurées et les pertes économiques au
fil des années, définissant ainsi l’insuffisance de protection ou de financement de l’assurance.
En d’autres termes, cette différence représente le montant de la perte financière induite par les catastrophes et non
couverte par l’assurance.
Nous observons que pour 2015, le déficit de protection global s’élève à 55 milliards d’euros ce qui constitue un ratio
d’assurabilité de seulement 40%. En pourcentage du PIB, les dommages non assurés sont passés de 0.08% dans la
période de 1976-1985 à 0.17% dans la période de 2006-2015.
Figure 1.3 – Graphique : Dommages assurés par opposition aux dommages non assurés en milliards de dollars
Chacun de ces risques est appréhendé de manière indépendante et modéliser de façon différente.
Dans la suite du mémoire, nous nous focaliserons exclusivement sur les sinistres CAT liés au pé-
ril Inondation qui sont modélisés par une méthode spécifique reposant sur une extrapolation des
données sinistres par des raisonnements physiques.
5
1.2.3 Définition du risque Catastrophe
Les catastrophes peuvent être de différents types. Elles peuvent être man made si elles sont le fruit d’une action
humaine, comme ce fut le cas pour les attentats du World Trade Center, ou naturelles dans le cas où elles sont issues
d’un phénomène naturelle.
Selon le code Des assurances, nous pouvons définir les sinistres de type Catastrophe naturelle à partir de la citation
suivante :
"Sont considérés comme les effets des catastrophes naturelles, au sens du présent chapitre, les dommages matériels
directs non assurables ayant eu pour cause déterminante l’intensité anormale d’un agent naturel, lorsque les mesures
habituelles à prendre pour prévenir ces dommages n’ont pu empêcher leur survenance ou n’ont pu être prises.".
En d’autres termes, les catastrophes naturelles représentent des événements extrêmes d’origine naturelle contre les-
quelles nous ne pouvons ni nous protéger ni nous assurer.
Or ces conditions ne sont pas respectées dans le cas des Catastrophes et plus précisément des inondations.
Dans le cas des inondations, la condition de communauté d’intérêts n’est généralement pas remplie car la communauté
de risques est trop restreinte. De plus, la menace n’est pas similaire pour chaque assuré.
En effet, selon la topologie, les protections et les différents éléments constitutifs du bâtiment, ces risques affecteront
différemment chacun des assurés. De plus, ces événements affectent l’intégralité des assurés résidant dans de larges
zones.
Il n’y a donc pas ou peu d’effet de mutualisation des risques. C’est à ces carences que va répondre la réassurance et
permettre aux clients d’AXA d’être tout de même assurés contre ces risques.
Il est fondamental de souligner que c’est cette imprévisibilité des catastrophes naturelles autrement dit leur ca-
ractère fortuit et aléatoire qui est une condition fondamentale pour que de tels risques puissent être assurés 4 . Si nous
savions d’avance qui serait victime d’un sinistre et qui serait épargné, il ne serait plus possible de constituer une
communauté de risques dans l’esprit de l’Assurance.
Dans cette section, nous mettons en avant les multiples formes que peuvent prendre les inondations qui diffèrent
ainsi par leur degré d’intensité, leur fréquence d’occurrence ou encore leur durée.
Il est important de noter que le modèle que nous présenterons dans la suite de ce mémoire ne modélise que les inon-
dations liées aux débordements de rivière qui représentent certes la plus grande partie des évènements d’inondations
mais pas la totalité.
Ensuite, nous présentons un certain nombre d’indicateurs physiques qui permettent de caractériser une inondation
comme sa durée, son intensité à travers la hauteur d’eau dans une zone inondée, le débit et enfin sa période de retour
permettant ainsi de quantifier son occurrence.
Enfin, nous présentons les bases de la modélisation des catastrophes naturelles et plus précisément des inondations
qui repose sur une architecture modulaire permettant de quantifier de façon crédible le risque d’inondation dans des
zones qui peuvent avoir été longtemps épargnées.
3. W.Gruss - L’industrie de l’Assurance
4. cf la condition d’assurabilité
6
1.3.1 Définition du risque Inondation
Au sein des catastrophes naturelles, l’inondation se démarque à plusieurs égards par la diversité des formes et des
types qu’elle peut prendre.
Une inondation est la submersion temporaire par l’eau de lieux habituellement non submergés.
Ce phénomène peut apparaître sous plusieurs formes et peut être provoqué par différents phénomènes physiques
comme une pluie intense, une crue de rivières ou encore des reflux marins.
Swiss Re 5 a dressé une topologie du risque Inondation résumé dans la table ci-dessous :
Ces différentes causes compliquent la compréhension et la maîtrise du risque sous-jacent rendant sa quantification et
sa modélisation très complexe.
— une durée : ce paramètre est particulièrement important puisque certaines études montrent que les dégâts
causés sont souvent liés à la durée.
— sa Périodicité : En pratique, dans un contexte de CAT NAT, les probabilités sont si faibles que l’on utilise la
notion de période de retour d’un évènement au lieu de parler de probabilité et qui est définie comme suit :
1
PR =
1 − F −1 (x)
La notion de période de retour est particulièrement utile, comme nous le verrons dans la suite, quand il
s’agit d’établir des ordres de grandeurs sur des pertes pour un portefeuille donnée. Notons qu’avec la nouvelle
réglementation Solvabilité 2, il s’agit pour les assureurs de se couvrir contre une perte bi-centaire (de période
de retour de 200) concernant le risque CAT.
7
1.4 Les bases de la modélisation des catastrophes naturelles
En introduction, nous avons mis en avant le fait que les historiques de sinistres liés aux phénomènes CAT sont
souvent d’une profondeur trop faible pour être réellement représentatifs du risque réel d’un portefeuille d’assurés et
que le risque de certaines régions est alors sous-estimé.
Il nous faut donc « compléter » cette vision historique par une série d’évènements fictifs mais probables souvent
appelés scénarios permettant ainsi d’élargir notre connaissance du risque.
Le modèle CAT, par une succession d’étapes et de raisonnements, va permettre d’obtenir la forme « complète » de
la distribution des pertes liée au portefeuille étudié comme ci-dessous :
Ainsi, nous essayons à partir d’un modèle CAT de simuler dans un monde virtuel, les sinistres causés par des catas-
trophes naturelles dans la réalité.
Généralement un modèle CAT repose sur une architecture divisée en quatre modules ayant des objectifs bien diffé-
rents :
— Module Exposition : Le premier module consiste à apporter des informations sur la localisation géographique
des objets assurés, leur nature et leur valeur.
— Module Aléa : Ce module permet, par des considérations le plus souvent physiques et statistiques de créer des
évènements fictifs probables qui peuvent toucher le portefeuille.
— Module Vulnérabilité : C’est le module le plus sensible et celui ayant l’impact le plus important sur les résultats
obtenus puisqu’il permet d’associer une perte économique (c’est-à-dire monétaire) subie par les biens assurés
en fonction de l’intensité de l’évènement considéré et de leurs caractéristiques.
— Module Financier : Le dernier module applique les conditions d’assurance aux biens assurés comme les fran-
chises, les limites ou encore les principes de coassurance.
8
On retrouve ci-dessous une représentation schématique d’un modèle CAT reprenant la décomposition modulaire
classique en mettant au centre la plateforme de calcul permettant de faire le lien entre toutes ces informations
souvent de natures différentes et permettant de produire un certain nombre de sorties classiques.
Pour estimer un risque catastrophique dans une zone donnée, il faut d’abord quantifier séparément ces quatre compo-
santes, pour les relier par la suite. Cette approche est généralement valable, qu’il s’agisse d’un séisme, d’une tempête,
d’une inondation ou d’autres périls naturels.
9
1.4.1 Module Exposition
Le Module Exposition, bien que moins technique que les autres modules, restent d’une importance capitale puis-
qu’ils transmet et formate les informations essentielles sur les caractéristiques des biens assurés présents dans le
portefeuille.
Ci-dessous, nous trouvons une liste non exhaustive des caractéristiques que l’on peut retrouver généralement
dans les portefeuilles :
— La localisation :
Contrairement aux hypothèses que l’on suppose habituellement en assurance, ici les différents sites assurés
d’un portefeuille ne sont pas indépendants vis-à-vis d’une catastrophe naturelle. Ainsi, une inondation tou-
chera plus probablement et plus fortement les sites présents dans son empreinte géographique et moins ceux
qui y sont extérieurs.
L’empreinte géographique d’une inondation étant très sensible à la topographie du terrain touché, il est né-
cessaire de savoir positionner le plus précisément possible les sites assurés. Dans le cadre d’une modélisation
Inondation, nous attendons une précision importante pour la localisation des sites assurés c’est-à-dire une lon-
gitude et une longitude. Pour d’autres périls comme les tempêtes ou les tremblements de terre, les exigences
de précision sont moindres.
— Le nombre d’étage :
Cette information est pertinente pour les inondations puisque l’on conçoit facilement qu’une maison d’un seul
étage sera touchée par une inondation tandis que seul les premiers étages d’un immeuble seront concernés. En
pratique, nous n’avons pas cette information mais nous savons si le site se trouve en étage ou au rez-de chaussée.
— La Somme assurée :
C’est la somme monétaire garantie dans le contrat d’assurance. Elle est toujours divisée en trois garanties :
la garantie Bâtiment qui couvre les dégâts liés au bâti (Building), la garantie Contenu qui couvre les objets
assurés (Content) et la garantie Perte d’exploitation (Business Interruption) permettant de dédommager les
pertes indirectes de l’inondation. En pratique, il est très difficile de modéliser les pertes indirectes et la grande
partie du mémoire se focalisera sur les pertes directes.
10
1.4.2 Module Alea
L’exposition aux catastrophes naturelles dépend de plusieurs paramètres que sont la répartition géographique, la
fréquence d’occurrence mais aussi l’intensité des évènements.
Pour pouvoir quantifier le risque lié à une catastrophe naturelle, il faut avoir une approche qui repose sur un raison-
nement dual :
— d’une part, procéder à un inventaire le plus exhaustif possible d’évènements antérieurs qui se sont réalisés
dans la zone étudiée.
— d’autre part, construire à l’aide de considérations scientifiques une série d’évènements probables fictifs.
En effet, il est tout à fait intuitif que les évènements antérieurs constitueront la pierre angulaire du module de l’aléa.
Ainsi, plus les séries de données remontent loin dans le temps et plus elles sont complètes, plus elles sont susceptibles
de donner une image fidèle et cohérente du risque réel. Mais comme présenté en introduction, certaines régions long-
temps épargnées par des évènements naturels peuvent être des zones intrinsèquement risquées.
Pour palier ce problème, il est donc absolument nécessaire de simuler un échantillon représentatif de tous les évène-
ments susceptibles de se produire.
L’objectif de ce module est donc de constituer un catalogue d’évènements fictifs liés au phénomène CAT étudié
où les caractéristiques de ces derniers sont générées aléatoirement.
Ce module concentre donc toute l’essence du modèle et regroupe la plupart des hypothèses et approximations consen-
ties.
Certaines entreprises à l’origine de modèles catastrophes consciente de la difficulté de cette tâche choisissent de sous-
traiter la réalisation du catalogue d’évènements à des sociétés spécialisées, réunissant tous les centres de compétences
requis, à savoir l’hydrologie, l’hydrométrie, l’étude des sols et la géographique pour le péril inondation.
Il est donc nécessaire, d’élargir à l’aide de connaissances scientifiques sur la formation et la dynamique des pé-
rils naturels, l’échantillon trop restreint des évènements antérieurs. A partir des évènements antérieurs, on génère à
cette fin des milliers d’autres évènements en faisant varier certaines propriétés.
Ces évènements générés artificiellement ne se sont certes jamais produits par le passé mais d’un point de vue scien-
tifique rien ne permet d’affirmer qu’ils n’auront pas lieu à l’avenir. La génération du catalogue d’évènements peut se
faire de manière historique ou stochastique :
Méthode historique
La méthode historique consiste à construire un catalogue d’évènements à partir d’inondations déjà observées par
le passé. Si elles sont insuffisantes pour une étude statistique valide, il est possible d’en générer de nouvelles en se
contentant de modifier leur sévérité, voire leur empreinte géographique.
Méthode Stochastique
La méthode stochastique est fondée sur des études hydrométriques et géographiques.
Elle nécessite de disposer des données historiques d’hauteurs d’eaux quotidiennes pour un ensemble de points don-
nés. Ces dernières permettent de construire une fonction de distribution empirique de la hauteur d’eau quotidienne
à chaque point, ainsi que leur matrice de corrélation.
Elles permettent ensuite de simuler un vecteur de hauteurs d’eau en chaque point à partir des distributions empi-
riques et de leur corrélation pour ensuite lancer un modèle de propagation d’eau pour avoir l’empreinte de l’évènement
c’est-à-dire l’ensemble des zones touchées et la hauteur d’eau dans ces dernières.
AXA Global P&C possède son propre modèle de génération d’inondations en France qui simule aléatoirement 60.000
évènements (5000 simulation pour les 12 mois de l’année) d’inondation mesurés en un nombre fixe de stations réparties
sur le territoire français. Ils sont construits autour de deux éléments essentiels :
— le MNT 6 de la France. C’est une carte découpant la France en carreaux de 75m sur 75m donnant l’altitude de
chaque case par rapport au niveau de la mer. Ainsi, chaque police du portefeuille, si elle est géocodée, pourrait
être rattachée à un numéro de cellule du MNT.
— Des cartes hydrographiques. Ces cartes nommées Carthage N 7 fournies par l’IGN illustrent les emplacements
des cours d’eau en fonction de la taille de leur tronçons. Plus la valeur N est élevée, plus la longueur des
rivières sélectionnes est faible.
Par exemple, le niveau 1 ne prend en compte que les cours d’eau longs d’au moins 100km tandis que le niveau
7 tient compte de l’intégralité du réseau fluvial.
6. Modèle Numérique de Terren
7. N allant de 1 à 7
11
Ci-dessous, nous pouvons représenter la carte donnant la répartition sur le territoire français des stations de jaugeage
qui permettent de récupérer des hauteurs d’eau quotidienne.
Après avoir calibré des distributions d’hauteurs d’eau mensuelles pour chacune de ces stations de jaugeage en faisant
appel à la théorie des valeurs extrêmes, il est possible d’obtenir des hauteurs d’eau extrêmes en allant tirer dans un
quantile de la distribution et puis de lancer un modèle de propagation d’eau permettant de simuler le déplacement
de l’eau et ainsi de construire une carte d’inondation pour un évènement donné comme ci-dessous :
Figure 1.7 – Carte : Exemple d’empreinte pour un évènement fictif inondation sur Paris
La génération d’empreintes, qu’elle soit historique ou stochastique est d’une complexité importante et aurait pu
faire l’objet d’un mémoire.
Ici, nous ne détaillons pas leur mode de construction et nous considérons dans la suite que le catalogue d’Aléa est
déjà crée et fiable.
12
1.4.3 Module Vulnerabilité
Le module Vulnérabilité résulte de la mise en commun des modules Aléa et Exposition précédemment détaillés.
L’analyse de la vulnérabilité provient du fait que différents types de bâtiments réagissent différemment à chaque péril.
Par exemple un mobile-home sera plus vulnérable qu’une maison en ciment lors de la survenance d’une inondation.
Pour étudier ce coût indépendamment de la valeur assurée, nous étudions une quantité appelée taux de destruction.
Elle représente le rapport entre la charge du sinistre et la somme assurée par l’assureur (SIV pour Sum Insured
Value) :
Charge
TD =
SIV
Le module de vulnérabilité consiste ainsi en un ensemble de fonctions reliant l’aléa et les caractéristiques du bien
assuré à un taux de destruction moyen.
Elles peuvent être déterminées à l’aide :
— d’une expertise d’ingénieurs, qui étudient le comportement du bâti face à un aléa physique.
— d’une analyse des sinistres historiques.
Les courbes de vulnérabilité sont généralement, des fonctions croissantes avec l’intensité de l’aléa.
Le graphique ci-dessous illustre le principe de « courbes » de vulnérabilité associant ainsi un taux de destruction à
une hauteur d’eau 8 .
Lorsqu’une structure est confrontée à un aléa (vitesse de vent, mouvement du sol, hauteur d’eau), elle ne va pas
toujours réagir de la même manière, il existe une incertitude autour de cette valeur moyenne. Ainsi, à chaque valeur
de l’intensité d’aléa ne correspond pas une unique valeur de taux de destruction mais une distribution de taux de
destruction comme on peut le voir dans l’image ci-dessous :
13
La prise en compte de cette incertitude sera l’objet d’une sous-section dans la partie sur le développement du module
vulnérabilité.
Notre méthode consistera non pas à calibrer une loi de probabilité sur les taux de destruction à chaque valeur d’aléa
mais à « chocker » les taux moyens par une variable aléatoire préalablement déterminée.
Enfin, une fois que l’on connaît les courbes de vulnérabilité, on peut déduire la perte brute pour chaque police
à partir de l’intensité de l’aléa pour cette police.
Il reste alors à évaluer les conditions financières (franchises, limites, coassurance) pour déterminer la perte nette.
Ici, la perte brute vaut 550 et la perte nette vaut 450 car il y a 100 de rétention (franchise). On obtient en sortie du
modèle financier les pertes par police nettes de conditions financières ; c’est la somme qui est réellement à la charge
de l’assureur.
Dans certaines situations, il peut exister des architectures de protection de l’assureur qui sont particulièrement com-
plexes avec des conditions d’applications ou d’agrégations spécifiques entre certains sites ou certaines polices.
Dans la suite, par souci de simplicité, nous ne considérons que des conditions ordinaires se limitant à l’application
de franchises et des limites usuels mais le lecteur intéressé peut lire de la documentation présentant des structures
plus atypiques et complexes. 9
14
1.4.5 Sortie des modèles
Pour évaluer l’exposition d’un portefeuille d’assurance au péril sous-jacent, le modèle CAT produit un certain
nombre de sorties qu’il convient de définir succinctement ici. Pour cela, nous allons introduire deux grandeurs couram-
ment utilisées en réassurance : l’AEP (Aggregate Exceedence Probability) et l’OEP (Occurence Exceedence Probability)
faisant parties dans un cadre plus général des EP curves.
Les courbes EP
Les courbes EP pour Exceedance Probability expriment la probabilité que des pertes excèdent un certain seuil.
Les courbes EP sont l’indicateur de risque principal utilisé dans la fonction de Risk Management. Il existe deux types
de courbes EP définies ci-après :
— L’AEP ou Aggregate Exceedance Probability est la probabilité que la somme des pertes annuelles excède
un certain seuil. Elle permet donc réciproquement de déterminer la perte annuelle maximale probable à un
niveau de confiance donné. Comme expliqué précédemment, nous préférons l’exprimer en termes de périodes
de retour, plutôt que de probabilité. Ainsi, on a :
N
!
X
AEP (x) = P Xi > x
i=1
— Conceptuellement proche de l’AEP, l’OEP Occurence Exceedance Probability représente la probabilité annuelle
que la perte maximum excède un certain seuil :
Une OEP ne donne donc qu’une information partielle sur la perte annuelle d’un portefeuille, puisqu’il ne tient
compte que de l’évènement le plus important survenu chaque année.
Un assureur ou un réassureur s’intéresse alternativement à ces deux mesures de risques suivant la nature des contrats
de réassurance qu’il a souscrit.
Lorsqu’il couvre contractuellement tous les sinistres d’une année, l’AEP est plus appropriée. En revanche, l’étude
de l‘OEP est recommandée pour les contrats ne s’appliquant qu’aux risques rares et extrêmes. Ainsi, les traités de
réassurance proportionnels, couvrant leur bénéficiaire contre une fréquence élevée d’événements, seront étudiés via
l’AEP.
Au contraire, la détermination des modalités d’un traité non proportionnel nécessite le calcul de l’OEP, qui convient
aux protections contre des sévérités anormalement hautes.
15
Notons que puisque la perte annuelle agrégée (correspondant à l’AEP ) est toujours supérieure à la perte causée par
l’évènement le plus grave d’une année donnée (correspondent à l’OEP ), nous observons toujours visuellement que
l’AEP est supérieure à une OEP. L’égalité est vérifiée lorsqu’au plus un évènement survient dans l’année.
16
Chapitre 2
L’estimation des dégâts causés par les inondations reste un point crucial pour les assureurs et les réassureurs. Pour
respecter les règles de solvabilité et garantir une « sécurité financière » en cas de dommages extrêmes, une estimation
des pertes potentielles pour un portefeuille donné à partir d’un modèle CAT est nécessaire.
Dans cette section, nous proposons une approche pour développer le modèle Vulnérabilité du modèle et ainsi quan-
tifier le risque économique à partir de la connaissance de l’aléa et ceci pour l’ensemble des biens assurés dans le
portefeuille non-vie d’AXA France, plus grande filiale du groupe AXA couvrant des polices appartenant à plusieurs
branches d’activité différentes.
L’idée centrale dans l’estimation du risque d’inondation repose sur le concept de courbes de vulnérabilité définies
dans la section précédente. L’origine de ce concept est « supporté » par l’observation que les biens assurés d’un type
particulier ont une résistance globalement similaire vis-à-vis d’un même phénomène.
Ce concept est à présent clairement établi et constituent à présent un standard : les courbes de vulnérabilité sont vues
comme un bloc essentiel pour une estimation pertinente des inondations. L’intuition consistant à supposer que les
dommages sont fortement liés à la hauteur d’eau dans la zone inondée est cependant remise en cause pour certaines
branches d’activité.
Traditionnellement, la construction de ces courbes reposent sur une collecte de données sinistres la plus fiable possible
après un évènement inondation.
Un problème qui se pose souvent lorsque nous étudions les branches d’activité industrielles ou commerciales est
l’absence de données ou leur présence en nombre insuffisant pour calibrer des courbes de vulnérabilité robustes.
Nous verrons qu’une alternative consiste à se fier à des jugements d’experts, que nous utilisons cependant avec soin,
résultat d’une étroite collaboration entre Axa Global P&C et AXA Matrix, filiale spécialisée du groupe AXA dans
l’ingénierie et la construction qui mènent de nombreuses études pour analyser la sensibilité de certains types de biens
à des risques extrêmes.
Dans la suite, l’approche retenue pour développer le module Vulnérabilité du modèle Inondation consiste à dé-
composer le risque en deux facteurs s’approchant de la décomposition classique fréquence-coût que l’on retrouve dans
de nombreuses méthodes actuarielles.
Dans un premier temps, nous estimons un taux de destruction affectant les biens assurés permettant de répondre
à la question : Connaissant les caractéristiques d’un site assuré, quelle est le pourcentage de destruction de celui-ci
quand il est inondé ?
Dans un second temps, nous estimons une fréquence de sinistres (COL pour Chance of Loss) après le constat
qu’un certain nombre de polices dans les empreintes inondations ne déclarent pas de sinistres répondant ainsi à la
question : Connaissant les caractéristiques d’un bien assuré, quelle est la probabilité que celui-ci soit sinistré lorsqu’il
est dans l’empreinte géographique d’une inondation ?
Nous concluons cette section par l’identification des principales limites et d’éventuelles pistes d’améliorations per-
mettant ainsi de réviser le module Vulnérabilité dans le futur.
17
2.1 Contexte et données
Dans cette section, nous définissons précisément le contexte de l’étude à travers la présentation des différentes données
utilisées pour la modélisation.
Le portefeuille d’AXA France est composé de cinq branches d’activité :
— Résidentiel (ou MRH ) : branche d’activité couvrant les habitations des particuliers.
— Industriel (ou MIE ) : branche d’activité permettant de couvrir les biens industriels de tout genre.
— Immeuble (ou IMM ) : branche d’activité permettant de couvrir les immeubles.
— Commercial (ou MRP ) : branche d’activité assurant les biens commerciaux.
— Collectivité (ou COL) : branche d’activité couvrant les édifices des collectivités.
Il existe une dernière branche d’activité qui couvre les biens agricoles mais qui ne sera pas modélisée
dans la suite faute de données en nombre suffisant.
Ci-dessous, nous calculons des statistiques extraites de la base sinistres permettant ainsi de mettre en avant un
premier critère de segmentation.
En effet, les différentes branches d’activité réagissent globalement différemment au risque inondation hormis le Rési-
dentiel et le Commercial qui présentent de fortes similarités. Une explication possible vient du fait que ces deux types
de biens assurés ne diffèrent que par la nature du contenu assuré mais que la vulnérabilité réelle face aux évènements
inondations semble proche.
Dans la suite, nous choisissons de distinguer les différents biens assurés suivant leur branche d’activité.
Les chiffres contenus dans ce tableau ont été fortement modifiés pour des raisons évidentes de confidentialité mais
les relativités des différentes branches d’activité sont conservées.
18
Il est important de noter à ce stade que les pertes liées aux inondations peuvent être classées en deux catégories
distinctes : pertes directes et indirectes.
Les pertes directes ont lieu à cause d’un contact physique de l’inondation avec des êtres humains, des biens ou tout
autre objets. Les pertes indirectes, aussi appelées pertes intangibles (en opposition aux pertes tangibles) sont induites
par une inondation mais ont lieu en dehors de l’évènement - en temps ou en espace.
Des exemples typiques de pertes indirectes sont l’interruption du trafic, du business ou de services publiques.
La grande partie de la littérature traitant de l’estimation des dégâts liés au phénomène d’inondation concerne les
pertes tangibles malgré qu’il est à présent reconnu que les pertes indirectes représentent une part importante voir
même supérieure dans l’évaluation de l’impact des inondations.
Dans la base sinistre fournie par AXA France, nous ne disposons pas de l’information donnant la
nature de la perte.
Nous faisons l’hypothèse que les pertes liées au secteur Résidentiel ne contiennent pas de pertes intangibles et que
celles-ci sont présentes majoritairement dans les branches industrielles et commerciales. Dans la suite, nous proposons
une méthode d’estimation des pertes intangibles pour ces branches en considérant que le principal facteur explicatif
est la durée de l’inondation.
Pour évaluer la sévérité des évènements historiques, un premier traitement sur la base sinistre consiste à procé-
der à une mise en As-if des coûts permettant ainsi d’avoir une idée de la charge que subirait le portefeuille d’AXA
France si ces évènement survenaient aujourd’hui.
Ce redressement consiste en :
— L’actualisation des montants de sinistres permettant ainsi de prendre en compte l’inflation subie par
les montants des sinistres entre la période qui sépare la date d’historique et la date de la modélisation. Nous
utilisons pour cela l’indice FFB 1 produit de façon trimestrielle.
— La revalorisation des montants de sinistres qui a pour but de prendre en compte l’évolution du porte-
feuille entre la date du sinistre et la date de modélisation.
Si on définit Xi la perte totale liée à un évènement inondation survenu l’année i , on obtient X̃j à la date de modé-
lisation j par la formule :
F F Bj Expoj
X̃j = Xi ∗ ∗
F F Bi Expoi
19
A titre d’exemple, un évènement ayant eu lieu en 2003 de perte totale de 100 M€ sera revalorisé en tenant compte
de :
— L’augmentation de la taille du portefeuille depuis 2003 supposée égale par exemple à 10%.
— L’évolution de l’indice FFB sur cet interval temporel égale à 15%.
La valeur as-if de cet évènement serait donc égal à 127 m€.
Pour chacun de ces évènements, nous pouvons par ailleurs construire les empreintes inondations correspondantes
à partir de la connaissance des hauteurs d’eau dans les stations de jaugeage à proximité et aux quantités de précipi-
tations à l’époque de l’évènement.
Il est important de noter que c’est donc une empreinte simulée par le modèle de propagation d’AXA global P&C et
que celle-ci ne permet pas de capter la totalité des sinistres.
Pour améliorer le taux de « capture » des sinistres, l’équipe de modélisation d’AXA Global P&C a développé une
approche supplémentaire reposant sur l’extension de ces empreintes à l’aide de ce que nous avons défini comme étant
des zones de risques complémentaires.
Deux zones de risques sont alors construites à partir d’un concept géomorphologique, la distance verticale à un réseau
de rivière (pour la première zone) ou à un réseau théorique (pour la deuxième zone).
Ces zones ont pour objectif de compléter les zones inondables par débordement de rivières obtenues avec le modèle
de propagation. Ainsi, pour l’évènement défini plus haut :
Table 2.2 – Tableau : Impact de l’ajout des zones complémentaires sur le taux de capture des sinistres
20
2.1.2 Les données externes : une source d’information supplémentaire
La Base sinistres fournie par AXA France donne des informations sur la branche d’activité du bien sinistré, un certain
nombre de caractéristiques internes (plus nombreuses pour le secteur Résidentiel par exemple) et sa localisation
géographique.
Avant le travail de modélisation, nous nous proposons dans ce qui suit d’enrichir la base de données en récoltant à
partir de données publiques ou privées des informations géographiques.
Quantité de précipitation
La quantité de pluie tombée dans une zone donnée est une information capitale lorsque l’on étudie le phénomène
d’inondation. Cette information est d’autant plus importante que les empreintes historiques générées par le module
Aléa n’intègre pas les conditions de précipitations.
ERA-Interim est une entreprise mettant en ligne des données de précipitation depuis plus de 1979 avec des mailles
de 25km sur 25.
Pour plus d’informations, notamment sur la méthode de collecte de données, le lecteur intéressé peut se référer au
site internet de l’entreprise 2 .
Nous disposons donc de données de précipitations exprimées en millimètres de façon journalière avec un historique
de près de 40 ans. Nous faisons le choix d’agréger cette information par la construction du quantile à 99% de la
précipitation tombée pour chaque maille considérée.
Figure 2.5 – Fonction de répartition des Figure 2.6 – Fonction de répartition des préci-
précipitations pour le Sud de la France pitations pour le Nord de la France
A partir de ces données, nous pouvons alors découper le territoire Français en trois grandes zones :
— < 25mm : zones de faible précipitation.
— [25, 40mm] : zones de précipitation modérée.
— > 40mm : zones de forte précipitation principalement localisées dans le contour méditerranéen .
Figure 2.7 – Carte : Représentation des quantiles de pluie sur le territoire française
2. Era-Interim - Site : www.ecmwf.int/en/research/climate-reanalysis/era-interim
21
Nombre d’arrétés CAT NAT
Dans le cadre de l’assurance des catastrophes naturelles, la France possède une particularité qui la distingue des
autres pays européens puisque dans le cas où de nombreux sinistres liés à un évènement CAT se produisent, le maire
d’une commune peut proposer de constater l’état de catastrophe naturelle de tout ou une partie de sa commune à
travers une série de dispositifs.
Cet arrêté permet donc aux sinistrés d’être indemnisés plus rapidement par leur assureur qui se réassurent préa-
lablement auprès de la Caisse centrale de réassurance (CCR) 3 .
Il est alors possible de récupérer une base de données publique recensant la totalité des arrêtés CAT NAT en France
depuis la création du régime et d’agréger cette information au niveau de chaque commune.
Ainsi, une commune ayant été très fortement touchée dans le passé par des évènements CAT aura un nombre d’ar-
rêtés élevé.
Ci-dessous, nous pouvons représenter le nombre d’arrêtés CAT NAT dans le Sud-Est, une région qui historique-
ment est fortement sinistrée à cause d’une quantité de précipitation bien supérieure à la moyenne ; la teinte plus
foncée indiquant une plus forte concentration d’arrêtés.
Figure 2.8 – Carte : Nombre d’arrétés CAT NAT dans la région Sud-Est
Densité de population
Des études scientifiques liées à la modélisation du risque inondation 4 suggèrent que la densité de population peut être
un facteur explicatif puisque les zones fortement urbanisées (et donc densément peuplée) présentent des résistances
artificielles à l’inondation liées à la construction des nombreux bâtiments ou même à la construction de défenses
(barrage par exemple) pour protéger les habitants plus efficacement contre le risque de débordements des fleuves.
De plus, les habitants des grandes agglomérations bénéficient de politiques de prévention mises en place par l’admi-
nistration publiques permettant de prévenir les habitants en cas de fortes crues.
L’INSEE met à disposition une base publique permettant d’obtenir la densité de population en nombre d’habi-
tants par km2 à l’échelle de chaque commune.
3. Le régime CAT NAT français est plus largement abordé dans la section 3
4. GRAIE - Comparative evaluation of the main factors that contribute to flood risk in urban drainage areas
22
Figure 2.9 – Carte : Densité en nombre d’habitants par km2
23
2.1.3 Approche pour la modélisation
Pour la construction du module de vulnérabilité, nous adoptons une approche décomposée en deux étapes reprenant
une décomposition actuarielle classique :
Nous confortons notre intuition en mettant en avant le fait que les coûts moyens et les taux de destruction dé-
croissent bien en fonction de la zone de risque du bien assuré.
Nous finissons cette section, par rappeler que des études récentes ont montré que ces paramètres de vulnérabilité
contiennent de fortes incertitudes en raison du fait que la hauteur d’eau and les caractéristiques du bâtiment n’ex-
pliquent qu’une partie de la variance des données 5 . Cette constatation est justifiée par la mise en évidence d’un
comportement globalement différent en termes de sévérité en fonction de l’évènement considéré même à iso-valeur
d’aléa (en l’occurrence à même hauteur d’eau donné) à un iso-caractéristique.
Pour tenir compte de la volatilité inter-évènement on se propose de calibrer un coefficient COV (Coefficient of
Variation ) suivant une loi log-normale centrée en 1 et d’écart type estimé sur la base sinistre permettant d’appliquer
alors un choc sur les taux de destruction estimés.
Ainsi, pour chaque catégories de vulnérabilité, nous ne récupérons pas une unique valeur de taux de destruction mais
une distribution de valeurs possibles.
5. Mertz 2004 - Flood damage and influencing factors : new insights from the August 2002 flood in Germany
24
2.2 Modélisation du taux de destruction
2.2.1 Les modèles linéaires généralisés : Théorie et Applications
Les GLM ont fait leur apparition dans Nelder et Wedderburn [1972]. Ils sont adaptés à de nombreuses probléma-
tiques et sont d’utilisation courante dans le domaine de la statistique et de l’Actuariat (cf. Denuit et Charpentier
[2005]). La théorie des GLM bénéficie d’un avantage par rapport aux modèles linéaires classiques : le caractère nor-
mal de la variable à expliquer Y n’est plus imposé, seule l’appartenance à une famille exponentielle est indispensable.
Dans le contexte d’un modèle GLM, on considère que pour une variable aléatoire Y , qui correspond à la variable à
expliquer, il existe une relation de la forme suivante :
p
X
g (E [Y |x1 , ..., xp ]) = βk x k
k=1
Un choix classique consiste à choisir la fonction de lien g(u) = ln(u) qui conduit au modèle multiplicatif suivant :
p
!
X
E [Y |x] = exp βk xk = exp (βx)
k=1
Il reste à spécifier la loi de la variable Y. On retient une famille dite exponentielle, pour laquelle la densité s’écrit :
yθ − b (θ)
fθ,φ (y) = exp + c (y, φ)
φ
25
La famille de lois exponentielles recouvre un grand nombre de distributions classiques que nous utiliserons pour la
suite. Nous avons des relations entre les paramètres qui sont valables pour toutes les lois :
Une relation sur l’espérance de la variable à expliquer :
E [Y ] = b0 (θ)
Ci-dessous, nous retrouvons l’exemple de deux lois de la famille exponentielle que l’on sera amené à utiliser par
la suite :
Notons une particularité de la loi de Poisson qui sera plus amplement étudiée par la suite : nous avons, en théorie,
une variance égale à l’espérance de la variable à expliquer.
Cette condition, peu représentative de la réalité, dans la grande majorité des cas est à l’origine de la construction de
lois dites de quasi-Poisson qui tiennent compte d’une différence entre la variance et l’espérance.
Dans le cadre d’une régression pour expliquer un nombre de sinistres N avec un modèle poissonnien et une fonction
de lien logarithme, on a :
p
!
X
E [N |x] = exp βk xk = exp (βx)
k=1
Si on veut tenir compte de l’exposition au risque d, on sait que l’espérance λ de la loi de Poisson devient λd. La
régression se réécrit alors :
p
!
X
E [N |x, d] = d ∗ exp βk xk = exp (βx + ln(d))
k=1
Tout se passe donc comme si l’on ajoutait une variable explicative pour laquelle le coefficient β est connu (ici égal
à 1) et ne doit donc pas être estimé. La variable ln(d) s’appelle une variable offset.
26
Validation d’un modèle GLM
Plusieurs techniques sont utilisées pour valider un modèle GLM. Outre les méthodes classiques d’analyse, nous
introduisons ici la notion de déviance utilisée pour mesurer la qualité de l’ajustement d’un modèle.
Elle est notée D et est calculée de la façon suivante :
Cet indicateur global est en pratique complété par une analyse observation par observation ; cette analyse se base
souvent sur l’analyse des résidus.
Nous introduisons ici deux types de résidus : les résidus de Pearson et les résidus de Déviance
Residus de Pearson :
√ yi − µi
ri = ωi p
V (µi )
avec ωi le poids de l’observation (ici son exposition).
Residus de Déviance : p
ri = (yi − µi ) di
avec qui est le signe de la différence entre yi − µi et di la déviance de l’observation.
On peut noter que la somme des carrés des résidus est dans les deux cas, asymptotiquement, un Khi-2 à n − p − 1
degrés de liberté.
Phénomène de sur-dispersion
Très souvent, lors de l’étape de modélisation, certaines hypothèses fondamentales ne sont pas respectées.
Citons, par exemple une hypothèse très forte des modèles de Poisson qui dans la théorie, supposent que la variable
à expliquer a une variance égale à son espérance. Les premiers résultats de nos modèles peuvent révéler la présence
d’un phénomène dit de sur-dispersion.
Nous parlons de sur-dispersion, lorsque la variance de la réponse Y (variable à expliquer) est supérieur à son
espérance mathématique E [Y ].
27
Mathématiquement, cela se traduit par :
V(Y) = φ · E(Y)
avec φ>1, où φ est appelé paramètre de dispersion.
La correction de la sur-dispersion se réalise en estimant φ par le rapport du Chi-deux de Pearson sur les degrés
de liberté.
Les écarts-types des estimations des paramètres du modèle sont alors multipliés par φ-estimé et les chi-deux des
statistiques sont divisés par φ-estimé.
La non-prise en compte de la sur-dispersion est une erreur assez classique, qui n’entraîne aucune modification sur
l’estimation des paramètres mais entraîne un biais trop "optimiste" sur la significativité des paramètres du modèle.
Sélection de modèle
Dans la littérature, nous trouvons de nombreux indicateurs permettant d’évaluer la « pertinence » d’un modèle.
Ci-dessous, nous présentons la courbe de Lorenz et l’indice de Gini lui étant associé qui se révèlent être des indicateurs
particulièrement populaires.
Cependant, la courbe de Lorenz n’a pas été introduite dans un contexte d’évaluation d’un modèle statistique mais à
travers différentes études économiques visant à mesurer l’inégalité de richesse dans une population donnée.
la statistique d’ordre, c’est-à-dire la série de revenus triés par ordre croissant. Notons maintenant qi la proportion de
revenus par rapport au revenu total qu’ont gagné les i individus ayant les plus bas revenus, ce qui s’écrit :
Pi
j=1 x(j)
qi = Pn avec q0 = 0 et qn = 1
j=1 x(j)
La courbe de Lorenz est la représentation graphique de la fonction qui à la part des individus les moins riches associe
la part du revenu total qu’ils perçoivent.
Plus précisément, la courbe de Lorenz relie les points (i/n, qi ) pour i = 1, ..., n.
En d’autres termes, en abscisse, nous avons donc une proportion d’individus classés par ordre de revenu, et en
ordonnée la proportion du revenu total reçu par ces individus.
28
L’indice de Gini, noté G est égal à deux fois la surface comprise entre la courbe de Lorenz et la diagonale.
Il est possible de montrer que :
1 Pn Pn
|xi − xj |
n(n − 1) i=1 j=1
G=
2x̄
En utilisant la statistique d’ordre x(1) , ..., x(i) , ..., x(n) , l’indice de Gini peut également s’écrire :
Pn
1 2 i=1 ix(i)
G= − (n + 1)
n−1 nx̄
L’indice de Gini est compris entre 0 et 1 ; s’il est proche de 0, tous les revenus sont égaux. S’il est proche de 1, les
revenus sont très inégaux.
L’analogie pour un contexte d’évaluation et de sélection de modèle statistique se fait en considérant que les in-
dividus sont les sites assurés et que les revenus sont la charge sinistre modélisée du site considéré.
Pour des besoins évidents de segmentation, nous cherchons un modèle qui proposera une charge sinistre modélisée
la plus segmentée possible c’est-à-dire la plus forte possible pour les sites particulièrement à risque et la plus faible
pour les sites peu vulnérables.
G̃modèle
G̃ =
G̃empirique
Ainsi, nous cherchons à construire un modèle avec une valeur d’indice de Gini élevée, révélateur d’une forte segmen-
tation de la charge modélisée mais dont la dispersion doit être proche de celle des données sinistres correspondant
alors à un indice de Gini normalisé proche de 1.
Pour information, le lecteur intéressé pourra retenir que les indices de Gini dans un contexte de risque CAT sont très
forts et proches de 1 en raison de la très forte variabilité des pertes CAT tandis que dans le secteur non-vie classique,
ils sont plutôt aux alentours de 0.4 ou 0.5 pour les risques les plus volatils.
Enfin, il est important de noter que malgré la popularité de l’indice de Gini dans un contexte de sélection de
modèle, celui-ci n’évalue absolument pas l’ajustement du modèle vis-à-vis des données empiriques : il n’est qu’une
mesure de dispersion.
Il conviendra donc dans la suite de calculer des indicateurs statistiques plus classiques comme la RMSE, la MAE ou
la MAPE pour avoir une vision plus juste de l’ajustement du modèle sur les données.
29
2.2.2 Gradient Boosting : Théorie et Applications
L’idée à la base des méthodes de boosting est de combiner plusieurs classifieurs à faible pouvoir prédictif afin de
former un outil ayant un pouvoir explicatif plus important.
Les méthodes dites de Gradient Boosting consistent à appliquer successivement un algorithme de régression simple
sur les résidus d’une régression, et de répliquer ce processus un nombre important de fois.
Chaque estimateur est sélectionné de sorte à minimiser le gradient L de l’estimateur G tel que :
N
X
L (G) = L (yi , G (xi ))
i=1
où G (xi ) représente ici l’estimateur de l’individu yi . Ainsi, l’estimateur Ĝ sélectionné est celui qui minimise le gra-
dient de la fonction.
Nous pouvons représenter le schéma de l’étape de base à l’étape m par la formule suivante :
Ŷ = Gm−1 (x) + u
Nous appliquons notre classifieur faible Rx au résidu u ,tel que û = Rx (u). Il correspond à la fonction minimisant le
gradient de u, avec um le résidu de cette régression, de la manière suivante :
Ŷ = Gm−1 (x) + û + um
Nous posons Gm (x) = Gm−1 (x) + û ce qui donne, à la fin de l’étape m, une régression de la forme suivante :
Ŷ = Gm (x) + um
Gm (x) représente la régression à la fin de l’étape m de notre méthode de boosting. Nous réitérons ce processus un
nombre fini de fois préalablement choisi.
En particulier, nous parlons de Gradient Boosting Tree quand l’estimateur est un arbre de décision.
Pour déterminer quand arrêter ce processus, une méthode classique est de tester à la fin de chaque étape le modèle
régression sur un échantillon test afin de déterminer quand le sur-apprentissage a lieu et donc quand arrêter le pro-
cessus.
Une autre méthode consiste à appliquer à chaque étape la régression à un échantillon tiré aléatoirement parmi
nos données auxquelles nous avons appliquées un facteur aléatoire. Cette méthode est appelée Gradient Boosting
Stochastique.
30
2.2.3 Le secteur Résidentiel
Pour le secteur Résidentiel, nous avons suffisamment de données pour procéder à une modélisation.
L’approche retenue consiste à construire un GBM (gradient boosting tree) pour extraire parmi l’ensemble des variables
explicatives les variables les plus influentes puis lancer par la suite un GLM (Generalized Linear Model ) pour obtenir
un modèle simple et interprétable.
Une grande majorité des variables étant continues, la question de la discrétisation est absolument primordiale.
Dans la suite, nous considérons deux méthodes pour discrétiser les variables :
— La première basée sur l’influence relative de la variable après avoir construit un GBM.
— La deuxième basée sur l’utilisation de modèles GAM qui, en relâchant la contrainte de linéarité sur les variables
explicatives permet de détecter des possibles liaisons non-linéaires.
Nous proposons un modèle de prédiction du taux de destruction pour les sinistres ayant lieu à l’intérieur de l’empreinte
(Modèle 1) et un modèle pour les sinistres ayant lieu dans les zones complémentaires et dans le Hors-Zone. (Modèle
2).
Nous choisissons de distinguer ces deux types de sinistres en considérant que les sinistres ne sont pas
fondamentalement du même type.
Nous constatons que certaines variables se démarquent particulièrement des autres par leur influence importante sur
la modélisation.
Trois grands types de variables explicatives sont disponibles dans notre base de sinistres :
— Les variables « internes » au contrat.
— Les variables liées au phénomène d’inondation.
— Les variables externes ou géographiques.
31
Figure 2.19 – Graphique : Influence marginale des variables internes
Interprétation :
QUAL : Nous constatons que la variable QUAL (qualité de l’assuré) est conforme à nos intuitions puisque le taux de
destruction est deux fois plus élevé pour un contrat où l’assuré est locataire plutôt que propriétaire.
Une explication de ce phénomène vient du fait qu’un locataire assure principalement du contenu aux inondations qui
est beaucoup plus vulnérable que pour un propriétaire qui assure une partie du bâtiment en plus.
ETAGE : L’information Étage est une information capitale malgré le fait qu’elle ressorte peu dans l’influence relative
des variables. Encore une fois, intuitivement, il parait tout à fait cohérent qu’un appartement semble moins vulnérable
qu’une maison ou un appartement au rez-de-chaussée puisque celui-ci se trouve en hauteur.
Les principaux dégâts seront plus liés à des phénomènes d’infiltration de l’eau qu’à une réelle submersion de son
contenu considérée à juste titre plus coûteuse.
De plus, la majorité des sinistres liés aux phénomènes d’inondations touchant les appartements en étage sont liés à
un dégât des eaux inondant le balcon de l’assuré ou encore à des inondations de caves qui rentrent des fois dans la
garantie habitation de l’assuré.
Le taux de destruction associé au appartement en rez-de-chaussé est très élevé mais le peu d’exposition que nous
avons pour cette catégorie nous oblige à raisonner avec prudence.
NB_PIECES : Le nombre de pièces a un comportement très irrégulier, nous constatons cependant que pour les
habitations avec un fort nombre de pièces, le taux de destruction semble décroître. Ce n’est pas étonnant car la
somme assurée est étroitement liée aux nombres de pièces de l’habitation.
Ainsi pour un contrat avec un nombre important de pièces, la somme assuré sera d’autant plus élevée faisant alors
mécaniquement baisser le taux de destruction. Il semble donc difficile de justifier l’utilisation de cette variable dans
la suite.
32
Figure 2.20 – Graphique : Influence marginale des variables inondations
Interprétation :
Duration : La durée de l’évènement inondation a un comportement irrégulier, nous nous attendions à une augmenta-
tion du taux de destruction en fonction de la durée de l’évènement mais cette situation est difficilement perceptible.
Il est important de rappeler que nous travaillons ici sur des pertes directes et que la relation entre perte directes et
durée de l’inondation est moins perceptible qu’avec les pertes indirectes.
Vals : Le taux de destruction ne semble pas être corrélé avec la hauteur d’eau ce qui peut être contre-intuitif.
Cependant, les hauteurs sont des hauteurs d’eau simulées à partir du modèle de propagation d’AXA Global P&C
puisque les hauteurs réelles sont très difficiles à récupérer.
Ainsi, nous n’estimons pas qu’il n’y a aucune relation entre hauteur d’eau et perte directe en Résidentiel mais
cependant celle-ci ne nous semble pas suffisamment fiable et cohérente pour l’intégrer dans nos modèles.
33
Figure 2.21 – Graphique : Influence marginale des variables externes
Interprétation :
isSOUTH : La variable isSOUTH est une variable binaire prenant la valeur 1 quand le contrat est localisé dans
un département situé dans la liste suivante :
— 07
— 48
— 30
— 34
— 66
— 11
— 13
— 83
— 06
Cette variable a été construite à partir du constat qu’un nombre important de sinistres était localisée dans le sud et
que la charge y était plus importante. Bien que cette variable semble avoir un effet segmentant important, il nous
semble difficile à justifier d’effectuer une segmentation a priori aussi forte.
NB_ARRETE : Cette variable donne le nombre d’arrêtés CAT NAT décrétés par commune depuis plus de 40
années. Nous constatons une tendance clairement à la hausse.
Toutefois, intuitivement nous pouvions aussi nous attendre à observer l’effet inverse puisque des communes souvent
touchées auraient pu mettre en place des politiques de prévention ou des défenses physiques.
era_q990 : Cette variable donne le quantile de précipitation à 99% sur un historique de 40 ans et nous consta-
tons qu’il y a une tendance à la hausse mettant en avant le rôle de la précipitation ou du débit de la pluie dans
l’intensité de la destruction des biens. Une analyse de corrélation met en évidence la forte corrélation entre cette
variable et la variable isSOUTH définie précédemment. Nous lui préférons donc cette variable reposant sur des ob-
servations plus objectives qu’un jugement a priori.
Density : Plus la densité est importante plus le taux de destruction diminue. Ce n’est pas flagrant sur le gra-
phique mais après retraitement de la variable, nous obtenons une tendance clairement baissière mettant en évidence
les propres tenus dans la sous-section précédente.
De nombreuses autres variables ont été testés mais ne fournissent pas un caractère prédictif suffisamment fort comme :
— Le taux d’urbanisation qui s’avère fortement corrélé à la densité de population.
— La nature des sols qui peut avoir une incidence sur la perméabilité du sol et donc sur le risque inondation
mais qui n’apparaît pas comme significative dans notre étude.
— La richesse de la population et de manière générale toute information socio-économique dans la zone considérée.
34
Étape 2 : Découpage optimal des variables continues
Dans cette section, nous nous proposons d’expérimenter une technique pour l’intégration de variables continues dans
nos modèles statistiques.
La question de la transformation des variables continues (ou quantitatives) en variables qualitatives est souvent,
à tort, considérée comme une problématique mineure et la création des différentes modalités est souvent réalisée
en proposant seulement des regroupements avec un nombre suffisant d’observations sans tenir compte de la réelle
influence de ce découpage sur la vraisemblance des modèles et sans justification théorique.
Dans la suite, nous nous proposons d’étudier avec plus de précisions le deuxième point.
Ainsi, nous nous proposons d’adopter une démarche plus rigoureuse qui repose sur l’utilisation de modèles additifs
généralisés (GAM ). Cette démarche sera appliquée sur l’ensemble des variables continues de notre modélisation.
Afin de regrouper en modalités les différentes valeurs de ces variables, le modèle additif teste tout d’abord l’hypothèse
de non-linéarité de la relation avec la fréquence de sinistres.
Après avoir mis en évidence cette non-linéarité (qui motive donc à partitionner la variable en classes), nous pouvons
quantifier la contribution marginale de cette variable sur la variable cible et ainsi détecter des tendances haussières
ou au contraire à la baisse.
Dans ce qui suit, nous donnons un bref rappel théorique des modèles GAM qui s’apparentent sur de nombreux points
aux modèles GLM.
Cependant, l’idée des modèles additifs est de relâcher l’hypothèse de linéarité du prédicteur que l’on impose dans un
GLM :
p
X
g (E [Y |x1 , ..., xp ]] = βk x k
k=1
L’estimation des fonctions associées aux variables explicatives est effectuée par des méthodes semi-paramétriques de
lissage (splines pénalisés par exemple). Nous allons utiliser les modèles GAM pour définir le découpage en classes
d’une variable continue dont l’effet est non-linéaire.
Dans ce qui suit, nous prenons l’exemple du nombre d’arrêtés CAT NAT. Pour la modélisation, nous reviendrons
quelque peu sur ce découpage pour regrouper des modalités qui seraient faiblement représentées.
Tout d’abord, nous pouvons représenter la moyenne du taux de destruction empirique en fonction du nombre d’arrêtés
CAT NAT.
35
Nous savons que le nombre d’arrêtés CAT NAT est un critère explicatif fort. Ici, nous observons son influence sur la
sinistralité.
Malgré une tendance globale à la hausse (ce qui semble cohérent), il existe certains pics qui contribuent à augmenter
la volatilité de la variable (surtout vers la queue de la courbe).
Ceci ne nous permet pas une interprétation aisée des niveaux de risques des différentes modalités.
Catégorisation de la variable
Pour tester l’hypothèse de non linéarité de la relation avec le taux de destruction, nous voulons estimer la part
due au nombre d’arrêtés CAT NAT sur la variable réponse.
Ainsi, construisons le modèle GAM suivant :
log(E [Y ]) = α0 + f (N ombreCATi )
Notons que la structure additive du modèle GAM permet cette démarche d’estimation individuelle. L’inclusion
d’autres variables explicatives dans le modèle ne changerait pas la forme de la relation estimée ici.
La procédure GAM sépare l’influence linéaire du nombre d’arrêtés CAT de son influence non-linéaire.
Nous acceptons l’hypothèse que l’influence du nombre d’arrêtés CAT sur le taux de destruction comporte une partie
linéaire et une partie non-linéaire toutes deux significatives en analysant les sorties de la procédure GAM.
Ainsi, nous obtenons un modèle de la forme :
Le modèle que nous avons présenté précédemment estime le taux de destruction à l’aide uniquement du nombre
d’arrêtés CAT NAT et les résultats sont particulièrement mauvais ce qui est tout à fait normal.
Ce qui nous intéresse avant tout dans cette démarche est d’observer l’influence de la variable sur le taux de destruc-
tion.
36
Ainsi, nous ne tenons pas compte des valeurs estimées.
Nous allons tout d’abord extraire la partie marginale correspondant à la variable :
Nous pouvons ensuite quantifier la part du taux de destruction due uniquement à la variable par la formule :
Taux de Destruction = exp β̂N ombreCAT ∗ N̂ ombreCATi + fˆN ombreCAT (N ombreCATi )
En sortie de la procédure GAM, nous obtenons aussi les intervalles de confiance à 95% du taux de destruction estimé.
A partir des intervalles de confiance de l’estimation, nous pouvons définir des niveaux de risques.
Nous tenons à ce que les classes créées soient toutes disjointes et le nombre d’individus dans chaque classe soit suffi-
sant. Ceci nous permet de catégoriser la variable en mettant ensemble des valeurs de niveaux de risque proche.
Pour le nombre d’arrêtés CAT NAT, nous avons opté pour une segmentation en 6 classes, qui ne contiennent bien
évidemment pas le même nombre de risques.
Des regroupements entre des modalités avec trop peu d’observations seront effectués lors de la modélisation.
37
Étape 3 : Construction du modèle GLM
Enfin, après l’étape de sélection des variables et de découpage des variables continues, nous pouvons procéder à la
construction du GLM final.
Pour des raisons de confidentialité, nous ne précisons pas la liste des variables conservées dans le modèle final et ne
représentons pas l’ensemble des coefficients estimés. Ci-dessous, nous pouvons cependant représenter à titre d’exemple
un aperçu des estimations des coefficients pour les variables QUAL et ETAGE.
Nous avons un niveau de base égal à 10,99% ; c’est la valeur du taux de destruction pour les modalités de référence.
Nous retrouvons par exemple pour ces variables les mêmes relativités que pour le GBM.
Un coefficient de 198,1% pour la modalité L (assuré Loctaire) de la variable QUAL signifie « que toute chose égale
par ailleurs », un locataire devra s’attendre à un taux de destruction quasiment deux fois plus fort que si c’était un
propriétaire.
De même, pour la variable ETAGE, le coefficient de la modalité R (rez-de-Chaussée) est fort et conforte ce que
nous avions vu pour le modèle GBM. Les histogrammes en jaune représentent l’exposition dans la base sinistre des
modalités considérées permettant ainsi d’évaluer la pertinence de ces estimations.
38
Enfin, nous pouvons représenter les courbes de Lorenz pour le modèle GBM et le modèle GLM final après retraite-
ment.
Nous constatons que les deux courbes sont très proches ce qui veut dire que nous arrivons avec les multiples retraite-
ments sur les variables à construire un GLM avec une segmentation quasiment équivalente à celle d’un GBM. Étant
donné que l’indice de Gini des données sinistres est très proche de 1, nous nous contentons d’utiliser la valeur de
l’indice de Gini usuel pour conclure sur la pertinence du modèle.
De plus, les critères d’ajustement statistiques classiques mettent en évidence que le modèle semble coller correc-
tement aux données réelles.
Étape 4 : Construction du Modèle 2 : sinistres dans les zones complémentaires et dans le Hors-Zone
Pour la modélisation du taux de destruction pour les zones de risques complémentaires et le hors-zone, nous adoptons
exactement le même processus, c’est pourquoi nous n’affichons ici qu’un aperçu des estimations des coefficients.
Nous remarquons que les relativités pour la variable QUAL sont encore plus marquées que pour le modèle 1 ce qui
confirme et conforte notre décision de construire deux modèles différents en fonction des zones de risque.
De plus, suite à des tests sur de nombreux modèles, nous avons choisi de fusionner les deux zones de risque complé-
mentaire et de ne considérer que la présence ou l’absence dans la zone comme variable explicative binaire (variable
GEO).
De plus, le taux de base est plus faible (deux fois moins) que pour le modèle 1.
39
2.2.4 Le secteur Industriel
Pour le risque industriel, ne disposant que de peu de sinistres, nous déterminons les taux de destruction par une
approche dite de jugements d’experts reposant sur des études scientifiques ou des simulations menées par AXA
Matrix.
Par ailleurs, une segmentation a priori des biens industriels avait déjà été effectué par Axa Corporate Solutions en
trois grands groupes :
Ainsi dans la classe 1, nous trouvons des sites industriels chimiques ou des sites de haute technologie qui sont a priori
très vulnérables à des inondations pouvant avoir une influence particulièrement grave.
Dans la classe 3, nous trouvons des sites d’industrie lourde présentant un risque plus faible.
Aussi, pour la branche industrielle, nous proposons des paramètres de vulnérabilité pour les trois garanties
séparément contrairement au risque Résidentiel :
— Pour la garantie Bâtiment, nous utilisons une moyenne constatée sur la base sinistre.
— Pour la garantie Contenu, nous nous appuyons sur des courbes de vulnérabilité fournie par AXA Matrix.
— Pour la garantie Perte d’exploitation, nous proposons une approche consistant à considérer que le principal
facteur est la durée de l’inondation.
La Garantie Bâtiment
Pour la garantie Building, nous faisons le choix de fixer des taux de destruction égaux à la moyenne observée sur
nos base sinistres et ceci pour les 4 zones de risques complémentaires définies préalablement :
Figure 2.28 – Figure : Taux de destruction Building pour les 4 zones de risque
Interprétation :
La garantie Building couvrant l’ensemble des bâtiments, nous avons des taux de destruction faibles mais nous notons
encore une fois la diminution de ce paramètre en fonction des zones de risques mettant à nouveau en lumière l’intérêt
de ce découpage géographique.
40
La Garantie Contenu
Une étude précédente menée conjointement par AXA Matrix et AXA Global P&C a permis la construction d’une
courbe de vulnérabilité de la garantie Contenu pour la branche d’activité industrielle par classe de risque du bien
assuré.
Nous représentons ici la courbe de vulnérabilité déterminé pour la classe de risque 1 qui pour rappel représente les
sites industriels les plus risqués :
Cependant, nous souhaitons mettre en avant le fait que dans certaines situations mises en évidence par un nombre
important d’études 6 , nous pouvons avoir une perte totale des biens assurés c’est-à-dire un taux de destruction égale
à 1.
Pour cela, au lieu de considérer un taux de destruction déterministe, nous faisons le choix de modéliser notre taux
de destruction par une loi Beta inflatée en 1 et ceci pour chacun des intervalles d’hauteurs d’eau.
Soit X0 une variable aléatoire une loi Beta classique définie par deux paramètres α et β dont la densité peut
s’écrire par :
1
f (x, α, β) = xα−1 (1 − x)
β−1
1[0,1] (x)
B (α, β)
Soit F0 la fonction de répartition de la variable X0 . Nous pouvons définir la fonction de répartition de la variable
X1 inflatée en 1 par :
F1 (x) = (1 − p1 ) F0 (x) + p1 1[1,+∞] (x)
où p1 représente la probabilité de destruction totale.
La densité de la variable X1 devrait être considéré sous la mesure µ (x) = λ (x) + δ1 (x) :
1x6=1 1x6=1
f1 (x) = p11 x=1 (1 − p1 ) f0 (x)
41
Figure 2.30 – Taux de destruction pour le contenu de la branche industriel
Ainsi, pour un bien assuré industriel sinistré appartenant à la catégorie de risque 1 et inondé par une hauteur d’eau
égale à 2.5 mètres, nous tirons aléatoirement son taux de destruction pour la garantie Contenu à partir d’une loi
Beta inflatée en 1 de moyenne de taux de destruction 24% et avec une probabilité de 19% de destruction totale.
Pour les biens appartenant à la catégorie 2 et 3, la même distorsion est appliquée sur les courbes de vulnérabilité
fournie par AXA Matrix permettant ainsi d’inclure de la volatilité dans les taux de destruction déterministes fournis.
Pour les taux de destruction dans les trois autres zones, nous utilisons les mêmes relativités que pour la garan-
tie Bâtiment que nous appliquons sur les moyennes de taux de destruction puisque nous n’avons pas d’informations
sur les hauteurs d’eau dans les zones complémentaires nous permettant de calibrer des courbes de vulnérabilité.
42
La Garantie Business Interruption
Précédemment, nous avons discuté de la problématique de la modélisation des pertes indirectes lors d’un évènement
inondation.
Pour chacune des 3 classes de risques définies préalablement, nous proposons un taux de destruction τBI de la forme
suivante :
n+
τBI =
N
où :
— n la durée de l’inondation en nombre de jours.
— N le nombre de jours ouvrés dans une année (fixée à 252).
— un facteur additionnel dépendant de la classe du bien industriel (1, 2 ou 3).
Cependant, la durée d’un évènement n’est pas aussi simple à obtenir pour nos évènements simulés.
En effet, le module Aléa produit une série d’évènements probables avec une empreinte inondation et les hauteurs
d’eau associées à chacune des cellules inondées mais ne donne pas la durée de l’évènement.
L’approche retenue pour déterminer la durée de l’inondation est d’établir une relation polynomiale d’ordre 2 entre
durée d’évènement et volume d’eau (en m3 ) calculé à partir de la connaissance de la hauteur d’eau dans chaque
cellule. Cette relation est de la forme :
Figure 2.31 – Graphique : Modélisation de la durée de l’évènement en fonction du volume d’eau dans l’empreinte
Le R2 de la modélisation est très bon, permettant ainsi de valider cette approche. Ainsi pour les évènements
historiques, nous avons :
Notons que c’est une approche conservatrice puisqu’on utilise la durée de l’inondation totale et non pas la durée de
l’inondation pour chaque cellule.
Enfin, nous faisons le choix de ne considérer un taux de destruction pour la perte d’exploitation et donc une perte
positive seulement pour les sites se trouvant dans l’empreinte de l’inondation.
Les sites étant dans les zones complémentaires ou hors-zone auront donc un taux de destruction pour
la perte d’exploitation égal à 0.
43
2.2.5 Le secteur Commercial
Pour la branche d’activité Commercial, nous reprenons une approche similaire que pour le risque Industriel.
Cependant, ici nous ne disposons pas de courbes de vulnérabilité calibrée à priori par AXA Matrix.
Les taux de destruction pour la garantie B et C sont supposés égales et déterminés à partir des données sinistres :
Pour la garantie Business Interruption, le taux de destruction est obtenu de la même façon que pour la branche
d’activité industrielle en modifiant le facteur additionnel .
44
2.2.6 Le secteur Immeuble
Pour la branche d’activité Immeuble, le taux de destruction a été calibré à partir de la base sinistres. Nous ne
choisissons pas de faire une segmentation suivant la garantie couverte et proposant un taux de destruction unique.
Notre seul critère de segmentation est donc la zone de risque du site assuré.
Cependant, nous constatons que dans le portefeuille, certaines polices ont une somme assurée particulièrement im-
portante probablement à cause d’une agrégation de site assuré ou à une mauvaise manipulation informatique lors de
la création de la base. Ces sommes assurées élevées conduisent ainsi à des pertes incohérentes et bien trop élevées
après multiplication par le taux de destruction déterminé.
Nous avons décidé de « limiter » les pertes obtenues par le modèle pour éviter d’avoir des charges difficiles à justifier
à un seuil maximal.
Ce seuil correspond au quantile à 99,5% de la distribution des pertes modélisées à partir de notre historique sinistres.
Pour le déterminer, nous avons modélisé les pertes par une loi à queue lourde :
45
2.2.7 Ajout d’une volatilité
Enfin, après une analyse détaillée de la base, nous avons remarqué une volatilité importante des taux de destruction
suivant l’évènement inondation considéré.
Ci-dessous, un exemple de variabilité des taux de destruction pour la branche résidentielle :
Pour tenir compte de cette variabilité, appelée aussi incertitude secondaire, nous déterminons un event volatility
factor. Ce coefficient suit une loi log-normale centrée en 1 permettant de modéliser l’écart à un comportement moyen.
Dans la littérature, le terme de COV (Coefficient de variation) est souvent utilisé.
Ce coefficient est déterminé pour chaque branche d’activité par :
σ
COV =
µ
où :
— σ est l’écart-type des pertes.
— µ est la moyenne des pertes.
Ce coefficient est calibré pour chacune des branches d’activité du portefeuille d’AXA France.
Ceci, nous permet alors, au lieu de considérer un taux de destruction unique (hormis le cas de l’industriel en contenu
qui est déjà aléatoire) d’obtenir une distribution de probabilité.
46
Figure 2.37 – Graphique : Distribution log-normale du COV pour le secteur Résidentiel
Ci-dessus, nous avons représenté la distribution du coefficient de variation pour les appartements en Résidentiel.
Nous constatons que cette distribution est très resserrée autour de sa moyenne. Les valeurs que peuvent prendre le
taux de destruction ne seront donc pas très volatils.
Nous pouvons alors calculer la distribution de probabilité du taux de destruction associé à cette catégorie de vulné-
rabilité en tirant aléatoirement une valeur du coefficient de variation un nombre important de fois et en multipliant
le résultat par le taux de destruction déterministe.
Nous pouvons exhiber le résultat toujours pour les appartements Résidentiel ci-dessous :
47
2.3 Modélisation de la Chance of Loss ou Probabilité de sinistres(draft)
Suite à l’analyse statistique réalisée pour la détermination des taux de destruction, nous avons pu quantifier la perte
économique d’une inondation sur des polices sinistrées mais il parait évident que l’ensemble des polices se trouvant
dans l’empreinte de l’inondation ou dans les zones de risques ne déclarent pas de sinistres.
Pour tenir compte de cette situation, nous nous proposons d’estimer une probabilité de sinistre (Chance of Loss )
qui correspond à la probabilité qu’un site donné déclare un sinistre.
Plusieurs paramètres peuvent expliquer que le sinistre n’ait pas eu lieu dans l’empreinte :
— L’étage de la police : un site surélevé comme un appartement déclare beaucoup moins de sinistres qu’un site
au rez-de-chaussée.
— Temps d’alerte : dans certaines situations,les assurés peuvent être prévenus de l’imminence d’un évènement et
se préparer en protégeant leurs biens ce qui réduit la probabilité de sinistre.
— La présence de protections.
— Le surélèvement de certains biens par rapport au niveau du réseau de rivière
Figure 2.40 – Carte : Représentation de l’empreinte de la crue du Rhône et des sinistres observés
48
2.3.1 Calibration de la Fréquence Résidentiel sur la Crue du Rhône
Le processus de calibration de la COL a été réalisé exclusivement sur un évènement unique : la Crue du Rhône
de 2003.
Plusieurs raisons expliquent ce choix :
Les empreintes pour les évènements sont crées à partir du module de propagation interne d’AXA Global P&C et ne
sont pas des empreintes historiques.
Il est illusoire de croire que notre modèle de propagation permet ainsi de construire des empreintes qui soient tota-
lement crédibles puisque le module Aléa est un modèle par débordement de rivière et n’est donc pas exhaustif.
Cependant, la crue du Rhône de 2003 est un cas d’école de débordement de rivière et nous arrivons à produire
une empreinte qui nous semble correcte.
De plus, devant le peu de données géocodées, nous décidons de calibrer une fréquence de sinistre sur le secteur Rési-
dentiel et d’en déduire par divers raisonnements la fréquence de sinistre des autres branches d’activité.
Nous ne disposons pas du portefeuille d’AXA France l’année de la survenance de l’évènement, nous ne pouvons
pas donc faire une jointure ligne à ligne entre police et sinistres pour calibrer un véritable modèle statistique type
logit afin de déterminer les variables influençant la fréquence de sinistre.
Ne disposant que du portefeuille d’AXA France en 2015, l’exposition sera réajustée pour capturer l’évolution du
portefeuille entre la date de l’extraction du portefeuille et la date historique du sinistre.
De plus, la base sinistre n’est pas entièrement géocodée donc ce biais doit être pris en compte dans la revalorisation
de la fréquence de sinistre.
49
De plus, intuitivement, il nous semble naturel de considérer que la hauteur d’eau est un facteur explicatif de la
fréquence de sinistres et que plus celle-ci est est élevée plus la fréquence est importante. Cette intuition est confirmée
par le calcul de la fréquence de sinistres par bande d’hauteurs d’eau comme nous pouvons le voir ci-dessous :
Nous constatons alors que la fréquence de sinistres est quasi-stable pour les appartements au-dessus d’un seuil iden-
tifié à 1 mètre.
Dans la suite, nous considérons alors que la COL pour les appartements ne dépend pas de la hauteur
d’eau. Pour les maisons et les appartements rez-de-chaussée, il y a clairement une tendance à la hausse en fonction
de la hauteur d’eau.
Cependant, dans nos données historiques il existe très peu de sinistres avec des hauteurs d’eau à plus de 2 mètres.
A partir d’études scientifiques externes, nous construisons une nouvelle courbe de dépendance à la hauteur d’eau par
blending entre données empiriques et données a priori de sorte que pour les faibles hauteurs d’eau, les deux courbes
soient proches.
Le résultat final est présenté ci-dessous :
Figure 2.43 – Graphique : Chance of Loss en fonction de la hauteur d’eau pour MRH-M et MRH-R
50
2.3.2 Extension aux autres branches d’activité
Pour les autres branches d’activité, nous nous proposons de suivre le processus suivant :
1. Calcul de la Chance Of Loss moyenne sur nos bases d’études.
2. Calibration des courbes de dépendance à la hauteur d’eau à partir de la courbe Résidentiel en procédant à
des ajustements pour avoir une moyenne égale à la COL moyenne déterminée en 1.
Nous obtenons les résultats suivants :
Figure 2.44 – Graphique : Chance of Loss pour toutes les branches d’activités
Notons que les branches d’activité Immeubles, Commercial, et Résidentiel ont des valeurs très semblables puisque
ces branches couvrent des polices similaires qui ne diffèrent que par les sommes assurées en jeu.
Figure 2.45 – Graphique : Relativités de la fréquence de sinistres suivant les zones de risques
51
2.4 Récapitulatif et exemple
Devant la complexité du processus de calibration, nous présentons ici un cas fictif pour expliciter la procédure de
calcul qui sera systématiquement suivie pour la génération des pertes.
Prenons l’exemple d’un portefeuille fictif composé de 3 sites Résidentiel mais le processus reste similaire et générali-
sable pour un portefeuille avec un nombre plus important de sites assurés.
Nous avons vu auparavant, que pour la branche Résidentiel, les taux de destructions sont fonctions des caracté-
ristiques du site mais aussi de sa localisation dans les zones de risque.
Nous cherchons donc à évaluer, à partir de la connaissance des paramètres de vulnérabilité, l’impact financier d’un
évènement i tiré du catalogue d’Aléa.
Figure 2.46 – Graphique : Fonctions de répartition pour une valeur d’aléa fixée pour les 3 sites
Comme nous pouvons le voir ici, la fonction de répartition 1 (en rouge) a une masse importante en 0 car le
site considéré est dans la deuxième zone complémentaire, la probabilité que ce site génère une perte est donc
faible.
Pour le troisième site, étant dans l’empreinte inondation, la masse est plus petite et la probabilité de générer
une perte strictement positive est plus importante.
52
Figure 2.47 – Graphique : Tirage de nombres aléatoires sur l’axe des ordonnées et déduction du taux de destruction
Compte tenu de la présence de la masse en 0, il est possible que ce vecteur soit composé de taux de destruction
nuls.
La procédure est extrêmement similaire pour les autres sites du portefeuille, cependant pour les sites des autres
branches d’activité, comme nous avons calibré une vulnérabilité par garantie couverte (Bâtiment,Contenu et
Perte d’exploitation), nous devons pour chaque garantie d’un site en question, récupérer la bonne fonction de répar-
tition des taux de destruction.
La troisième section du mémoire va venir répondre aux principales interrogations que suscitent ce mode de calcul
notamment sur la génération des nombres aléatoires, l’agrégation des pertes ou encore l’architecture informatique
nécessaire pour effectuer ce genre d’opérations.
53
2.5 Conclusion et limite de l’approche
Dans cette section, nous avons proposé une approche pour déterminer le couple de paramètres (taux de destruc-
tion, fréquence de sinistre) pour l’ensemble des catégories de vulnérabilité en essayant de trouver des paramètres de
segmentation permettant une analyse plus fine du risque.
L’étude de la base sinistre nous a permis de détecter de nombreuses variables ayant une influence significative
sur le risque inondation.
Devant les peu de données mises à disposition pour certaines branches d’activités, il nous a semblé nécessaire de nous
baser sur des jugements a priori par le rapprochement et la collaboration avec AXA Matrix.
L’étude de la fréquence de sinistre quand un site est dans une empreinte inondation s’est révélée beaucoup plus
compliquée que prévu nous empêchant alors de construire un modèle prédictif cohérent.
Enfin, au vu des nombreuses sources d’incertitudes, qu’elles soient liées à nos estimations statistiques ou à la qualité
de la base sinistre, nous avons fait le choix de calibrer un coefficient de variation appliquant ainsi un choc sur les
taux de destruction déterministes.
Faute de temps, nous n’avons pas étudié les modèles gamlss (Generalized additive model for location, scale and
shape) estimant une moyenne mais aussi une variance qui pourrait par exemple dépendre de la hauteur d’eau. En
guise de pistes d’améliorations, citons par exemple une amélioration globale de la qualité des données qui nous per-
mettrait d’effectuer une analyse plus juste du risque.
Par ailleurs, le rajout d’une corrélation entre taux de destruction et hauteur d’eau nous semble par ailleurs particu-
lièrement important.
La construction du module de vulnérabilité pourra être enrichie par la suite en intégrant plus de variables exo-
gènes que nous pourrons récupérer à partir de bases de données publiques ou même de bases privées faisant ainsi le
pont entre la puissance des BigData et l’estimation du risque de phénomènes climatiques.
Une amélioration de la qualité des informations contenues dans le portefeuille des assureurs est donc un incontournable
pour une meilleure estimation et quantification des risques de catastrophe.
54
Chapitre 3
A présent que le module Vulnérabilité a été entièrement calibré, il s’agit de mettre en place la plateforme de calcul
permettant de déterminer les pertes économiques à charge de l’assureur concernant le risque d’inondation.
Pour cela, nous avons adopté une solution combinant un développement sous R de la majorité des traitements de
données et un coeur de calcul développé en C++ pour optimiser les temps de calculs.
Dans un premier temps, nous revenons sur les différents développements informatiques réalisés et présentons briè-
vement l’initiative OASIS et les choix de modélisation s’y rattachant.
Cette section sera principalement dédiée à expliciter le processus permettant de passer du module Vulnérabilité du
modèle à des pertes économiques pour l’assureur en tenant compte de nombreux facteurs comme, par exemple, la
volatilité des paramètres de vulnérabilité, des corrélations sur la génération des pertes entre les sites touchés et du
nombre de resimulations de chaque évènement issu de notre catalogue d’Aléa.
Dans un second temps, nous procédons à une évaluation du modèle sur les évènements historiques.
Cet exercice consistera à vérifier sa cohérence en simulant les évènements historiques qui ont produit des pertes pour
le portefeuille d’AXA France et en comparant les pertes modélisées aux pertes historiques.
Bien que nous utilisons un modèle CAT principalement pour estimer des pertes extrêmes, une reproduction raison-
nable et correcte des pertes historiques est primordiale.
Dans un troisième temps, nous appliquons le modèle sur les 60.000 évènements du catalogue d’Aléa permettant
ainsi d’avoir la vision complète du risque.
Nous pouvons alors construire les AEP et OEP du modèle pour le portefeuille non-vie d’AXA France ou encore de
déterminer la perte bi-centenaire pour celui-ci pour identifier les besoins en capitaux de l’assureur.
De plus, nous réalisons une étude de sensibilité sur le modèle en modifiant certains paramètres pour évaluer la ro-
bustesse de nos résultats et quantifier les incertitudes inhérentes à tout modèle CAT.
Enfin, dans un dernier temps, nous présentons des cartes de risques issues du modèle permettant de mettre en
évidence des zones à risque concernant les phénomènes d’inondations.
De plus, nous nous proposons d’appliquer le modèle sur la crue de Paris en 1910 qui est considérée comme l’un des
évènements les plus dévastateurs d’inondations ayant touché la France dans l’histoire moderne.
L’idée est de pouvoir quantifier la perte économique que cet évènement entraînerait s’il avait lieu aujourd’hui pour
le portefeuille d’AXA France.
L’évènement Paris 1910 constitue en quelque sorte un benchmark et de nombreuses publications scientifiques 1 pro-
posent une estimation de la perte pour le secteur Assurantiel permettant ainsi de légitimer notre modèle.
55
3.1 Implémentation et coeur de calcul
3.1.1 L’initiative OASIS
La question de l’architecture informatique est fondamentale dans un contexte de modélisation de catastrophes
naturelles. A l’aide des évènements fictifs générés dans le module Aléa, nous pouvons évaluer et quantifier le risque
d’inondation pour un portefeuille d’assurance donné.
Cependant, pour avoir une vision la plus juste possible et qui « couvre l’univers des possibles », le nombre d’évène-
ments fictifs produits est élevé ; dans notre cas 60.000 évènements simulés.
La question du développement informatique est donc primordiale pour optimiser les temps de calcul.
Axa Global P&C a décidé pour développer des modèles CAT internes respectant les meilleurs conventions de code
et permettant des calculs efficients de se rapprocher de l’initiative OASIS.
L’initiative OASIS a vu le jour en 2012 grâce à un support important du monde l’Assurance et de la Réassurance
représentant ainsi un consortium de plus de 40 assureurs et réassureurs.
L’idée fondamentale derrière la création de cette organisation est de promouvoir la science des phénomènes clima-
tiques et de développer la connaissance des assureurs sur les risques extrêmes qu’ils peuvent subir 2 .
Concrètement, OASIS met à disposition de ses membres un nombre important de codes développés en C++ parti-
culièrement optimisés permettant sous réserve de fournir tous les éléments de la modélisation (portefeuille géocodé,
paramètres de vulnérabilité et évènements fictifs) de produire des pertes en un temps de calcul très faible.
Nous avons donc décidé d’utiliser ces ressources mises à notre disposition pour développer le mo-
dèle CAT étudié dans ce mémoire.
En d’autres termes, puisque les paramètres de vulnérabilité définis dans la section 2 ne sont pas constants mais
variables à cause du choc appliqué à l’aide du coefficient de variation, rejouer plusieurs fois un même évènement ne
conduit pas à la même estimation de pertes.
Pour cela, nous calculons une moyenne mobile pour un évènement donné sur un portefeuille fictif suffisamment
hétérogène et analysons en combien de simulations il y a un effet de stabilisation et de convergence.
56
Figure 3.1 – Graphique : Convergence des pertes simulées vers la moyenne simulée
A l’aide du graphique ci-dessus, nous en concluons qu’il faut au minimum 50 simulations pour assurer la convergence
de la moyenne.
Pour être prudent et pour tenir compte du fait que certains sites appartiennent à des catégories
de vulnérabilité fortement volatils, nous faisons le choix de faire 100 simulations pour chaque évène-
ment dans notre catalogue d’Aléa.
Notons que par construction, la perte maximale pour un évènement donné est inférieure ou égale à la somme assurée
totale des sites touchés.
De plus, la probabilité que la perte maximale soit égale à cette valeur est extrêmement petite.
En effet, théoriquement, si n sites sont affectés par un évènement donné, nous pouvons estimer la probabilité de
destruction totale (équivalente à un taux de destruction égale à 100%) par :
La probabilité de perte totale pour n’importe quel site étant strictement inférieure à 1, le produit de ces probabilité
devient très petit quand n augmente et tend même vers 0.
Par exemple, supposons que tous les sites sont identiques et qu’ils aient le même taux de destruction moyen pour un
évènement donné.
S’il y a 100 sites et que la probabilité de destruction totale du site est de 0.2 alors la probabilité de destruction totale
est égale à 0.2100 ≈ 10−70 ≈ 0.
Dans ce cas, il semble évident que la perte maximale ne pourra pas être égale à la destruction totale des 100 sites.
57
Pour n simulations d’un même évènement, nous récupérons un vecteur de taille n considérant que c’est la réali-
sation de la variable aléatoire Xi où X représente la perte par évènement et i le numéro de l’évènement.
Nous faisons le choix de calibrer une loi statistique (log-normale ou gamma selon les cas) sur ces observations
pour deux raisons principales :
— Raison informatique : au lieu de stocker pour chaque évènement l’ensemble des réalisations de la variable
aléatoire représentant la perte, il suffit de stocker les paramètres de la loi utilisée pour la calibrer.
— Raison opérationnelle : pour que le modèle puisse être utilisé dans d’autres analyses de type DF A 3 , il est plus
judicieux de proposer une paramétrisation plutôt qu’un jeu de données empiriques.
Cependant, le choix d’une loi log-normale ou gamma présente un défaut important. Les lois log-normale et gamma
sont à support sur ]0, +∞[ c’est-à-dire que la probabilité (bien qu’elle soit petite) de tirage d’un montant extrême
est non-nulle.
Pour garder une cohérence avec la réalité de nos modèles , la loi calibrée doit donc être tronquée à la perte maximale
de l’évènement déterminée antérieurement.
De plus, nous procédons à une opération de mean matching en raison du fait que la loi tronquée estimée a une
moyenne légèrement inférieure à la distribution non-tronquée puisque que la troncature enlève la partie de la distri-
bution au-dessus de la perte maximale.
Ainsi, la moyenne estimée est forcée à la perte moyenne.
Pour chaque évènement, nous estimons donc les paramètres de loi sous-jacents et les récapitulons dans un tableau
de la forme suivante :
Grâce à cette opération, nous pouvons représenter pour chaque période de retour donné dans une EP curves donnée,
un intervalle autour de la perte moyenne correspondant aux quantiles à 5% et 95%. A titre d’exemple, la figure
ci-dessous illustre ce principe :
58
Cette information supplémentaire permet d’apprécier plus correctement les chiffres fournis et de donner un intervalle
de confiance sur les résultats communiqués.
Ces caractéristiques, et d’autres facteurs peuvent alors entraîner des corrélations spatiales ou non-spatiales.
Cependant, nous considérons que la corrélation « physique » est déjà prise en compte dans la construction même des
empreintes d’inondations.
La corrélation inter -site reflète la relation entre les sites d’un même ensemble touché par un évènement donné.
La corrélation intra-site reflète la relation pouvant exister entre les pertes des garanties Bâtiment, Contenu et Perte
d’exploitation pour un site donné.
Concrètement, dans les modules de calcul d’OASIS cela se traduit par le tirage du même nombre aléatoire qui sera
appliqué aux distributions des taux de destruction en cas de corrélation à 100%.
Dans la suite, nous faisons le choix de ne considérer aucune corrélation inter -site mais de considérer une corrélation
intra-site à 100%.
59
3.2 Validation sur des évènements historiques
Les modèles CAT sont principalement utilisés pour estimer des pertes extrêmes, pour lesquelles très peu ou pas
du tout d’observations sont disponibles. Un premier indicateur de cohérence à étudier est la capacité de ces modèles
à reproduire les pertes d’évènements historiques récents.
Bien que les évènements historiques répertoriés dans les bases sinistres d’AXA sont insuffisants pour dériver des
estimateurs statisques robustes sur des périodes de retour fortes (100 ans ou plus), ils sont d’une importance capitale
pour quantifier la justesse du modèle construit dans les premières étapes précédentes.
Nous jugeons dans cette section la capacité de notre modèle à ré-estimer des pertes sur le « bas de la courbe ».
La première étape de validation consiste à lancer le modèle sur les empreintes simulées pour chacun des 27 évènements
ayant touchés le portefeuille d’AXA France ces 20 dernières années.
Figure 3.3 – Graphique : Backtesting des taux de destruction sur les évènements historiques
Nous constatons que les erreurs sont globalement faibles malgré de fortes disparités entre les évènements.
Par exemple, la crue du Rhône de 2003 est extrêmement bien reproduite par notre modèle tandis que la crue de 2002
présentent un biais important.
Des explications sont à chercher au niveau même du module Aléa qui ne modélise pour l’instant que les inondations
par débordement de rivière.
La crue de 2002 étant une inondation considérée comme « Flash Flood » principalement du à une forte précipitation,
il est très difficile à l’heure d’aujourd’hui d’obtenir une modélisation correcte et des écarts importants sont constatés.
60
3.3 Simulation des pertes sur le catalogue d’Aléa
Le modèle développé permet, à l’issue des quatre modules détaillés dans la partie I, de générer une table de pertes
par évènements simulés afin de construire les courbes AEP et OEP.
Ces courbes constituent un indicateur fondamental dans la gestion des risques CAT car elles permettent d’évaluer
et de quantifier la capacité du portefeuille à résister à des évènements extrêmes.
A présent, nous pouvons lancer le modèle sur la liste des 60000 évènements fictifs probables générés antérieure-
ment, chaque mois de l’année étant simulé 5000 fois.
Pour des raisons évidentes de confidentialité, l’ensemble des graphiques ci-après ne représentent pas les montants ab-
solus des pertes des évènements mais une version normalisée par la valeur totale des sommes assurés du portefeuille
étudié.
Cette transformation permet en outre d’obtenir des résultats comparables entre différents portefeuilles voir différents
pays.
Figure 3.4 – Graphique : Distribution des pertes brutes et nettes de conditions financières par évènements
La courbe a un caractère fortement irrégulier mettant en évidence la forte hétérogénéité du catalogue d’Aléa en
termes d’intensité et d’empreintes géographiques.
De plus, nous constatons que les courbes brutes et nettes de conditions financières sont quasiment superposées ce qui
est représentatif d’un portefeuille d’assurance où les rétentions des assurés sont très faibles.
Pour rappel, le portefeuille étudié dans ce mémoire ne dispose d’aucun plafond de paiement, seules des franchises y
sont appliquées pour chacun des sites assurés.
61
Cette situation s’explique par le fait que les catastrophes naturelles sont généralement couvertes par des contrats
classiques de dommages aux biens, qui ne leur sont pas spécifiques. Les franchises sont donc très standards et ont un
effet sur les sinistres de la vie quotidienne.
Cependant, une inondation se distingue de ces sinistres par son intensité. Ainsi, les franchises usuelles de quelques
centaines d’euros couramment observées pour l’assurance d’un bien ne jouent que très peu lorsque celui-ci est détruit
de façon importante.
A partir de maintenant et pour la suite de l’analyse, l’ensemble des graphiques représenteront les
pertes nettes de conditions financières.
Figure 3.5 – Graphique : Distribution des pertes annuelles associées au portefeuille d’exposition
62
3.3.3 AEP et OEP du modèle
Ci-dessous, nous représentons les AEP (en rouge) et les OEP (en bleu) du modèle.
Outre une meilleure connaissance du risque d’inondation qu’elles apportent, ces courbes permettent de prendre des
décisions en gestion du risque notamment comme nous le verrons dans la partie suivante sur le choix d’une structure
de réassurance optimale.
Nous nous intéressons de plus particulièrement aux pertes relatives à la période de retour 200 ans c’est-à-dire aux
quantiles à 99,5% des distributions de pertes annuelles.
Cela correspondent précisément à la valeur du SCR requis par Solvabilité II pour le module Catastrophe en Assurance
non-vie.
Figure 3.6 – AEP & OEP en échelle log Figure 3.7 – AEP & OEP en échelle standard
Comme nous le voyons dans la figure 3.7, la forme concave des EP curves indique que la prime pure est extrêmement
dépendante des faibles périodes de retour.
Cette forme est typique et standard pour les périls à forte fréquence comme les inondations.
A contrario, une forme concave indique que la prime pure est plus dépendante pour les hautes périodes de retour
comme c’est le cas pour les tremblement de terre.
63
3.3.4 OEP et prime pure par mois
Pour les phénomènes d’inondation, il est commun de constater un fort effet de saisonnalité en terme d’intensité
lié en partie à la quantité de précipitations tombée dans une région donnée.
Pour savoir si notre modèle capte bien cet effet, nous nous proposons de calculer la prime pure du portefeuille repré-
sentant la charge moyenne pour chaque mois de l’année.
Il s’agit donc de voir si nous observons une forte variabilité de prime pure entre les mois d’été où les précipita-
tions (et donc le risque d’inondation) sont extrêmement faibles et les mois d’autonome et d’hiver où les évènements
d’inondations sont importants entraînant une charge élevée.
Figure 3.8 – Graphique : Prime pure moyenne (en taux de destruction) par mois de l’année
Nous validons alors le caractère hautement volatil de la prime pure du portefeuille en fonction du mois de l’année.
Cet élément de différenciation tient sa source directement à partir de la création des évènements d’inondations qui
tient compte des différents mois de l’année dans la génération des empreintes inondations et des hauteurs d’eau
simulées.
Sur le graphique ci-dessus, nous constatons que, tandis qu’en Juillet et en Août la prime pure est extrêmement faible,
nous observons une prime pure jusqu’à 5 fois plus élevée pour les mois de Janvier et de Décembre.
64
Au lieu de calculer la prime pure pour chacun des mois de l’année, nous pouvons tout aussi bien construire les OEP
par mois et ainsi détecter les tendances et les influences de ces derniers sur la construction de l’OEP globale.
Nous constatons sur la figure 3.9 que les trois mois d’été Juin, Juillet et Août saturent rapidement et que leur influence
relative sur les évènements à forte période de retour sont bien moindres que les mois d’hiver et d’automne dont la
contribution est croissante avec l’intensité des évènements.
La première remarque concerne l’allure générale du graphique qui met en lumière la forte variabilité des contributions
des branches d’activité en fonction des périodes de retour considérées.
Ainsi, pour la majorité des branches d’activité, la contribution n’est pas constante en fonction de la période de retour.
Par exemple, il est intéressant de souligner le caractère singulier des courbes représentant la branche Résidentiel-
Maison (nommée sur le graphique MRH-M ) et la branche Industriel (nommée sur le graphique MIE-M ) dont les
contributions changent radicalement en fonction des périodes de retour respectivement de 54% et 18% pour une
période de retour de 2 ans à 15% et 47% pour une période de retour de 1000 ans.
Ce phénomène s’explique par la construction même du module Vulnérabilité et des différents choix de modélisation
effectués.
Alors que la vulnérabilité de la branche Industriel est fonction de la hauteur d’eau pour la fréquence de sinistre et
pour les taux de destruction, celle du Résidentiel ne l’est que pour la fréquence de sinistre.
Ainsi, les pertes liées au Résidentiel finissent par saturer en montant absolu pour les évènements au-dessus d’un
certain seuil tandis que les pertes liées à l’industriel continuent de croître.
Cela a aussi une explication physique puisque lors d’un phénomène extrême, les dégâts les plus lourds proviennent
des grosses industries qui possédaient des contenus à fortes sommes assurées et donc représentent de gros risques
potentiels pour l’assureur.
65
3.3.6 Contribution de l’OEP dans l’AEP
La question de la contribution de l’OEP dans l’AEP est cruciale et est représentative des différents périls étudiés.
Une forte contribution signifie que les pertes majeures sont induites généralement par un phénomène majeur et non
par une multitude d’évènements de moindre intensité.
Ici, pour les faibles périodes de retour, l’AEP est engendrée par un nombre important d’évènements de faible em-
preinte et intensité traduisant une contribution relative faible.
Cependant, pour les fortes périodes de retour, la part de l’OEP est de plus en plus important ce qui est un ca-
ractère standard pour le risque inondation, La part de l’OEP dans l’AEP est consultable dans la figure ci-dessous.
Elle est globalement croissante en fonction de la période de retour, ce qui confirme le phénomène décrit précédemment.
Par exemple, la 1% Aggregate TVaR pour un portefeuille donnée est égale à la moyenne des pertes pour le top
1% des pertes annuelles aggrégées.
Pour un catalogue de 5000 années, ça serait la moyenne des 50 plus grandes pertes :
EP =0.02%
1 X
T V aR = E (L|L ≥ L1% ) = L
50
1%
La TVaR est calculée pour chaque probabilité de dépassement ce qui permet de construire une TVaR curve et de la
représenter sur le même graphique que les AEP et OEP du modèle.
66
Figure 3.12 – Graphique : Représentation de la TVAR
La TVaR, quant à elle, incorpore les pertes au-dessus du seuil de 1% et permet d’avoir une vision du risque plus
précise.
C’est ce qu’on peut voir sur la figure ci-contre où 2 compagnies A et B ont un quantile de perte similaire pour le
seuil de dépassement de 0.4% mais la compagnie A a une TVaR plus grande que la compagnie B.
67
3.3.8 Sensibilité du modèle aux paramètres de vulnérabilité
De nombreuses hypothèses ont été faites pour la construction du modèle, il s’agit à présent d’évaluer l’impact de
différents changements sur nos paramètres pour évaluer la robustesse du modèle.
Nous appliquons les tests de sensibilité suivants :
Pour chacun de ces tests, nous ré-estimons les risques inhérents aux catastrophes naturelles et reconstruisons l’OEP
pour chacune de ces situations.
Nous estimons l’impact de ces chocs de vulnérabilité sur le SCR CAT (c’est-à-dire à la valeur égale à la perte
deux-centenaire) à 17,5% du SCR.
68
3.4 Construction de cartes de risques
Nous finissons cette section par mettre en avant un outil visuel permettant d’évaluer la pertinence d’un modèle
et consistant à produire des cartes de risques sur le territoire Français.
A l’aide du modèle CAT, nous pouvons construire deux types de cartes de risques :
— Une carte de risques basée sur le module Aléa et présentant les zones les plus risquées vis à vis de la vulnérabilité
physique c’est-à-dire en agrégeant les empreintes inondations des évènements fictifs.
— Une carte de risque basée sur les pertes générées par le modèle tenant ainsi compte de l’exposition du porte-
feuille, de la vulnérabilité et des conditions financières.
Par ailleurs, nous pouvons représenter, pour chaque département, la prime pure calculée à l’aide de notre modèle
CAT (carte de risque de 2ème catégorie).
69
3.5 Reproduction de la crue Paris 1910
La crue de Paris 1910 est l’évènement inondation le plus important dans l’histoire moderne en France.
Nous procédons dans ce qui suit à une simulation de cet évènement avec le portefeuille d’AXA France actuel.
Paris 1910 est connu pour être considéré comme un évènement avec une période de retour d’environ 300 ans.
Une empreinte de cet évènement a été construite par l’équipe actuarielle à partir de ce postulat en récupérant la
hauteur d’eau dans les stations de jaugeages de tous les stations se trouvant dans la région Île-de-France et en allant
récupérer le quantile correspondant de la loi modélisée puis en lançant le modèle de propagation.
Notons que l’approche ici est dite conservative car nous ne tenons pas compte des possibles corrélations entre ces
bassins versants même si celle-ci doit être très proche de 1.
La durée de l’évènement est importante pour le calcul des taux de destruction de la garantie en Perte d’exploitation
pour les branches Industrielle et Commerciale comme nous avons pu le voir dans la section 2.
Pour cela, on utilise une documentation de la DRIIE 4 qui donne une vision très précise du déroulement de la crue.
Nous constatons que la durée de l’évènement n’excède pas 15 jours. En conséquence, nous considérons dans la suite
un scénario avec une durée de 15 jours tout en sachant que c’est très conservateur.
70
A l’aide de notre modèle, nous calculons les pertes si cet évènement devait se reproduire de nos jours :
Branche d’activité Nombre de sinistre Perte nette (en millions d’euros)
MRH 17000 272
MIE 500 433
IMM 2400 150
MRP 2400 200
COL 150 55
En agrégeant les pertes, nous arrivons à un total de plus d’un milliard d’euros de pertes pour l’assureur.
A cela, nous devons rajouter des chargements tenant compte de ce qu’on appelle la Post-Loss Amplication. 5
En effet, en cas d’évènements extrêmes touchant une zone densément peuplée, l’assureur peut effectuer des « gestes
de solidarité » en indemnisant des assurés dont la garantie ne couvre pas explicitement les dégâts subis.
De plus, en cas de dommages majeurs, de nombreuses pertes peuvent être rattachées à la garantie Perte d’ex-
ploitation voir même des pertes indirectes très difficiles à modéliser (interruption de trafic, dégâts sous-jacents à
l’évènement, frais de relocation des assurés sinistrés).
Pour tenir compte de ce phénomène, nous appliquons une série de chargements proportionnels à la taille de l’em-
preinte, de la somme assurée totale touchée et à de nombreux autres facteurs qui sortent du cadre de ce mémoire.
En agrégeant tous ces facteurs, nous arrivons à une perte globale supérieure de 20% à celle en sortie du modèle.
En tenant compte de l’estimation de perte d’un tel évènement pour le marché Assurantiel fournie par la CCR
et en tenant compte de la part de marché d’AXA sur Paris, nous arrivons à la conclusion que cette perte nous semble
cohérente et vraisemblable.
5. Montpelier Group - “Post-Event Loss Amplification” and System Risk, are we Prepared for Inflated Tail Risk Losses ?
71
Chapitre 4
Applications en Réassurance
Suite à la construction et à l’implémentation du modèle France Flood et après avoir mis en évidence l’utilité d’un
modèle interne pour une meilleure gestion des risques, nous pouvons à présent étudier une application très courante
des modèles CAT dans le domaine de la Réassurance.
Pour cela, notre travail s’articulera autour de trois sections :
Dans un premier temps, nous introduisons les concepts généraux de la Réassurance puis nous formalisons ma-
thématiquement la problématique de transfert de risque entre assureur et réassureur qui apparaît complexe sur bien
des abords.
Ce transfert de risque reposant sur l’établissement d’un contrat qui peut prendre une très grande variété de formes
rendant ainsi d’autant plus délicate toute étude de modélisation, nous présentons les différents formes les plus cou-
rantes en mettant en avant les avantages et inconvénients de chacune.
Nous finissons cette section par présenter un certain nombre de clauses classiques que l’on retrouve généralement
dans les traités de Réassurance et qui peuvent avoir un impact très important sur la modélisation qu’il est donc
intéressant de connaître pour avoir une vision du risque la plus juste possible.
Dans un deuxième temps, nous nous proposons d’utiliser les sorties du modèle CAT préalablement construit pour
la tarification d’un traité de Réassurance en excédent de sinistres par évènements avec reconstitutions gratuites et
illimitées.
La problématique de la détermination du coefficient de chargement permettant de passer d’une prime pure à une
prime commerciale est centrale concernant la tarification des traités de réassurance, cependant elle ne sera pas dé-
veloppée dans la suite. Ainsi, nous appliquerons pour notre étude un principe de prime simple reposant sur un
chargement proportionnel à l’écart-type de la perte et tenant compte de différents frais annexes.
Dans un troisième temps, nous nous intéressons à la problématique de réassurance optimale du point de vue
de la cédante consistant à déterminer la structure de réassurance lui permettant le gain économique le plus impor-
tant. Nous verrons que cette problématique étant particulièrement complexe puisque basée sur un certain nombre de
paramètres qualitatifs et subjectifs, nous dériverons plus modestement sur la mise en place d’un mécanisme reposant
sur des critères objectifs permettant de comparer des structures de réassurance déjà existantes qui constitue une
problématique plus raisonnable et accessible.
Pour cela, nous introduisons la notion de Création de valeur définie comme la différence entre le gain apporté
par la structure de réassurance en termes de fonds propres et le coût moyen de la réassurance permettant ainsi
d’établir un paramètre à maximiser pour obtenir le meilleur traité pour la cédante.
Un nombre important d’hypothèses doivent être prises pour ne pas alourdir les calculs et proposer une solution d’une
complexité raisonnable mais il s’agit de garder à l’esprit que cette problématique pourrait certainement faire l’objet
d’un tout autre mémoire, au vu de sa complexité.
72
4.1 Concepts généraux et utilité de la Réassurance
4.1.1 L’utilité de la Réassurance comme outil de Risk Management
Le contrat de réassurance est un contrat aléatoire par lequel le réassureur s’engage envers l’assureur contractant
appelé cédante à couvrir financièrement pour une période donné en échange du paiement d’une somme d’argent dite
« prime de réassurance » tout ou une partie des montants des sinistres relatifs à tout ou une partie des polices du
portefeuille de l’assureur, selon les termes et modalités déterminés par le contrat. 1
Le contrat de réassurance est généralement un contrat d’assurance particulier liant un assureur à un réassureur.
On considère souvent à juste titre que cela constitue « l’assurance des assureurs ».
Parmi les réassureurs les plus importants, nous pouvons citer Swiss Re, Munich Re, Hannover Re ou encore Scor.
Il existe quatre modes de réassurance que nous retrouvons ci-dessous :
hhhh Réassureur
hhhh
Obligatoire Facultative
Assureur
hhh
hhh h
Obligatoire Traité OB-FAC
Facultative FAC-OB FAC
— Obligatoire : la cédante s’engage à présenter au réassureur tous les risques du portefeuille couverts par le
traité et ce dernier s’engage à les accepter.
— Facultative : C’est une réassurance « police par police », la cédante est libre de présenter le risque au réas-
sureur, qui lui-même est libre de l’accepter ou de le refuser. En pratique, elle est très utilisée dans l’assurance
des grands risques.
— Obligatoire-Facultative : le réassureur a le droit d’accepter ou non le risque mais l’assureur doit le présenter
au contrat. Cette forme de réassurance n’existe pas en pratique.
Dans la suite, nous nous limitons à l’étude du mode de réassurance dit « obligatoire » en comparaison
au mode de réassurance dit « facultatif ».
La Réassurance possède de nombreux avantages pour les cédantes ce qui en fait un outil incontournable surtout
depuis la mise en oeuvre de Solvabité 2 qui permet de mieux prendre en compte le rôle de la réassurance contraire-
ment à Solvabilité 1 qui avait un mécanisme très frustre à ce niveau et qui ne permettait pas une prise en compte
effective du mécanisme de transfert de risque.
Parmi toutes les fonctions citées ci-dessus, nous nous focaliserons dans la partie sur la recherche d’une structure
optimale sur la diminution des exigences réglementaires en terme de capitaux immobilisés qui est un facteur objectif
et facilement quantifiable.
Toutefois, les autres fonctions sont toutes aussi importantes et l’une des principales raisons qui pousse les cédantes
à acheter de la Réassurance se trouve dans la protection du capital contre de larges déviations qu’elle procure.
C’est même absolument primordial pour le risque Catastrophe qui a la particularité de pouvoir toucher un nombre
important de polices de façon brutale et inattendu.
73
Par exemple, c’est grâce à la Réassurance que le secteur de l’assurance n’a pas souffert de sérieux problèmes et d’une
vague d’insolvabilité quand les tempêtes Lothar et Martin ont frappé l’Europe en Décembre 1999 ou encore quand
les nombreuses inondations ont frappé l’Europe Centrale et l’Europe de l’est en 2002. 2
La figure ci-dessous illustre comment la Réassurance permet une stabilisation des résultats pour l’assurance non-
vie et ceci dans les 10 dernières années.
Nous constatons que le bénéfice est particulièrement prononcé l’année des tempêtes Lothar et Martin (1999)
A présent, essayons de formaliser l’apport de la réassurance et son utilité d’un point de vue mathématique.
Nous pouvons alors démontrer que la réassurance permet de diminuer la probabilité de ruine d’un assureur.
Plaçons-nous dans un cadre élémentaire. On considère un assureur qui dispose d’un montant de fonds propres F P ,
et d’un portefeuille de N risques indépendants et de même loi de probabilité.
Nous supposons que chaque risque a une sinistralité dont l’espérance vaut µ et l’écart type vaut σ.
La tarification est telle que chaque prime est égale à (1 + ρ) µ correspondant à une prime commerciale égale à la
prime pure multiplié par un coefficient de chargement
Notons S la charge totale des sinistres.
Nous avons :
P(ruine) = P (F P + N (1 + ρ) µ − S < 0)
= P (S − N µ > F P + N ρµ)
1
P(ruine) ≤
2
où :
F P + N ρµ
= √
N ×σ
Donc plus est grand plus la probabilité de ruine est faible. L’enjeu est donc d’augmenter ce paramètre. Les
leviers disponibles sont multiples :
— Augmenter le niveau de fonds propres par injection de capital dans l’entreprise mais ceci aura une connaissance
immédiate sur leur rentabilité qui diminuera, les actionnaires ne seront pas favorables à cette solution.
— Augmenter le nombre de risques souscrits c’est à dire augmenter ses possibilités de souscription car croit
FP
avec N quand N ≥ mais cela revient à augmenter le risque supporté par l’assureur
µρ
2. Central European Flooding August 2002 - EQECAT Technical Report
74
— Augmenter ρ et ainsi augmenter les tarifs des primes ce qui est une démarche peu concurrentielle.
Pour faire augmenter le coefficient de sécurité, une solution consiste donc à recourir à la réassurance.
En effet, recourir à la réassurance peut faire diminuer la volatilité de la sinistralité à savoir σ.
Cependant, la réassurance implique aussi un transfert de résultat au réassureur et donc une diminution des primes
récoltées. Toute la difficulté est donc de trouver un bon compromis entre un transfert de risque significatif et à une
fuite des primes la plus faible possible.
Nous allons voir dans la prochaine section que ce transfert de risque peut prendre une grande variété de formes
et que c’est le contexte ou encore l’appétit au risque de la cédante qui permettre de déterminer le contrat.
La Réassurance proportionnelle se caractérise donc par un taux de cession τ selon lequel la cédante et le réassu-
reur vont se partager le risque et la prime définie contractuellement.
Si on note P la prime acquise par l’assureur et S sa sinistralité brute, les flux entre les deux partis se matérialisent
de la façon suivante :
A ce principe est intégré la notion de partage des coûts par le biais d’une commission de réassurance payée par
le réassureur à la cédante. La cédante ayant à son passif un certain nombre de charges liés entre autres aux frais
d’acquisition des primes et de gestion des sinistres, le réassureur se doit de participer pour un partage équitable.
Généralement, cette commission est déterminée à partir des estimations faites par la cédante et par le réassureur
autour du ratio de perte attendu du portefeuille réassuré.
Le montant de la commission fait donc l’objet de l’essentiel des négociations entre réassureur et cédante autour d’un
traité en quote-part car plus celle-ci sera faible, plus la marge du réassureur sera grande.
75
Le traité en Quote-Part
Parmi les formes de réassurance proportionnelle, la plus utilisée est le traité en « Quote-Part » (QP) ou en anglais
Quota-Share (QS).
Dans un traité en Quote-Part, le taux de cession défini contractuellement est le même pour toutes les polices couvertes
par le traité. Nous voyons que le taux de cession s’applique aussi bien sur les grands sinistres que sur les petits.
Figure 4.3 – Schéma : Représentation d’un quote-part avec un taux de cession de 30%
Les avantages de ce traité pour la cédante sont le partage des frais avec le réassureur, l’apport de son expertise lors
du lancement d’un nouveau produit d’assurance mais aussi une sécurité renforcée en cas d’incertitude quant à la
profitabilité d’un portefeuille, en lissant le résultat de la cédante ce qui atténue ses pertes comme ses gains.
L’avenir de la cédante est donc étroitement lié à celui du réassureur, l’assureur cédant une portion τ du résultat du
portefeuille que ce résultat soit déficitaire ou bénéficiaire.
L’inconvénient principal de ce traité est qu’il oblige la cédante à partager ses primes sur l’intégralité des risques : la
part la plus extrême qui serait insoutenable pour la cédante, mais aussi la part attritionnelle qu’elle est capable de
subir et pour laquelle il n’est pas indispensable de céder les risques.
Ainsi le Quote-Part n’a pas pour utilité une réduction de la volatilité de la sinistralité mais est plus adapté à
une sinistralité de fréquence.
76
Le traité en excédent de pleins
L’autre forme de traités proportionnels , le « traité en excédent de pleins » (XP) ou surplus share (SP) permet
de pallier l’inconvénient principal du quote-part.
En effet, pour l’excédent de plein, le taux de cession τ est défini police par police.
En pratique, un traité de réassurance en excédent de pleins est défini selon 2 paramètres :
— Le plein de souscription K qui est le montant maximum pris en charge par la cédante.
— La capacité C qui est le montant de somme assurée à hauteur duquel le réassureur s’engage à payer son client.
Elle est souvent exprimée en multiple de plein de souscription.
On définit alors le taux de cession de la police i de somme assurée Si par la formule suivante :
Figure 4.4 – Schéma : Fonctionnement d’un excédent de plein avec K=500 et C=14*K
Cette forme de réassurance permet de réduire la volatilité du portefeuille de la cédante, en cédant fortement les
grands risques et peu ou pas les risques de faible somme assurée. L’excédent permet aussi une économie significative
de primes par rapport aux quote-part et est particulièrement adapté à certaines branches où les portefeuilles sont
très hétérogènes.
Cependant, il nécessite une gestion police par police ce qui rend son utilisation très lourde et moins fréquente qu’un
quote-part.
77
4.1.3 La Réassurance Non-Proportionelle
Par opposition à la réassurance proportionelle, la réassurance non-proportionelle permet au réassureur de n’intervenir
qu’à partir d’un certain seuil de sinistre ou de perte de la cédante et jusqu’à une limite fixée contractuellement.
Le réassureur touche pour cela une prime de réassurance qu’il faut donc calculer et négocier.
La non-proportionnalité de ce traité est illustrée dans la Figure 4.5 indiquant le taux de cession du traité, soit
la part du sinistre prise en charge par la réassurance, en fonction du montant du sinistre. Ce taux n’étant pas
constant, mais dépendant du montant du sinistre, le traité n’est pas proportionnel.
Le sort de la cédante et du réassureur sont beaucoup moins liés, ainsi au cours d’une année d’exercice, l’assureur
pourra être en perte, mais pas forcément le réassureur, ce qui aurait dû être le cas dans le cadre d’un contrat en
quote-part.
b XS a
où :
— a représente la priorité
— b la portée
Ainsi un traité avec une priorité de 100 millions d’euros et une portée de 50 millions d’euros sera noté dans la suite
50X100.
Le montant des récupérations Ri (c’est-à-dire les montants pris en charge par le réassureur pour un sinistre de
montant Si peut s’écrire de la façon suivante :
Ainsi, si le portefeuille subit N sinistres sur une période de un an, alors la sinistralité agrégée à charge du réassureur
vaut :
SR = R1 + R2 + ... + RN
78
Il existe deux types de traités XS :
— Les traités dits « par sinistre ».
— Les traités dits « par évènement ».
La différence entre ces types réside dans l’application des conditions de réassurance (priorité & portée) sur chaque
police sinistrée dans le cas du XS par sinistre et sur tous les sinistres liés à un même évènement ou à une même cause
(une tempête qui endommage plusieurs maisons par exemple) pour un XS par évènement.
Il parait donc évident que dans une optique de couverture contre les catastrophes naturelles que nous aborderons
dans la suite, c’est le traité par évènement qui sera à chaque fois utilisé en raison de l’importance du nombre de
polices sinistrées en cas d’événements CAT.
La priorité jouant pour chaque police en XS par risque, cela se traduit par une charge totale plus élevée pour la
cédante qu’avec un XS par évènement.
La figure ci-dessous met en lumière le fonctionnent d’un traité XS par risque pour différents montants de sinistres.
Dans le schéma ci-dessus, le premier sinistre traverse la tranche ; la partie en-dessous de la retention de 1.5M est à
charge de l’assureur tandis que le reste est à charge du réassureur.
Ce n’est pas le cas du deuxième sinistre où le montant est entièrement à charge de l’assureur.
Ce traité est adapté à pratiquement toutes les branches, permet de céder beaucoup moins de primes que la réassu-
rance proportionelle et d’avoir une couverture totale au-delà de la franchise, dans la limite du plafond. Cependant,
la cédante devra payer d’autant plus cher que la priorité est basse.
Aussi, la détermination du juste prix pour un traité en excédent de sinistres n’est pas un exercice facile et constituera
d’ailleurs l’objet de la prochaine section. Enfin, ce traité ne permet pas une protection du résultat technique global,
c’est pour cela que l’on va définir dans la suite un autre type de traités plus adapté à ce niveau.
b SL a
où :
— a : seuil d’intervention exprimé en ratio de perte, en pratique toujours supérieur à 100%.
— b : la portée, elle aussi exprimée en ratio de perte.
Ce type de traité permet à la cédante de limiter efficacement ses pertes, il est cependant assez rare car très coûteux.
Notons que ce genre de traités agit sur le montant cumulé des sinistres d’un portefeuille contrairement à un traité
XS par risques ou par évènement.
79
4.1.4 La notion de reconstitutions
Après avoir défini les différentes formes que peuvent prendre les traités de Réassurance dans le marché, il est
intéressant de mettre en lumière un certain nombre de clauses classiques permettant au réassureur de limiter son
engagement vis-à-vis de la cédante.
Ainsi, il est possible pour le réassureur de contrôler son engagement à l’aide de :
— une franchise cumulée annuelle (AAD : Annual Aggregate Deductible) permettant à la réassurance de n’inter-
venir qu’à partir d’un certain montant de sinistres.
— d’une limite cumulée annuelle (AAL : Annual Aggregate Limit) permettant de limiter les récupérations an-
nuelles.
Il est d’ailleurs d’usage que le montant de l’AAL soit énoncé en nombre de portées du traité.
Par exemple, pour un traité 50 XS 100, le réassureur peut décider de limiter son engagement avec une AAL = 150M
soit 3 fois la portée du traité.
On parle alors de traité avec reconstitutions quand la portée annuelle (AAL) est supérieure à la portée simple
du traité c’est-à-dire que la cédante a la possibilité de faire exercer ces conditions de réassurance plusieurs fois.
Au contraire, dans le cas d’un traité sans reconstitutions, suite à plusieurs sinistres dans l’année, la cédante peut
épuiser sa couverture. Cet exemple illustre bien la volonté de la cédante d’acheter des traités avec un nombre impor-
tant de reconstitutions quand elle sait que la fréquence de sinistres atypiques sera élevée.
Le plus souvent la prime associée aux traités avec reconstitutions est constituée :
— d’une prime de base qui donne le droit à la cédante d’utiliser la portée simple.
— d’une prime supplémentaire pour utiliser les autres portées du traité.
La prime supplémentaire est appelée prime de reconstitutions car elle sert à reconstituer la capacité consommée par
les sinistres survenus plus tôt au cours de l’année.
Généralement, elle est payée au fur et à mesure de la consommation de la capacité : la survenance d’un sinistre
touchant la ligne réassurée entraîne alors la « reconstitution » de la portée par le paiement de la prime de reconsti-
tution.
Le montant des primes de reconstitutions est fixé à l’avance et s’exprime généralement en pourcentage de la prime
initiale et est payé pro rata capita (proportionnellement au montant de portée consommé).
80
4.1.5 La Réassurance du risque Catastrophe
La Réassurance du risque Catastrophe se fonde sur des bases légales très différentes d’un pays à l’autre et ce même
au sein de l’union européenne.
Certains pays disposent d’un régime spécial d’assurance des catastrophes naturelles comme l’Italie qui a préféré gérer
les catastrophes naturelles par des interventions ponctuelles de l’état en fonction des circonstances.
Le système français a mis en place un régime dit CatNat qui impose aux assureurs de consacrer une prime uniforme
de leurs contrats de dommages aux biens à l’indemnisation des catastrophes naturelles, tempêtes exclues 3 qui s’élève
à:
— 12 % de la prime pour les biens autres que véhicules à moteur.
— 6% des primes liées au vol et aux incendies.
Le régime est activé une fois l’état de catastrophe naturelle décrété par un arrêté interministériel, pour les biens
couverts par un contrat d’assurance de type « dommage aux biens ».
Il permet ainsi d’assurer la solvabilité des assureurs opérant en France, et donc de protéger les assurés contre des
sinistres pouvant mettre en danger jusque leur assureur.
D’autre part, l’originalité du système français réside dans la nature de la Caisse Centrale de Réassurance déte-
nue à 100% par l’Etat français, qui intervient notamment dans le domaine des catastrophes naturelles en offrant aux
assureurs une couverture en illimité.
En pratique, elle offre aux assureurs la possibilité de se réassurer de deux manières différentes :
— un traité en quote-part à 50 % ;
— un traité en excédent de perte annuelle de priorité 200% et de portée illimitée.
Ainsi, la CCR intervient en cas de sinistralité due à une catastrophe naturelle, d’abord via un quote-part puis
par un Stop-Loss sur la rétention du quote-part.
81
4.2 Tarification d’un traité classique de Réassurance
Nous nous proposons à présent de tarifier un traité classique de réassurance en excédents de sinistres par évè-
nements en faisant l’hypothèse d’un traité avec reconstitutions gratuites et illimitées. Comme expliqué
précédemment, pour une couverture CAT NAT, le choix se portera toujours sur un traité XS par évènement permet-
tant de s’appliquer à toutes les polices du portefeuille touchées par un seul et même évènement.
La définition d’un évènement est spécifié dans les termes du traité de façon très précise pour éviter des malentendus
qui peuvent avoir un rôle important pour la cédante et pour le réassureur.
De manière générale, la prime commerciale qui sera proposée à la cédante pour une tranche de réassurance est
composée de trois éléments principaux :
— La prime pure, égale à l’espérance de la charge annuelle pour le réassureur.
— Un coefficient de chargement qui inclut une notion d’incertitude sur le montant des pertes
— Un chargement pour frais de gestion.
Bien que la prime pure reste relativement aisée à déterminer à partir du moment où nous disposons des sorties du
modèle CAT, la problématique dans la détermination du coefficient de chargement est souvent délicate.
Dans la suite, nous allons considérer un chargement égal à 15% de l’écart-type de la distribution de pertes et 10%
pour les frais de gestion.
Nous avons donc une formule pour déterminer une prime commerciale qui prend la forme suivante :
PP + C ∗ σ
PC =
(1 − g)
où :
— PC est la prime commerciale du traité que nous cherchons à déterminer.
— PP est la prime pure calculée à l’aide de nos sorties du modèle CAT.
— σ est l’écart-type de la distribution de pertes.
— C est le taux de chargement de sécurité supposée égale à 15%.
— g est le taux de chargement pour frais de gestion supposé égale à 10%.
Nous avons vu précédemment la formule donnant la charge du réassureur pour un sinistre donné donc s’il est
engagé dans un traité A CATXL B, nous avons
où :
— N est le nombre d’évènements simulés dans le modèle.
— Si est le coût de l’évènement i pour l’assureur.
De plus, nous pouvons aussi déterminer l’écart-type de la distribution de pertes du réassureur s’écrivant alors :
v
u
u1 X N
2
σ=t (Creass (Si ) − P P )
N i=1
82
Ainsi, pour un traité 100XS100, qui protège la cédante contre les sinistres dont les montants de pertes sont supé-
rieures à 100 millions d’euros et ceci jusqu’à hauteur de 100 millions, nous pouvons calculer à titre d’exemple la prime
commerciale issue du modèle CAT :
Il est usuel dans la réassurance des catastrophes naturelles d’avoir des écarts-types largement supérieurs à la moyenne
traduisant alors une très forte volatilité des pertes simulées comme c’est le cas ici.
Nous pouvons par ailleurs, représenter sur un même graphique la distribution de pertes de la cédante et du ré-
assureur comme ci-dessous.
Nous constatons alors que la fonction de répartition du réassureur (en bleue) est toujours en dessous de celle de la
cédante et qu’elle sature plus rapidement que celle de la cédante en raison de la portée fixée à 100M€ laissant à la
charge de la cédante les pertes supérieures à ce seuil.
Dans cet exemple, bien que le prix reste relativement peu cher comparé à la capacité offerte, nous constatons qu’ici
le réassureur ne prend que peu de risques et que la cédante garde en rétention la majorité de la sinistralité.
Les inondations étant plutôt une catastrophe naturelle de « fréquence » (même si ce terme est peu adapté aux catas-
trophes) en comparaison aux tremblement de terre, il faudrait envisager une tranche avec une priorité plus faible pour
un transfert de risque plus important. Cependant, mécaniquement, une tranche avec cette configuration coûterait
plus chère que celle proposée ci-dessus.
Ainsi, dans la prochaine section, nous allons mettre en place une procédure pour déterminer la tranche de Réas-
surance la plus favorable possible du point de vue de la cédante.
83
4.3 Optimisation de la réassurance
Nous avons pu voir dans la section précédente qu’un assureur peut avoir recours à la réassurance pour diverses
raisons dont la plus évidente est la couverture directe qu’elle lui procure permettant ainsi une meilleure stabilité et
un lissage de son résultat.
Avec l’achat de réassurance, l’engagement net de l’assureur étant réduit, son besoin de capital immobilisé c’est-à-dire
le besoin en fonds propre subit mécaniquement une diminution conséquente.
La question de l’optimisation de la réassurance est une problématique qui reste de nos jours encore très complexe au
vu des nombreux paramètres à prendre en compte et de nombreuses approches ont été développées afin d’y apporter
des réponses.
Il en ressort que deux éléments doivent être forcément pris en compte pour une couverture optimale : le résultat de ré-
assurance appelé aussi coût de la réassurance et la diminution des exigences réglementaires en termes de fonds propres.
Nous allons à travers cette section retenir un critère purement économique pour l’optimisation de la réassurance
qui est celui de la création de la valeur défini comme le gain de capital procuré diminué du coût de la réassurance.
En pratique, utiliser ce critère consiste à considérer que l’assureur agit en tant qu’agent économique rationnel et
néglige l’aversion au risque de l’assureur qui peut dans certaines situations le contraindre à se réassurer à perte (et
ainsi avec une création de valeur négative).
Dans la suite, les raisonnements d’optimalité seront considérés du point de vue de l’assureur, acheteur de la ré-
assurance, encore appelé cédante.
Ainsi, plus la création de valeur est élevée, plus grand sera l’intérêt de la cédante pour la structure de réassurance
associée.
Le processus de recherche du traité optimal est définit à partir du processus d’évaluation suivant :
— Simulation de la sinistralité CAT à l’aide de notre modèle CAT.
— Calcul du coût de réassurance.
— Calcul du capital dégagé.
— Déduction de la création de la valeur
84
4.3.1 Définition du coût de réassurance
On définit le concept de coût de réassurance par son impact sur le résultat financier de la cédante.
Cette grandeur inclut :
— la prime commerciale P C du traité de réassurance supposée égale à la prime pure augmentée d’un coefficient
de chargment censé tenir compte de la volatilité des sinistres et permettant au réassureur de dégager une
marge.
— la charge du réassureur supposée égale à la prime pure P P du traité
— le taux d’imposition des sociétés τIS qui intervient sur le résultat total et dont l’impact n’est pas négligeable.
Il est supposé constant et égal à 34% pour le cas de la France.
— La perte en rendement financiers liée à la cession d’une partie des primes récoltées qui ne sont donc pas placées
et ne rapport pas d’intérêts.
Ci-dessous, nous trouvons un exemple permettant d’illustrer le principe du coût de réassurance :
Dans la pratique, il y a d’autres facteurs qui doivent être inclus dans le calcul du résultat technique de réassurance :
— Commisions : elles représentent la participation du réassureur dans les frais engagés par l’assureur (frais de
gestion et d’acquisition du risque) sur les affaires que celui-ci cède en réassurance et qui s’appliquent seulement
aux traités proportionnels.
— Participations aux bénéfices : lorsque le résultat de la réassurance est bon, le réassureur peut accepter de
verser une participation aux bénéfices (PB) au prorata.
— Frais de courtage : frais payés aux courtiers par la cédante, les frais de courtage varient selon le type de traité.
Les traités non-proportionnels coûtent plus cher que les traités proportionnels
— Frais d’administration et autres frais.
Dans la suite, nous allons négliger la perte liée aux rendements financiers, commissions et autre frais
annexes considérant que ceux-ci sont peu significatifs.
Ainsi, le coût de la réassurance est défini par :
Coutreass = (1 − τIS ) ∗ (P C − P P )
85
4.3.2 Impact sur le capital immobilisé
L’ancienne réglementation, Solvabilité I, mesurait mal l’impact de certains outils de Risk Management sur la
solvabilité de la compagnie d’assurance.
Ainsi, sous Solvabilité 1, l’impact de la réassurance sur la marge de solvabilité exigée était simple à calculer mais
particulièrement frustre :
— En non-vie, les traités proportionnels étaient pris en compte jusqu’à 50% du taux de cession.
— Pas d’impact pour les traités non proportionnels.
La nouvelle réglementation Solvabilité II permet à présent de tenir totalement compte de la Réassurance pour la
quantification des risques et laisse aux assureurs le choix, ou bien d’utiliser une formule standard, ou bien de déve-
lopper un modèle interne justifié.
AXA a choisi de développer un modèle interne fondé sur le concept du STEC (Short Term Economic Capital ),
qui joue le même rôle que le SCR dans la formule standard.
Ainsi, pour toute activité risqué X générant un résultat RX , le capital requis associé à cette seule activité vaut :
Ce principe est alors appliqué pour chaque calcul de capital associé à un type de risque.
Le modèle interne de Solvabilité d’AXA définit trois risques pour l’activité P&C (Property&Casualty) : le risque
de prime (premium risk ), le risque de réserve (reserve risk ), et enfin le risque Catastrophe (catastrophe risk ).
A chacun de ces risques doit être associé un capital.
Le risque catastrophe est défini pour les contrats de réassurance relatifs aux catastrophes naturelles.
Il sera assimilé dans cette étude à un risque de prime.
Le risque de réserve résulte de la variabilité des paiements dans le temps, ainsi que de l’évolution de l’estima-
tion de la charge ultime. Ce risque est donc particulier aux branches d’activités à développement long (Long Tail ).
Les traités étudiés ici sont relatifs au risque CAT qui est une branche d’activité considérée comme Short Tail.
Le risque de réserve sera négligé et ne sera pas traité dans la suite.
Nous allons à présent examiner l’effet de la réassurance sur le besoin en capital dans le cadre du modèle interne
AXA permettant ainsi d’en déduire le coût du capital économisé associé. Nous avons vu au-dessus comme calculer
un SCR CAT et nous supposons que celui se résume au risque inondation.
Nous rappelons donc ci-dessous que la formule est donnée par :
En notant S et S 0 les variables aléatoires représentant respectivement la sinistralité brute et nette de réassurance
de l’assureur, on dispose des relations suivantes :
R = Pa − S
R 0 = Pa − S 0 − P C
E [R] = Pa − E [S]
E [R0 ] = Pa − E [S 0 ] − P C
Dans le cas de traités avec reconstitutions gratuites et illimités, la prime P C est déterministe et en utilisant les
propriétés de la V aR :
86
Or nous savons que E [S 0 ] = E [S] − P P , nous obtenons alors :
Aussi, il s’agit de noter que les besoins en capitaux Solvabilité II pour le module non-vie ne sont pas seulement la
conséquence du risque de souscription.
Le capital immobilisé par un assureur est une combinaison des plusieurs risques.
L’effet de diversification doit être pris en compte dans notre calcul.
Soit ρCAT le coefficient de diversification du SCRCAT dans le SCR total de l’entité AXA France. Nous obtenons
finalement :
∆SCRglobal = (1 − ρCAT ) V aR99,5% (S 0 ) − V aR99,5% (S) + P P
Enfin, cette diminution de fonds propres a deux conséquences principales pour l’assureur :
— D’un côté, il y a une diminution de la rémunération absolue des actionnaires, modélisée par un rendement α.
— De l’autre, la diminution des produits financiers (taxés au taux τIS ) issus du placement des fonds propres
modélisée par le rendement φ.
CV = GainF P − Coutreass
= −∆SCRglobal ∗ [α − φ (1 − τIS )] − (1 − τIS ) ∗ (P C − P P )
Plusieurs paramètres sont indépendants de la structure de réassurance dans cette formule : τIS , α, φ, ρCAT .
La méthode utilisée pour la détermination du traité optimal repose sur la force « brute » en testant tous les combi-
naisons possibles de traités.
Les priorités et les portées étudiées s’échelonnent donc 0 à 1.5 milliards d’euros par pas de 50 millions d’euros.
87
Les résultats sont disponibles sur la figure-ci-dessous où chaque cellule correspond à un traité donné avec la priorité
en abscisse et la portée en ordonnée. La couleur de la cellule donne une indication sur la valeur de la création de
valeur avec une teinte plus ou moins prononcée.
Les valeurs numériques obtenues sont pour la plupart surestimées ou sous-estimées en raison des
nombreuses hypothèses effectuées d’où l’obligation d’interpréter la création de valeur plus comme un
score que comme une valeur comptable réelle.
Nous constatons que le traité « optimal » au sens de la Création de la valeur est le traité 200XS150.
La création de valeur associée est égale à 0.7m€ décomposée en un coût de réassurance de 1.7m€ et d’un gain
économique lié à la diminution des fonds propres de 2.4m€.
Plusieurs remarques peuvent être faites sur cette figure :
Nous constatons tout d’abord la non-linéarité de l’évolution de ce score suivant la priorité et la portée considé-
rées. Ainsi, nous ne détectons pas de tendance globale qui se détache ou de règles facilement perceptibles permettant
de comprendre les résultats globaux.
Cependant, le sinistre maximal disponible dans notre catalogue d’évènement étant à 1.7 milliards d’euros, nous
constatons que lorsque la somme de la priorité et de la portée dépasse à ce seuil, la création de valeur n’évolue
quasiment plus.
Nous notons par ailleurs, une zone de faible création de valeur pour les traités avec une priorité entre 300 et 500 et
une portée élevée. Compte tenu du fait que le traité optimal est très vite « atteint », il conviendrait de réitérer la
même procédure une seconde fois en réduisant les valeurs possibles de priorité et de limite et en choisissant un pas
plus petit pour être plus précis dans la détermination du traité optimal.
88
Nous pouvons par ailleurs construire les heatmaps associées cette fois-ci au coût de Réassurance d’une part et au
gain lié à la diminution des exigences d’autre part.
Nous constatons alors que ces deux figures sont fortement liées mettant en lumière que plus l’économie en fonds
propres est forte, plus le coût moyen de réassurance est élevé.
Un traité optimal est donc un traité qui permettra d’atteindre le meilleur compromis possible entre un faible coût
moyen de réassurance (caractérisé par une priorité globalement forte comme en témoigne le graphique 4.11) et une
économie significative de fonds propres (caractérisé par une portée élevée sur le graphique 4.12).
Le coût de réassurance présente une évolution très fortement segmentée où la tendance est clairement à la hausse du
coût de réassurance quand la priorité diminue et la portée augmente. Ainsi, à portée constante, réassurer une tranche
haute - c’est à dire de priorité élevée - coûte moins qu’une priorité plus faible.
Nous constatons que le coût est maximal quand la portée est élevée et la priorité faible car la différence entre la
prime technique et la prime pure dans cette situation est forte en raison de la forte volatilité des pertes.
Pour le gain lié à la diminution des fonds propres, l’analyse s’avère plus compliquée.
Nous retrouvons malgré tout les mêmes tendances que pour le coût moyen de Réassurance c’est-à-dire que le gain
est maximal pour une faible priorité et une forte portée puisque c’est ce genre de traités qui modifie le « plus » la
distribution de pertes.
Nous détectons d’ailleurs la même zone de faible valeur que la heatmap de la création de valeur.
Figure 4.11 – Heatmap : Coût moyen de Réassurance Figure 4.12 – Heatmap : Gain lié à la baisse des FP
89
Conclusion
Le travail réalisé dans ce mémoire avait pour objectif de participer au développement d’un modèle stochastique
d’inondation en France, appliqué au portefeuille d’AXA France.
Devant la complexité de ce type de modèle, de nombreuses applications sont envisageables.
Le module Aléa (ou Hazard ) n’a pas fait l’objet d’une analysee poussée considérant ainsi que la création du catalogue
d’évènements d’inondations simulés sortait du périmètre strico sensu de ce mémoire mais a une influence capitale
sur les résultats financiers et sur la quantification du risque réel.
Pour la construction du catalogue, les techniques hydrauliques et hydrologiques sont en constante évolution pour
tenir compte de nombreux phénomènes physiques complexes comme les phénomènes de Flash Flood ou crue rapide
résultant d’une forte précipitation qui pour l’instant sont mal modélisés par le module physique du modèle.
De plus, la résolution de 75m sur 75m considéré jusqu’ici comme acceptable et raisonnable pourrait être encore
améliorée et affinée pour prendre en compte des micro-phénomènes physiques.
La qualité du module Exposition fortement reliée à la qualité des données du portefeuille représente un enjeu crucial
mais malheureusement laisse peu de pistes d’amélioration pour le modélisation elle-même. De sérieux progrès pour-
raient ainsi être réalisés au niveau du portefeuille d’exposition, qui n’est cependant qu’une entrée du modèle, donc
très difficile à modifier. Bien que la plupart de ces renseignements soient probablement connus à la souscription des
polices présentes dans le portefeuille, leur mise à disposition pour les équipes de modélisation de catastrophes néces-
siterait dans certains cas la refonte des systèmes d’information des entités locales. En effet, leur structure actuelle ne
permet pas à ce jour le transfert de toutes les informations nécessaires.
Une partie importante du travail de ce mémoire a consisté au développement du module Vulnérabilité permet-
tant de faire la liaison entre l’aléa modélisé (une hauteur d’eau) et la perte économique à la charge de l’assureur.
Pour cela, nous avons utilisé des modèles statistiques classiques que sont les GBM et les GLM.
Devant les multiples sources d’incertitudes, nous avons mené plusieurs tests de sensibilités afin de quantifier l’in-
fluence de certains choix sur la distribution de pertes finales.
L’écueil principal du module vulnérabilité repose sur la réelle difficulté d’estimer la fréquence de sinistre (ou Chance
of Loss ainsi définie dans ce mémoire) pour des raisons évidentes de mauvaise qualité de données.
Il serait bon d’envisager dans un futur proche de travailler sur les données pour calibrer un modèle à l’instar de la
partie sur les taux de destruction permettant ainsi une modélisation plus précise de la fréquence de sinistre.
Faute de temps, les modèles GAMLSS à variance aléatoire auraient constitué une belle innovation en la matière et
semblent une alternative plausible à l’utilisation de coefficient de variation pour tenir compte d’une volatilité dans
les résultats.
Les deux pistes décrites apporteraient des améliorations indéniables à la qualité du modèle. Mais, comme cela a été
décrit auparavant, la modélisation actuellement développée reste acceptable en première approche. Ses résultats sont
globalement cohérents avec ceux attendus ; ils peuvent donc être conservé comme base d’un algorithme plus complet
et robuste.
L’intérêt du mémoire réside enfin dans le développement d’une solution informatique innovante répondant à l’exi-
gence en termes calculatoires des modèles CAT nécessitant une puissance de calcul très élevée. L’implémentation
du modèle en R et en C++ est le résultat de nombreuses réflexions sur l’efficacité du processus et a permis ainsi
d’améliorer considérablement la vitesse et le temps de calcul.
La richesse et la complexité de la structure envisagée permet ainsi de l’étendre à d’autres périls et à d’autres pays
de façon aisée et ainsi une industrialisation dans la création des modèles à l’avenir.
90
d’actuaires souhaitant tarifer la garantie Catastrophe naturelle des contrats classiques d’habitation en les utilisant
comme un indicateur fiable et précis assimilant cette information à un zonage géographique.
Au niveau de la Réassurance, bien que le cas de la France soit plutôt particulier, la distribution des pertes annuelles
permet de tarifer un traité de réassurance non-proportionnel. Enfin, la dernière section concernant l’optimisation de
la réassurance, sujet qui aurait pu faire l’objet d’un mémoire au vue de sa complexité, a permis de mettre en évidence
un indicateur supposé objectif qu’est la création de valeur et proposer un processus d’évaluation du programme de
réassurance optimal.
91
Table des figures
93
2.19 Graphique : Influence marginale des variables internes . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.20 Graphique : Influence marginale des variables inondations . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.21 Graphique : Influence marginale des variables externes . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.22 Graphique : Taux de destruction empirique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.23 Graphique :Partie non-linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.24 Graphique : Taux de destruction dû au nombre d’arrêtés CAT NAT . . . . . . . . . . . . . . . . . . . 37
2.25 Graphique : Modèle 1 - Représentation du GLM et de ses relativités . . . . . . . . . . . . . . . . . . . 38
2.26 Graphique : Modèle 1 - Courbe de Lorenz du GBM et du GLM . . . . . . . . . . . . . . . . . . . . . 38
2.27 Graphique : Modèle 2 - Représentation du GLM et de ses relativités . . . . . . . . . . . . . . . . . . . 39
2.28 Figure : Taux de destruction Building pour les 4 zones de risque . . . . . . . . . . . . . . . . . . . . . 40
2.29 Graphique : Courbe de vulnérabilité Contents - Classe 1 . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.30 Taux de destruction pour le contenu de la branche industriel . . . . . . . . . . . . . . . . . . . . . . . 42
2.31 Graphique : Modélisation de la durée de l’évènement en fonction du volume d’eau dans l’empreinte . . 43
2.32 Graphique : Taux de destruction Garantie B et C combinées . . . . . . . . . . . . . . . . . . . . . . . . 44
2.33 Graphique : Taux de destruction combiné pour Immeuble . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.34 Graphique : Calibration de loi à queue lourde . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.35 Graphique : Taux de destruction pour chaque évènement . . . . . . . . . . . . . . . . . . . . . . . . . . 46
2.36 Graphique : COV pour chaque branche d’activité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
2.37 Graphique : Distribution log-normale du COV pour le secteur Résidentiel . . . . . . . . . . . . . . . . 47
2.38 Graphique : Distribution de probabilité du taux de destruction . . . . . . . . . . . . . . . . . . . . . . 47
2.39 Schéma : Le Concept de COL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.40 Carte : Représentation de l’empreinte de la crue du Rhône et des sinistres observés . . . . . . . . . . 48
2.41 Graphique : Chance of Loss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
2.42 Graphique : Fréquence de sinistre pour le Résidentiel . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
2.43 Graphique : Chance of Loss en fonction de la hauteur d’eau pour MRH-M et MRH-R . . . . . . . . . 50
2.44 Graphique : Chance of Loss pour toutes les branches d’activités . . . . . . . . . . . . . . . . . . . . . 51
2.45 Graphique : Relativités de la fréquence de sinistres suivant les zones de risques . . . . . . . . . . . . . 51
2.46 Graphique : Fonctions de répartition pour une valeur d’aléa fixée pour les 3 sites . . . . . . . . . . . . 52
2.47 Graphique : Tirage de nombres aléatoires sur l’axe des ordonnées et déduction du taux de destruction 53
94
Liste des tableaux
95
Bibliographie
[Da07] ANDERSON Duncan et al. A Practitioner’s Guide to Generalized Linear Models. 2007.
[Ric09] Paul Kaye Richard Evans Andrew Ford. Introduction to Catastrophe Models and Working with their
Output. 2009.
[Ben11a] Aon Benfield. Czech Republic Flood Model Documentation. 2011.
[Ben11b] Aon Benfield. Thailand Floods- Event Recap Report. 2011.
[Bri11] Association of British Insurers. Industry Good Practice for catastrophe modelling. 2011.
[Sta11] Ray Stanislas. Optimalité des structures de réassurance. 2011.
[Air12] Air. Taking a comprehensive view of Catastrophe Risk Worldwide. 2012.
[Ass13] Lloyd’s Market Association. Catastrophe modelling- Guidance for non-catastrophe modellers. 2013.
[Cha13] Arthur Charpentier. Actuariat IARD- ACT2040 - Réassurance. 2013.
[Cza13] Jeffrey Czajkowski. Catastrophe Model Based Quantification of Riverine and Storm Surge Flood Risk in
Texas. 2013.
[IAR13] Journées d’études IARD. La modélisation des catastrophes naturelles. 2013.
[Cha14] Gabriela Chavez-Lopez. Uncertainty in CAT models. <http://www.actuaries.org.uk/>. [En ligne ;
dernier accès 9 décembre 2016]. 2014.
[Thi14] Geoffrey ECOTO Thierry COHIGNAC. La tarification de réassurance CAT NAT. 2014.
[CCR15] CCR. Modélisation des catastrophes naturelles en réassurance avec garantie de l’Etat. 2015.
[Gui15] David Guillemot. Lien entre tarification des evènements climatiques en Multi-Risques Habitation et
modèle interne Non-vie. 2015.
[Pat15] Howard Kunreuther Patricia Grossi. Catastrophes modeling : A new approach to managing risk. 2015.
[RE15a] Swiss RE. Catastrophes naturelles et réassurance. <www.swissre.com/sigma/>. [En ligne ; dernier accès
16 septembre 2015]. 2015.
[RE15b] Swiss RE. Catastrophes naturelles et techniques en 2014 : les tempêtes convectives et hivernales génèrent
le plus de dommages. <www.swissre.com/sigma/>. [En ligne ; dernier accès 19 Décembre 2015]. 2015.
[Re15] Swiss Re. Les inondatons : un risque assurable ? <http : / / www . swissre . com / publications / Les _
inondations_un_risque_assurable.html/>. [En ligne ; dernier accès 16-Novembre-2016]. 2015.
[SCO15] SCOR. Reinsurability of Natural Catastrophes as Extreme Risks. 2015.
[Erm16] T. Ermolieva. Flood Catastrophe Model for Designing Optimal Flood Insurance Program : Estimating
Location-Specific Premiums in the Netherlands. 2016.
[Ini16] OASIS Initiative. OASIS Financial Module. <http://www.oasislmf.org/the-framework/framework-
components/>. [En ligne ; dernier accès 4-Octobre-2016]. 2016.
[Pat16] Howard Kunreuther Patricia Grossi. Catastrophe modeling : a new approach to managing risk. 2016.
[Re16] Munich Re. Claims management following natural catastrophes. 2016.
96