Vous êtes sur la page 1sur 117

Mémoire présenté devant l’ENSAE ParisTech

pour l’obtention du diplôme de la filière Actuariat


et l’admission à l’Institut des Actuaires
le 22/02/2017

Par : Hamza El Hassani


Titre : Modélisation stochastique des inondations en France
et Applications en Réassurance

Confidentialité :  NON  OUI (Durée :  1 an


X  2 ans)
X

Les signataires s’engagent à respecter la confidentialté indiquée ci-dessus

Membres présents du jury de la filière : Entreprise : AXA GLOBAL P&C


Nom :
Signature :

Membres présents du jury de l’Institut Directeur du mémoire en entreprise :


des Actuaires : Nom : Jérôme Crétien
Signature :

Autorisation de publication et de
mise en ligne sur un site de
diffusion de documents actuariels
(après expiration de l’éventuel délai de
confidentialité)

Signature du responsable entreprise :


Secrétariat :

Signature du candidat :
Bibliothèque :

Ecole Nationale de la Statistique et de l’Administration Economique (ENSAE)


3, Avenue Pierre Larousse - 92245, MALAKOFF CEDEX, FRANCE
Résumé

Mots clés : Inondation, Vulnérabilité, Catastrophes naturelles, Machine Learning, GLM, GBM,
GAM, Taux de destruction, Réassurance non-vie, AEP, OEP, Période de retour, Création de valeur

Depuis quelques décennies, les catastrophes naturelles n’ont cessé de prendre de l’importance à travers le monde,
faisant ainsi de plus en plus de morts et de dégâts matériels. Compte tenu de cet impact grandissant, leur mutuali-
sation via l’assurance est indispensable.
Cependant, les assureurs ne pouvant faire face à des pertes financières hautement volatiles, se trouvent contraints de
s’assurer à leur tour à un niveau supérieur de mutualisation, c’est-à-dire de se réassurer.

Il est alors crucial de pouvoir quantifier ces risques et donc de disposer d’un modèle mathématique dit modèle
Catastrophe ou modèle CAT.
Ce mémoire s’inscrit dans cette démarche en proposant de modéliser le risque d’inondation pour le portefeuille d’As-
surance non-vie d’AXA France sur le territoire de la France métropolitaine d’une part et d’autre part d’implémenter
le processus de modélisation à travers une architecture de calcul rapide et efficiente permettant ainsi d’obtenir des
résultats applicables dans le monde de la Réassurance en un temps de calcul raisonnable.

Pour cela, nous avons procédé en trois temps :


Tout d’abord, notre travail a consisté à déterminer les différents paramètres de vulnérabilité physiques et assurantiels
et ceci pour l’ensemble des différentes branches d’activité du portefeuille non-vie d’AXA France.
Cette partie a été réalisée à partir d’un mélange de méthodes statistiques classiques et d’avis d’experts.
Après cette étape de calibration et la mise en place d’une architecture de calcul performante, nous avons pu déter-
miner la distribution de pertes recherchée et ainsi produire les sorties classiques d’un modèle CAT.
Enfin, nous avons mis en oeuvre ces résultats à travers trois applications opérationnelles que sont la construction de
cartes de risques d’inondations, le calcul du SCR CAT (en supposant que le seul risque CAT est le risque d’inon-
dations) mais aussi une application dans le domaine de la Réassurance consistant en la tarification de traités de
réassurance en excédent de sinistres et à la détermination du traité optimal sous le critère de la création de valeur.

L’ensemble des données figurant dans ce mémoire ayant été modifiées, il est suggéré au lecteur d’apprécier la
pertinence de la démarche, plus que les résultats chiffrés.
Abstract

Key words : Flood, Vulnerability, Natural disaster, Machine Learning, GLM, GBM, GAM, Des-
truction rate, Non-Life Reinsurance, AEP, OEP, Return period, Value creation

Over the past few decades, the impact of natural disasters has become more and more important around the
world, causing increasing amount of deaths and material damage. Given this growing impact, it is necessary to mu-
tualize this risk through insurance.
However, insurers cannot face financial losses with large volatility, they are forced to insure themselves in a higher
level of mutualization : Reinsurance.

Consequently, it is important to have the ability to assess the underlying risks and the modality of their cession
with use of what we call a catastrophe model or CAT model.
This paper aims on one hand at building a Flood model for AXA France non-life portfolio in Metropolitan France
and on the other hand at efficiently implementing this model trough a new calculation architecture which enables us
to get outputs in a very short calculation time.

To do so, our study was divided into three steps :


In the first part of the study, our work consisted in computing the various parameters of vulnerability to flood events
for every line of Business included in the AXA France’s non-life insurance portfolio. This first part was achieved with
the help of classical statistical methods and expert judgments.
Then, after backtesting our principal results, we have assessed the loss distribution of this portfolio and created
classical CAT model outputs.
Finally, we have implemented these results through three operational applications as the construction of Flood risk
maps for Metropolitan France, the calculation of the Solvency Captal Requirement for the Nat Cat module and the
pricing of a CATXL treaty and the determination of the optimal excess of loss treaty, relatively to value creation.

All the sensible information used or produced in this work has been changed. We thus advise the reader to focus
on the methodology adopted, and not the numerical results.
Note de Synthèse

1. Contexte et problématique de l’étude


La directive Solvabilité 2 entrée en vigueur en Janvier 2016 marque une rupture brutale dans l’appréciation et la
quantification des risques pour les assureurs par rapport à la réglementation antérieure.
A présent, les sociétés d’assurance se voient imposer de nouvelles modalités de calcul de leur besoin en fonds propres
- appelés à présent Solvency Capital Requirement (SCR) - s’appuyant sur un principe de tests de résistance à des
scénarios extrêmes.
Schématiquement, tout risque détenu par un assureur devra être couvert par des fonds propres correspondant à la
perte la plus importante qu’il est susceptible d’entraîner dans les deux cents prochaines années.
Pour ce faire, il est nécessaire de pouvoir estimer une distribution annuelle de pertes associée à chaque type de risque.

La quantification des risques liés aux phénomènes CAT constitue un enjeu crucial puisque ces évènements sont
par nature très peu fréquents fournissant alors un échantillon de données bien trop faible pour appliquer des mé-
thodes statistiques classiques. Il est donc nécessaire pour l’assureur, pour modéliser ces risques, de mettre en place
des modèles complexes appelés modèles CAT permettant de modéliser le phénomène physique sous-jacent à l’origine
des catastrophes naturelles et non pas son seul impact financier.

L’objectif principal de ce mémoire est de participer au développement du modèle France Inondation, qui comme
son nom l’indique, permet de quantifier le risque réel d’inondation sur le territoire de la France métropolitaine.
Ensuite, un certain nombre d’applications seront exhibées afin de démontrer l’utilité d’un modèle CAT performant
et précis.

2. Démarche de résolution
2.1 Structure du mémoire
Le mémoire débute par l’étude du risque Assurantiel lié aux catastrophes naturelles, de son assurabilité et de sa
spécificité puis présente le fonctionnement d’un modèle CAT dans un cadre général puis plus spécifiquement pour le
péril Inondation.

Par une approche modulaire, un modèle CAT permet donc de quantifier le risque réel d’un portefeuille en dé-
composant l’estimation de ce risque complexe en différentes composantes que sont : l’exposition géographique, l’aléa
physique, la vulnérabilité et les conditions financières du bien assuré.

Dans une seconde partie, nous proposons de développer le module vulnérabilité, véritable pierre angulaire du modèle
permettant d’associer une perte financière à une valeur d’aléa donnée, du modèle Inondation et ceci par le biais de :
— méthodes statistiques classiques quand nous disposons d’un historique de sinistralité suffisamment important
et de bonne qualité.
— par des approches dites a priori quand l’historique de sinistres pour certaines branches d’activité n’est pas
suffisamment fiable ou d’une profondeur insuffisante.

L’approche par « dires d’experts » résulte d’une étroite collaboration entre l’équipe d’AXA Global P&C et AXA Ma-
trix, filiale du groupe AXA spécialisée dans la réalisation d’études d’ingénierie permettant d’analyser la vulnérabilité
physique de certains types de bâtiments face à des conditions extrêmes.

1
Figure 1 – Schéma : Structure d’un modèle CAT

La question centrale de l’implémentation du modèle CAT est étudiée dans la troisième partie.
Nous faisons le choix de nous rapprocher de l’initiative OASIS, consortium de partenaires publiques et privés euro-
péen ayant pour objectif d’améliorer la modélisation des risques CAT et d’augmenter la transparence des modèles
CAT vendeurs jugés souvent trop obscurs en proposant un coeur de calcul en C++ en libre-accès permettant une
accélération considérable des temps de calcul.

A partir de ce coeur de calcul et de différents développements informatiques, nous mettons en place une architecture
de calcul distribué et parallèle nous permettant d’obtenir une distribution de pertes annuelles pour le portefeuille
non-vie d’AXA France en un temps de calcul raisonnable.

Les applications de ces résultats sont alors tout aussi nombreuses que variées : sur le plan opérationnel, nous pou-
vons alors produire des cartes de risques mettant en lumière les zones du territoire présentant un risque accru pour
l’assureur malgré une sinistralité historique faible ou même inexistante.

Sur le plan réglementaire, le modèle interne CAT permet de déterminer la perte à horizon deux cents ans et donc de
déterminer le montant de fonds propres nécessaires à l’assureur pour continuer à exercer son activité.

Enfin, sur le plan de la Réassurance, ces résultats nous permettent dans la dernière partie de tarifer n’importe
quelle structure de réassurance CAT non-proportionnelle (CATXL) dont le sous-jacent est le portefeuille d’AXA
France. A l’aide de l’optimisation d’un critère objectif que constitue la notion de Création de valeur, nous proposons
par ailleurs une démarche pour la détermination d’un traité « optimal » devant l’ensemble des traités possibles.

2.3 Choix de modélisation


Le module vulnérabilité développé repose sur une décomposition fréquence-coût classique en Actuariat non-vie :
Nous estimons deux paramètres :
— le Taux de destruction - Connaissant les caractéristiques d’un bien assuré, quel est le pourcentage de destruction
de celui-ci quand il est inondé ?
— la Fréquence de sinistre - Connaissant les caractéristiques d’un bien assuré, quelle est la probabilité que celui-ci
soit inondé sachant qu’il se trouve dans une empreinte inondation ?

2
Le processus de calibration peut être résumé dans la figure ci-dessous :

Figure 2 – Schéma : Aperçu d’un processus de calibration

Pour chaque branche d’activité, nous essayons d’identifier les facteurs ayant une influence significative sur le risque
CAT, que ces facteurs soient internes au contrat (Appartement en étage ou non, assuré locataire ou propriétaire,
nombre de pièce du bien etc.) ou externes nécessitant alors du feature engineering pour récolter de l’information.

De plus, l’analyse de la base sinistre met en évidence une importante volatilité des taux de destruction entre évène-
ments pour des sites à la vulnérabilité a priori similaire.
Pour capturer cet effet, nous générons une volatilité supplémentaire sur nos estimations par l’implémentation d’un
event volatility factor.

Formellement, c’est un coefficient qui suit une loi log-normale centrée en 1 et dont l’écart-type dépend de la branche
d’activité qui va venir venir « chocker » les taux de destruction déterminés auparavant.
Ce facteur est souvent aussi appelé coefficient de variation (CoV ).
Ce coefficient a été estimé sur les données sinistres et est défini par :
σ
Cov =
µ
où σ est l’écart-type and µ la moyenne de la perte.

3. Résultats obtenus et applications


3.1 Focus sur le risque résidentiel
Le risque Résidentiel est le risque le plus présent dans la base d’AXA France ce qui en fait de son estimation une
étape cruciale et importante.
La profondeur de l’historique sinistre de cette branche étant satisfaisante, nous nous appuyons sur des méthodes
statistiques usuelles pour déterminer les paramètres de vulnérabilité.
L’approche retenue consiste à combiner GBM et GLM pour obtenir une modélisation robuste.

Nous pouvons représenter dans la page suivante la courbe de Lorenz de l’ensemble des modèles testés (GBM brut et
GLM retraité) pour la modélisation du taux de destruction pour les sites dans une empreinte inondation.
Il est important de noter que suite à notre modélisation du taux de destruction, nous ne retenons pas la hauteur d’eau
comme un facteur explicatif dans notre modèle de taux de destruction ce qui peut paraître quelque peu contre-intuitif.
Cependant, celle-ci apparaît comme étant la principale variable explicative pour la fréquence de sinistre.

3
Figure 3 – Graphique : Courbe de Lorenz des différents modèles testés

Aussi, pour la fréquence de sinistre, nous ne proposons pas de modèle statistique faute de données suffisamment
fiables mais proposons une méthode pour la déterminer en considérant que les trois principales variables explicatives
sont la branche d’activité, la hauteur d’eau et la zone de risque considérée.

3.2 AEP et OEP du modèle CAT


Parmi les résultats du modèle, le plus important est la distribution de perte, représentée ci-dessous par l’AEP et
l’OEP du modèle respectivement la courbe donnant la perte annuelle et la perte maximale pour une période de
retour donnée.

Figure 4 – AEP & OEP en échelle log Figure 5 – AEP & OEP en échelle standard

4
Nous constatons par ailleurs que les deux courbes tendent à converger pour des périodes de retour très fortes met-
tant en lumière le fait que les pertes extrêmes sont induites par un unique évènement plutôt que par une multitude
d’évènements d’intensité inférieure.

Pour des raisons de confidentialité, nous avons choisi de normaliser les pertes par les sommes assurées. Nous avons
donc des courbes donnant les valeurs des taux de destructions suivant les différentes périodes de retour.
Il nous est ainsi particulièrement aisée d’établir le SCR CAT (sous l’hypothèse que le seul risque CAT est le risque
inondations) en allant chercher la valeur du taux de destruction pour la période de retour 200 ans de l’OEP.

3.3 Sensibilité du modèle aux paramètres de vulnérabilité


La construction du modèle reposant sur de nombreuses hypothèses, il est important de tester la modification de
certains paramètres pour quantifier la sensibilité de celui-ci et pour évaluer l’impact individuel des choix effectués.
Ainsi, nous avons appliqué les chocs suivants :

— Écart de 10% des paramètres de vulnérabilité pour la branche d’activité Résidentiel.


— Écart de de 10% de la fréquence de sinistre pour la branche d’activité Immeuble et Industriel.
— Suppression de la dépendance à la hauteur d’eau pour les taux de destruction des lob Industriel et Immeuble.
— Perturbation du geocoding des sites en les décalant de 100 mètres.
— Multiplication par deux de la vulnérabilité pour la garantie Perte d’exploitation.
— Modification des conditions financières.
— Ajout d’une corrélation inter-site.

Figure 6 – Graphique : Sensibilité du modèle aux paramètres de vulnérabilité

A la suite des nombreux chocs appliqués sur nos paramètres de vulnérabilités ou d’exposition, nous évaluons
l’impact de ces changements sur le calcul du SCR à 17.5%.

5
3.4 Construction de cartes de risques
Le modèle CAT permet de construire des cartes de risques ayant une utilité évidente pour des souscripteurs soucieux
de savoir si les biens qu’ils souhaitent assurer se trouve dans des zones à risques.

A l’aide du modèle CAT, nous pouvons construire deux types de cartes de risques :
— Une carte de risques basée sur le module Aléa et présentant les zones les plus risquées vis à vis de la vulnérabilité
physique sans tenir compte de la réalité du portefeuille.
— Une carte de risque basée sur les pertes générées par le modèle tenant ainsi compte de l’exposition du porte-
feuille, de la vulnérabilité et des conditions financières.

Bien qu’AXA France dispose d’un portefeuille bien diversifié géographiquement, les deux cartes diffèrent quelque
peu.
Ci-dessous, nous donnons un aperçu d’une carte de risque de la première catégorie où la zone est considérée comme
plus risquée lorsque la teinte de bleu est plus foncée.

Figure 7 – Carte : Carte de risque de première catégorie

3.5 Applications du modèle pour la tarification de traités


Nous utilisons la distribution de pertes obtenue pour tarifer un ensemble de traités de réassurance de type « excédent
de sinistre par évènement », plus couramment appelés CATXL.

La prime commerciale proposée est fonction de trois éléments principaux :


— La prime pure, égale à l’espérance de la charge annuelle pour le réassureur.
— Un coefficient de chargement qui inclut une notion d’incertitude sur le montant des pertes
— Un chargement pour frais de gestion.

Bien que la prime pure reste relativement aisée à déterminer à partir du moment où nous disposons des sorties du
modèle CAT, la problématique dans la détermination du coefficient de chargement est souvent délicate.
Dans ce mémoire, nous considérons un chargement égal à 15% de l’écart-type de la distribution de pertes et 10%
supplémentaires pour les frais de gestion.
Ci-dessous, nous pouvons par ailleurs représenter la fonction de répartition de pertes de la cédante (en rouge) et du
réassureur (en bleu) en cas de traités 100XS100.

6
Figure 8 – Graphique : Distribution de pertes de la cédante et du réassureur

Enfin, nous finissons ce mémoire par aborder la notion de création de valeur permettant de choisir le traité le plus
intéressant pour l’assureur parmi l’ensemble des traités envisagés et définie comme la différence entre le gain apporté
par la structure de réassurance en termes de fonds propres (valeur positive) et le coût moyen de la réassurance (
valeur négative).
Pour y arriver, nous cherchons donc un maximiser ce score sur l’ensemble des traités possibles et produisons la
heatmap suivante concluant ainsi que dans cette situation le traité optimal est un traité 200XS150.

Figure 9 – Heatmap : Création de valeur associée aux traités testés

7
Executive Summary

1. Context and objective


The new directive Solvency 2 that entered into force in January 2016 marks a sudden break in the appreciation
and assessment of risks for insurers compared to previous regulations. It aims, among other things, at correcting the
multiple drawbacks of these past regulations.
By now, insurers and reinsurers have to determine their Solvency Capital Requirement (SCR) using stress tests.
Basically, each risk will require a capital that is equal to the worst annual result expected in the next 200 years.
Computing the SCR now requires the knowledge of the annual loss distribution, which was not the case before.

Most risks taken by insurers can be statistically modeled with good confidence levels, thanks to their large loss
databases. But, with their low frequency, natural disasters have too few data points for insurers and reinsurers to
afford these classical methods. A different approach is needed, where the physical phenomenon is modeled, rather
than only its financial impact.

The main objective of this paper is to contribute to the France Flood model development which assesses flood
risks in metropolitan France. Then, a large number of applications will be shown to demonstrate the utility of a
powerful and accurate CAT model.

2. Solving approach
2.1 Study framework
This paper begins by studying the insurance environment related to natural disasters, its specificity, and then pre-
sents the general framework of a CAT model and more specifically for Flood peril.

By using a modular approach, a CAT model allows to assess the real risk of a portfolio by decomposing this complex
risk into different components : geographic exposure, physical hazard, vulnerability and financial conditions of the
insured property.

In a second part, we propose to develop the vulnerability module, the cornerstone of the model, allowing to as-
sociate a loss to a given physical value by means of :
— Statistical methods when we have a sufficiently large and good quality claims experience.
— An approach called Expert judgement when the claims experience for some lines of business is not sufficiently
reliable or of insufficient depth.

The « expert judgement » approach is the result of a close collaboration between AXA Global P&C and AXA Matrix,
a subsidiary of AXA group specialising, among other things, in the analysis of the physical vulnerability of certain
types of buildings in the face of extreme conditions.

8
Figure 10 – CAT Model framework

The central question of CAT model implementation is studied in the third part.
We are making the decision to move closer to the OASIS initiative, a consortium of European public and private
partners with the objective of improving CAT modeling and increasing the transparency of CAT models often consi-
dered too obscure, by proposing a particularly optimised C ++ computing core which considerably decreases the
computation time.

From this core of computing and from various computer developments, we set up a high performance computing
(HPC) architecture allowing us to get an annual loss distribution for AXA France’s non-life portfolio within a reaso-
nable computation time.

The applications of these results are wide : operationally, we can produce risk maps highlighting areas of the territory
presenting a major risk for the insurer despite a weak historical loss.
From a regulatory perspective, the CAT model makes it possible to determine a two hundred year return period loss
and therefore to determine the amount of capital necessary for the insurer to continue its operations.
Finally, from a Reinsurance perspective, these results allow us to price a reinsurance treaty CATXL under different
assumptions.
Using the optimization of an objective criterion that constitutes the notion of Value creation, we propose an approach
for the determination of an « optimal » treaty among all the possible treaties.

2.3 Modeling Approach


The vulnerability module developed here is based on a standard frequency-cost decomposition in non-life actuarial
science : We estimate two parameters :
— the Destruction rate - Knowing the characteristics of an insured property, what is its destruction rate when
it is flooded ?
— the Chance of Loss - Knowing the characteristics of an insured property, what is the probability that it will
be flooded if the site is in a flood footprint ?

9
The calibration process can be summarized in the following figure :

Figure 11 – Overview of Calibration Process

For each line of business, we try to identify the factors having a significant influence on the CAT risk, whether these
factors are internal to the insured policy (floor level, insured renter or owner, number of room of the property etc.)
or externally requiring feature engineering to gather information.

Looking at the historical destruction rates, we notice a large volatility of destruction rates between events.
To capture this effect, we generate extra volatility. To do so, we implemented an “event volatility” factor.

It is formally a coefficient drawn using a log-normal distribution (centered in 1), modeling the distance to the
average behavior. It is usually called a coefficient of variation (CoV).
Such CoV was estimated on the empirical data and is as a reminder defined as
σ
Cov =
µ
where σ is the standard deviation and µ the average of a random variable.

3. Results and Applications


3.1 Focus on Residiential risks
Residential risk is the most present risk in the AXA France database, which makes its evaluation a crucial and
important step.
Since the depth of the claims experience of this branch is satisfactory, we rely on usual statistical methods to de-
termine the vulnerability parameters. The final approach consists in blending the power of GBM models and the
lisibility of GLM to perform an accurate modelisation.

We can represent in the next page the Lorenz curve of all tested models (gross GBM and modified GLM) for
the destruction rate modeling.
It is important that following our destruction rate modeling, we do not retain the height of water as an explanatory
factor, which may seem somewhat counter-intuitive.
However, this appears as the main driver of the claim frequency.

10
Figure 12 – Lorenz curve for all tested models

Thus, for the frequency, we do not propose a statistical model due to a lack of reliable data but we propose an
approach for computing it by considering that there is only three main explanatory features : the line of business,
the height of water and the area of risk considered.

3.2 Model outputs


Among the results of the model, the most important is the loss distribution, represented below by the AEP and the
OEP of the model.
The OEP represents the probability of seeing any single event within a defined period (typically one year) with a
particular loss size or greater ; the AEP represents the probability of seeing total annual losses of a particular amount
or greater.

Figure 13 – AEP & OEP in log scale Figure 14 – AEP & OEP in linear scale

11
An EP curve illustrates the probability of any given financial loss being exceeded. It can be used in one of two ways :
provided with a financial loss the EP curve could be read to give you the probability of this loss (or a greater loss)
occurring ; or alternatively provided with a probability level the EP curve could be read to show you the financial
loss level that this corresponds to.

AEP and OEP can be used in tandem to assist with managing exposure to both single large events, and saccu-
mulations of multiple events across a period.

We also observe that the two curves tend to converge for very long return periods, highlighting the fact that the
extreme losses are induced by a single event rather than by a multitude of events.

For confidentiality, we have chosen to normalize the losses by insured sums. Our curves therefore represent the
destruction rate according to return period. It is thus particularly easy for us to compute the CAT SCR (under the
assumption that the only CAT risk is flood) by seeking the value of the destruction rate for the 200-year return
period of the OEP.

3.3 Model sensibility to inputs


Since the construction of the model is based on many assumptions, it is important to test the modification of
certain inputs in order to asses the sensibility of the model and to evaluate the individual impact of the choices made.
Thus, we applied the following shocks :

— 10% deviation of vulnerability inputs for the Residential line of business.


— 10% deviation of the loss frequency for the Building and Industrial line of business.
— No correlation between water and destruction rate for Industrial and Building line of business.
— Perturbation of the geocoding of the insured property by shifting them by 100 meters.
— Multiplication by two of the vulnerability for Business Interruption.
— Modification of financial conditions.
— Adding an inter-site correlation.

Figure 15 – Model sensibility to inputs

Thus, we evaluate the impact of these changes on the SCR computation at 17.5%

12
3.4 Risk maps construction
Moreover, CAT model makes it possible to build risk maps that have an obvious utility for underwriters wishing to
know if a specific insured property is located in risk zones.
Using the NAT CAT model, we can build two types of risk maps :
— A risk map based on the Hazard module and representing the most risky zones vis-à-vis the hazard vulnerabity
and not taking into account exposure portfolio.
— A risk map based on the losses generated by the model taking into account the portfolio’s exposure, Vulnera-
bility parameters and financial conditions.

Although AXA France has a portfolio that is well diversified geographically, the two maps somewhat differ.
Below, we give an overview of a risk map of the first category where the zone is considered riskier for darker shades
of blue.

Figure 16 – Flood Risk map

3.5 Reinsurance pricing application


We use the loss distribution obtained to price a set of reinsurance treaties :« excess of loss per event », more
commonly called CATXL.

The commercial premium depends on three main elements :


— The pure premium, equal to the annual expected loss for the reinsurer.
— A loading coefficient which includes a notion of uncertainty on the amount of losses.
— A loading for management fees.

Although the pure premium remains relatively easy to compute from the CAT model outputs, the determination of
the loading coefficient is often delicate.
In this paper, we consider a loading that is equal to 15% of the standard deviation of the loss distribution and 10%
additional fees for management fees.
In the next page, we have represented the loss distribution of the insurer (in red) and the reinsurer (in red) with a
100XS100 CATXL.

13
Figure 17 – Loss distribution for the insurer and reinsurer

We conclude this thesis by talking about the concept of value creation, making it possible to choose the most inter-
esting treaty for the insurer from among all the treaties tested and defined as the difference between the reinsurance
structure’s gain in terms of equity (positive value) and the average cost of reinsurance (negative value).

Figure 18 – Heatmap : Value creation for a set of reinsurance treaties

14
Remerciements

Ce mémoire est l’aboutissement de mes études et restitue le travail d’une année au sein de l’équipe Actuariat
Réassurance d’Axa Global P&C.
Avant toute chose, je tiens à remercier François Bourgin et Jérôme Crétien mes tuteurs en entreprise pour leur
encadrement, leur relectures attentives et leurs conseils.
Je remercie aussi Simon Blaquière qui m’a permis de réaliser ce projet de fin d’études autour d’une problématique
passionnante, et qui m’a fait bénéficier de son expérience et de ses conseils.
Je remercie également l’ensemble d’AXA Global P&C, en particulier l’équipe Actuariat Réassurance, pour leur accueil
et leur disponibilité durant toute la durée de mon alternance.
Je souhaite enfin remercier mon entourage, qui de près ou de loin, a su m’apporter sa confiance et son soutien.

15
Table des matières

Introduction 2

1 Assurance et Catastrophes naturelles 3


1.1 Le positionnement d’AXA Global P&C dans le Groupe AXA . . . . . . . . . . . . . . . . . . . . . . . 3
1.1.1 Le groupe AXA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.1.2 L’entité AXA Global P&C . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2 Les Catastrophes naturelles : un risque de plus en plus présent ? . . . . . . . . . . . . . . . . . . . . . 4
1.2.1 Les Chiffres-Clés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.2 Les différents types de risques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2.3 Définition du risque Catastrophe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2.4 Les conditions d’assurabilité d’un risque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3 Le Risque Inondation : un risque difficile à modéliser et à quantifier . . . . . . . . . . . . . . . . . . . 6
1.3.1 Définition du risque Inondation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3.2 Évaluation de la capacité destructrice d’une inondation . . . . . . . . . . . . . . . . . . . . . . 7
1.4 Les bases de la modélisation des catastrophes naturelles . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4.1 Module Exposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.4.2 Module Alea . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.4.3 Module Vulnerabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.4.4 Module Financier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.4.5 Sortie des modèles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

2 Développement du module vulnérabilité 17


2.1 Contexte et données . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.1.1 Les évènements historiques d’inondations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.1.2 Les données externes : une source d’information supplémentaire . . . . . . . . . . . . . . . . . 21
2.1.3 Approche pour la modélisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.2 Modélisation du taux de destruction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.2.1 Les modèles linéaires généralisés : Théorie et Applications . . . . . . . . . . . . . . . . . . . . . 25
2.2.2 Gradient Boosting : Théorie et Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.2.3 Le secteur Résidentiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.2.4 Le secteur Industriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
2.2.5 Le secteur Commercial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
2.2.6 Le secteur Immeuble . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.2.7 Ajout d’une volatilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
2.3 Modélisation de la Chance of Loss ou Probabilité de sinistres(draft) . . . . . . . . . . . . . . . . . . . 48
2.3.1 Calibration de la Fréquence Résidentiel sur la Crue du Rhône . . . . . . . . . . . . . . . . . . 49
2.3.2 Extension aux autres branches d’activité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
2.3.3 Détermination de la fréquence pour les zones complémentaires . . . . . . . . . . . . . . . . . . 51
2.4 Récapitulatif et exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
2.5 Conclusion et limite de l’approche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54

3 Implémentation du modèle CAT 55


3.1 Implémentation et coeur de calcul . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.1.1 L’initiative OASIS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.1.2 Choix de développement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.2 Validation sur des évènements historiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
3.3 Simulation des pertes sur le catalogue d’Aléa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.3.1 Distribution des pertes associées au portefeuille d’exposition . . . . . . . . . . . . . . . . . . . . 61
3.3.2 Distribution des pertes annuelles associés au portefeuille d’exposition . . . . . . . . . . . . . . . 62

16
3.3.3 AEP et OEP du modèle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
3.3.4 OEP et prime pure par mois . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
3.3.5 Contribution des différentes branches d’activité à l’AEP . . . . . . . . . . . . . . . . . . . . . 65
3.3.6 Contribution de l’OEP dans l’AEP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
3.3.7 Calcul de la TVAR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
3.3.8 Sensibilité du modèle aux paramètres de vulnérabilité . . . . . . . . . . . . . . . . . . . . . . . 68
3.4 Construction de cartes de risques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
3.5 Reproduction de la crue Paris 1910 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70

4 Applications en Réassurance 72
4.1 Concepts généraux et utilité de la Réassurance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
4.1.1 L’utilité de la Réassurance comme outil de Risk Management . . . . . . . . . . . . . . . . . . . 73
4.1.2 La Réassurance Proportionelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
4.1.3 La Réassurance Non-Proportionelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
4.1.4 La notion de reconstitutions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
4.1.5 La Réassurance du risque Catastrophe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
4.2 Tarification d’un traité classique de Réassurance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
4.2.1 Calcul de la prime pure . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
4.3 Optimisation de la réassurance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
4.3.1 Définition du coût de réassurance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
4.3.2 Impact sur le capital immobilisé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
4.3.3 Détermination du traité optimal dans un cas simple . . . . . . . . . . . . . . . . . . . . . . . . 87

Conclusion 90

Tables des figures 94

Tables des tableaux 95

Bibliographie 96
Introduction

La question centrale de la modélisation des catastrophes naturelles est à l’origine de nombreuses publications cher-
chant à quantifier les risques sous-jacents à ces phénomènes particulièrement complexes. Dans les régions longtemps
épargnées par des évènements catastrophiques, le risque émanant des périls naturels est généralement sous-estimé.
Pour éviter de telles erreurs d’appréciation, le secteur de l’assurance utilise aujourd’hui des modèles mathématiques
afin d’établir une estimation réaliste du risque fondé sur les dernières découvertes scientifiques.

En raison de la complexité de ces modèles et de l’investissement qu’ils représentent, la plupart des compagnies
d’assurance et de réassurance utilisent des modèles conçus par des sociétés externes, les trois principales étant Risk
Management Solutions (RMS), AIR WorldWide (AIR) ou encore EQECAT (EQE).
Spécialisées dans la modélisation de catastrophes depuis plusieurs décennies, ces sociétés forment aujourd’hui un
oligopole du fait de leur expertise pointue dans le domaine.

Cependant, dans un nouveau contexte réglementaire européen fort matérialisé par la directive Solvabilité 2 qui
exige un degré de transparence accru et une meilleure connaissance de leurs risques, de plus en plus de sociétés
d’assurance et de réassurance commencent à développer leurs propres modèles CAT et s’affranchissent des modèles
vendeurs souvent considérés à juste titre comme de véritables boites noires. AXA s’inscrit dans cette initiative par
le biais des travaux de l’équipe Actuariat Réassurance d’AXA Global P&C qui commence depuis plusieurs années à
développer des modèles pour différents périls et ceci pour les différents pays où se trouve le groupe AXA.
Le présent mémoire a pour principal objectif de participer au développement du modèle Inondations et ceci dans le
périmètre de la France Métropolitaine.
Pour se faire, notre travail s’articulera autour de quatre axes principaux :

Le premier propose de dresser un portait global du monde de l’Assurance des catastrophes naturelles et d’ex-
pliciter un certain nombre de chiffres-clés qu’il est intéressant de connaître lorsque l’on travaille dans ce secteur. Un
intérêt particulier sera accordé au risque Inondation et à la question de son assurabilité. Une présentation, qui se
veut la plus succincte possible, portera sur les modèles CAT NAT qui ont une architecture complexe qui reposent
sur une décomposition modulaire singulière.

Le deuxième consiste à développer le module de vulnérabilité du modèle et ceci par le biais de la modélisation
des principales variables cibles que sont le taux de destruction et la fréquence de sinistres à l’aide de plusieurs mé-
thodes statistiques qu’elles soient classiques (GLM) ou orientée machine-learning (GBM). Une approche par dire
d’experts sera indispensable pour certaines catégories de contrats faute de données en nombre suffisant.

Le troisième propose d’implémenter le modèle suivant une architecture de calcul dénommée OASIS faisant l’objet
d’une présentation détaillée et qui permettra entre autre une prise en compte totale des incertitudes de nos modèles.
Cette nouvelle architecture plus rapide en terme de temps de calcul et plus efficiente permettra d’effectuer des ana-
lyses de sensibilités et d’avoir une vision plus précise du risque réel dans le périmètre considéré. A partir des données
d’Aléa construites antérieurement et matérialisées par une liste d’évènements fictifs probables d’inondations, nous
pouvons quantifier le risque réel d’inondations en France et produire les sorties classiques d’un modèle CAT et en
analyser les conclusions.

Le quatrième et dernier axe de travail mettra en lumière l’utilité d’un modèle CAT en Réassurance par le biais
d’une application directe consistant à la tarification de traités de réassurance XL et à la détermination du traité
optimal suivant le critère de la création de valeur.

Enfin le mémoire s’achève sur la conclusion, pointant sur ses apports, ses limites, ainsi que les perspectives qu’il
ouvre.
Chapitre 1

Assurance et Catastrophes naturelles

1.1 Le positionnement d’AXA Global P&C dans le Groupe AXA


1.1.1 Le groupe AXA
Le groupe AXA est une entreprise internationale française dont l’activité historique est l’assurance. Elle est le
fruit de nombreuses fusions depuis sa création en 1946.
Anciennement appelée Mutuelles Unies, la dénomination actuelle du groupe sous le nom d’AXA date de 1985.
En 2015, son chiffre d’affaire a été de plus de 99 milliards d’euros pour un résultat net de 5.6 milliards d’euros, ce
qui classe le groupe parmi les grands assureurs mondiaux.
Les 3 axes d’activité principaux d’AXA sont :
— L’assurance dommages.
— L’assurance vie, l’épargne et retraite.
— La gestion d’actifs.

En 2015, le groupe AXA était présent dans 64 pays et employait près de 166.000 personnes au service de 103 millions
de clients.

Figure 1.1 – Carte : Répartition géographique du groupe AXA

3
1.1.2 L’entité AXA Global P&C
Filiale du groupe AXA créée en 2010, AXA Global P&C a pour mission le pilotage de l’activité d’Assurance
non-vie de l’ensemble du groupe qui représente près de 39% du résultat opérationnel en 2015.
L’un de ses rôles principaux consiste en la bonne gestion de la Réassurance pour ces différentes branches d’activité
par le biais de l’estimation des besoins des entités régionales et au placement de ces besoins auprès des réassureurs.

Afin de déterminer le niveau de risque que le groupe est prêt à conserver ou à céder, AXA Global P&C doit être en
mesure de produire une évaluation la plus précise possible.
Il est donc indispensable pour le groupe de développer son expertise en terme de modélisations de risques pour mieux
connaître le montant à partir duquel elle doit réassurer ses contrats et ainsi pérenniser son activité conformément à
son appétence au risque.

Parmi les risques les plus dangereux pouvant avoir un effet significatif sur le bilan du groupe, les catastrophes
naturelles occupent naturellement une place majeure puisque leur impact financier peut être potentiellement illimité.

1.2 Les Catastrophes naturelles : un risque de plus en plus présent ?


1.2.1 Les Chiffres-Clés
Il a eu plus de 353 évènements extrêmes en 2015 1 donc 198 imputés aux catastrophes naturelles ce qui en fait le
plus grand chiffre jamais enregistré en une seule année.
Les 155 autres évènements sont des évènements made-man c’est-à-dire causés par une intervention humaine.
Plus de 26 000 personnes ont perdu la vie ou ont été déclarés disparus en 2015 soit quasiment le double du nombre
total en 2014 mais bien en-dessous de la moyenne annuelle depuis 1990 qui est d’environ 66 000.
De plus, la perte économique causée par ces désastres en 2015 est évaluée à 92 milliards de dollars en nette dimi-
nution par rapport aux 113 milliards enregistrés en 2014.

Figure 1.2 – Graphique : Nombre d’évènements catastrophiques : 1970-2015

A l’aide du graphique ci-dessus, nous constatons que malgré d’importantes fluctuations d’une année à l’autre, une
tendance semble se dégager de ces dernières années : les pertes causées par des catastrophes naturelles ont massi-
vement augmenté.
Cette augmentation ne permet cependant pas de déduire que les catastrophes naturelles en elles-mêmes c’est-à-dire
leur nombre et leur intensité connaissent une recrudescence en raison de l’accroissement global de la densité démo-
graphique et de la plus grande fragilité de certaines matériaux.
Toutefois, notons que de nombreuses études scientifiques 2 corroborent de plus en plus cette tendance à la hausse justi-
fiant que c’est le dérèglement climatique qui serait à l’origine de l’augmentation de phénomènes naturels dévastateurs.
1. Swiss Re : Publication Sigma 2015
2. Groupe d’experts Intergouvernemental sur l’évolution du Climat - Catastrophes naturelles et réchauffement climatique

4
Sur le plan assurantiel, la figure ci-dessous montre l’écart entre les pertes assurées et les pertes économiques au
fil des années, définissant ainsi l’insuffisance de protection ou de financement de l’assurance.
En d’autres termes, cette différence représente le montant de la perte financière induite par les catastrophes et non
couverte par l’assurance.
Nous observons que pour 2015, le déficit de protection global s’élève à 55 milliards d’euros ce qui constitue un ratio
d’assurabilité de seulement 40%. En pourcentage du PIB, les dommages non assurés sont passés de 0.08% dans la
période de 1976-1985 à 0.17% dans la période de 2006-2015.

Figure 1.3 – Graphique : Dommages assurés par opposition aux dommages non assurés en milliards de dollars

1.2.2 Les différents types de risques


Dans le milieu de l’assurance, les risques supportés par les assureurs sont habituellement divisés en plusieurs
catégories :
— Les risques attritionnels qui représentent des risques individuels fréquents et ayant une valeur de dommage
faible. Ils représentent la majeure partie de l’activité d’assurance non-vie.
— Les risques atypiques qui représentent des risques potentiellement élevés définis par une faible occurrence
et une charge élevée. Traditionnellement, on définit un seuil permettant de distinguer les risques atypiques des
risques attritionnels.
— Les risques Catastrophiques qui représentent les risques collectifs causés par un évènement rare qualifié
de catastrophe de forte ampleur.

Chacun de ces risques est appréhendé de manière indépendante et modéliser de façon différente.

Dans la suite du mémoire, nous nous focaliserons exclusivement sur les sinistres CAT liés au pé-
ril Inondation qui sont modélisés par une méthode spécifique reposant sur une extrapolation des
données sinistres par des raisonnements physiques.

5
1.2.3 Définition du risque Catastrophe
Les catastrophes peuvent être de différents types. Elles peuvent être man made si elles sont le fruit d’une action
humaine, comme ce fut le cas pour les attentats du World Trade Center, ou naturelles dans le cas où elles sont issues
d’un phénomène naturelle.
Selon le code Des assurances, nous pouvons définir les sinistres de type Catastrophe naturelle à partir de la citation
suivante :
"Sont considérés comme les effets des catastrophes naturelles, au sens du présent chapitre, les dommages matériels
directs non assurables ayant eu pour cause déterminante l’intensité anormale d’un agent naturel, lorsque les mesures
habituelles à prendre pour prévenir ces dommages n’ont pu empêcher leur survenance ou n’ont pu être prises.".

En d’autres termes, les catastrophes naturelles représentent des événements extrêmes d’origine naturelle contre les-
quelles nous ne pouvons ni nous protéger ni nous assurer.

1.2.4 Les conditions d’assurabilité d’un risque


Selon W.Gruss 3 , un risque est considéré comme assurable s’il possède les propriétés suivantes :
— la communauté d’intérêts : le groupe de personnes menacées doit être suffisamment nombreux et diversifié
pour former une communauté de risques.
— le besoin : la réalisation du risque doit être suffisamment pénalisante pour l’assuré et précariser sa situation.
— l’estimation : la charge de sinistre peut être évaluée et chiffrée.
— le caractère aléatoire : le moment où survient l’évènement ne doit pas être prévisible.
— la rentabilité : les personnes assurées constituent une communauté dont l’objet est de couvrir les besoins
financiers futurs selon un plan bien concret.
— la menace similaire : le risque doit être identique pour chaque assuré, la survenance de l’évènement doit affecter
tous les patrimoines de façon similaire.

Or ces conditions ne sont pas respectées dans le cas des Catastrophes et plus précisément des inondations.
Dans le cas des inondations, la condition de communauté d’intérêts n’est généralement pas remplie car la communauté
de risques est trop restreinte. De plus, la menace n’est pas similaire pour chaque assuré.
En effet, selon la topologie, les protections et les différents éléments constitutifs du bâtiment, ces risques affecteront
différemment chacun des assurés. De plus, ces événements affectent l’intégralité des assurés résidant dans de larges
zones.
Il n’y a donc pas ou peu d’effet de mutualisation des risques. C’est à ces carences que va répondre la réassurance et
permettre aux clients d’AXA d’être tout de même assurés contre ces risques.

1.3 Le Risque Inondation : un risque difficile à modéliser et à quantifier


Les pertes liées aux inondations n’ont cessé d’augmenter ces dernières années. En parallèle, la perception que les
inondations sont un phénomène récurrent ont poussé au développement de modèles pour tenter de gérer et de quan-
tifier ce risque. Pour les tempêtes et les inondations, l’alerte est donnée, au mieux, quelques jours avant. Mais si de
tels évènements ne sont pas prévisibles, comment un assureur est-il en mesure d’évaluer les sinistres futurs ?

Il est fondamental de souligner que c’est cette imprévisibilité des catastrophes naturelles autrement dit leur ca-
ractère fortuit et aléatoire qui est une condition fondamentale pour que de tels risques puissent être assurés 4 . Si nous
savions d’avance qui serait victime d’un sinistre et qui serait épargné, il ne serait plus possible de constituer une
communauté de risques dans l’esprit de l’Assurance.

Dans cette section, nous mettons en avant les multiples formes que peuvent prendre les inondations qui diffèrent
ainsi par leur degré d’intensité, leur fréquence d’occurrence ou encore leur durée.
Il est important de noter que le modèle que nous présenterons dans la suite de ce mémoire ne modélise que les inon-
dations liées aux débordements de rivière qui représentent certes la plus grande partie des évènements d’inondations
mais pas la totalité.
Ensuite, nous présentons un certain nombre d’indicateurs physiques qui permettent de caractériser une inondation
comme sa durée, son intensité à travers la hauteur d’eau dans une zone inondée, le débit et enfin sa période de retour
permettant ainsi de quantifier son occurrence.
Enfin, nous présentons les bases de la modélisation des catastrophes naturelles et plus précisément des inondations
qui repose sur une architecture modulaire permettant de quantifier de façon crédible le risque d’inondation dans des
zones qui peuvent avoir été longtemps épargnées.
3. W.Gruss - L’industrie de l’Assurance
4. cf la condition d’assurabilité

6
1.3.1 Définition du risque Inondation
Au sein des catastrophes naturelles, l’inondation se démarque à plusieurs égards par la diversité des formes et des
types qu’elle peut prendre.
Une inondation est la submersion temporaire par l’eau de lieux habituellement non submergés.
Ce phénomène peut apparaître sous plusieurs formes et peut être provoqué par différents phénomènes physiques
comme une pluie intense, une crue de rivières ou encore des reflux marins.
Swiss Re 5 a dressé une topologie du risque Inondation résumé dans la table ci-dessous :

Types d’inondations Description Caractéristiques de l’inonda-


tion
Débordement de rivière Crue d’un cours d’eau se répandant sur les ter- Rare, de longue durée, coûteuse.
rains attenants
Tsunami Immenses vagues produits par des mouvements Concentrée sur les zones côtières
tectoniques ou éruptions de volcans sous-marins sur un large périmètre.
Inondation soudaine Montées des eaux rapides provoquées par des Fréquence, courte, très localisée,
pluies fortes localisées d’impact limité.
Rupture de barrage Destruction partielle ou totale de barrages cau- Imprévisible, très rapide, tou-
sée par des sources naturelles ou par des défauts chant souvent des zones ur-
de conception baines.
Coulée Boueuse Mouvements de trains imbibés d’eau impact très important et de
longue durée.

Table 1.1 – Tableau : Les différents types d’inondations

Ces différentes causes compliquent la compréhension et la maîtrise du risque sous-jacent rendant sa quantification et
sa modélisation très complexe.

1.3.2 Évaluation de la capacité destructrice d’une inondation


Il s’agit dans ce qui suit de déterminer les paramètres caractérisant le risque inondation. De manière générale,
une inondation est principalement caractérisée par trois paramètres :
— Une intensité : pour une inondation, l’intensité sera mesurée par la hauteur d’eau dans une zone donnée,
cependant dans certaines situations, ce paramètre peut être remplacé par un débit d’eau.

— une durée : ce paramètre est particulièrement important puisque certaines études montrent que les dégâts
causés sont souvent liés à la durée.

— sa Périodicité : En pratique, dans un contexte de CAT NAT, les probabilités sont si faibles que l’on utilise la
notion de période de retour d’un évènement au lieu de parler de probabilité et qui est définie comme suit :
1
PR =
1 − F −1 (x)

où F représente la fonction de répartition des pertes annuelles.


Ainsi une perte de 10 millions d’euros ayant une période de retour de 100 ans signifie qu’elle a 1% de chance
de se produire l’année prochaine.

La notion de période de retour est particulièrement utile, comme nous le verrons dans la suite, quand il
s’agit d’établir des ordres de grandeurs sur des pertes pour un portefeuille donnée. Notons qu’avec la nouvelle
réglementation Solvabilité 2, il s’agit pour les assureurs de se couvrir contre une perte bi-centaire (de période
de retour de 200) concernant le risque CAT.

5. Swiss Re : Inondation et Assurance

7
1.4 Les bases de la modélisation des catastrophes naturelles
En introduction, nous avons mis en avant le fait que les historiques de sinistres liés aux phénomènes CAT sont
souvent d’une profondeur trop faible pour être réellement représentatifs du risque réel d’un portefeuille d’assurés et
que le risque de certaines régions est alors sous-estimé.

Il nous faut donc « compléter » cette vision historique par une série d’évènements fictifs mais probables souvent
appelés scénarios permettant ainsi d’élargir notre connaissance du risque.
Le modèle CAT, par une succession d’étapes et de raisonnements, va permettre d’obtenir la forme « complète » de
la distribution des pertes liée au portefeuille étudié comme ci-dessous :

Figure 1.4 – Schéma : Principe d’un modèle CAT

Ainsi, nous essayons à partir d’un modèle CAT de simuler dans un monde virtuel, les sinistres causés par des catas-
trophes naturelles dans la réalité.
Généralement un modèle CAT repose sur une architecture divisée en quatre modules ayant des objectifs bien diffé-
rents :
— Module Exposition : Le premier module consiste à apporter des informations sur la localisation géographique
des objets assurés, leur nature et leur valeur.

— Module Aléa : Ce module permet, par des considérations le plus souvent physiques et statistiques de créer des
évènements fictifs probables qui peuvent toucher le portefeuille.

— Module Vulnérabilité : C’est le module le plus sensible et celui ayant l’impact le plus important sur les résultats
obtenus puisqu’il permet d’associer une perte économique (c’est-à-dire monétaire) subie par les biens assurés
en fonction de l’intensité de l’évènement considéré et de leurs caractéristiques.

— Module Financier : Le dernier module applique les conditions d’assurance aux biens assurés comme les fran-
chises, les limites ou encore les principes de coassurance.

8
On retrouve ci-dessous une représentation schématique d’un modèle CAT reprenant la décomposition modulaire
classique en mettant au centre la plateforme de calcul permettant de faire le lien entre toutes ces informations
souvent de natures différentes et permettant de produire un certain nombre de sorties classiques.

Figure 1.5 – Schéma : Structure schématique d’un modèle CAT

Pour estimer un risque catastrophique dans une zone donnée, il faut d’abord quantifier séparément ces quatre compo-
santes, pour les relier par la suite. Cette approche est généralement valable, qu’il s’agisse d’un séisme, d’une tempête,
d’une inondation ou d’autres périls naturels.

9
1.4.1 Module Exposition
Le Module Exposition, bien que moins technique que les autres modules, restent d’une importance capitale puis-
qu’ils transmet et formate les informations essentielles sur les caractéristiques des biens assurés présents dans le
portefeuille.

Ci-dessous, nous trouvons une liste non exhaustive des caractéristiques que l’on peut retrouver généralement
dans les portefeuilles :

— Le type de risque assuré & la branche assurée :


Les différentes branches d’activité réagissent de façon très hétérogène aux phénomènes inondations (la branche
Résidentiel étant généralement la plus vulnérable).
En effet, les bâtiments industriels sont généralement plus prévoyants en matière d’inondation et bénéficient
d’une meilleure protection contre ce péril.

— La localisation :
Contrairement aux hypothèses que l’on suppose habituellement en assurance, ici les différents sites assurés
d’un portefeuille ne sont pas indépendants vis-à-vis d’une catastrophe naturelle. Ainsi, une inondation tou-
chera plus probablement et plus fortement les sites présents dans son empreinte géographique et moins ceux
qui y sont extérieurs.
L’empreinte géographique d’une inondation étant très sensible à la topographie du terrain touché, il est né-
cessaire de savoir positionner le plus précisément possible les sites assurés. Dans le cadre d’une modélisation
Inondation, nous attendons une précision importante pour la localisation des sites assurés c’est-à-dire une lon-
gitude et une longitude. Pour d’autres périls comme les tempêtes ou les tremblements de terre, les exigences
de précision sont moindres.

— Le nombre d’étage :
Cette information est pertinente pour les inondations puisque l’on conçoit facilement qu’une maison d’un seul
étage sera touchée par une inondation tandis que seul les premiers étages d’un immeuble seront concernés. En
pratique, nous n’avons pas cette information mais nous savons si le site se trouve en étage ou au rez-de chaussée.

— La Somme assurée :
C’est la somme monétaire garantie dans le contrat d’assurance. Elle est toujours divisée en trois garanties :
la garantie Bâtiment qui couvre les dégâts liés au bâti (Building), la garantie Contenu qui couvre les objets
assurés (Content) et la garantie Perte d’exploitation (Business Interruption) permettant de dédommager les
pertes indirectes de l’inondation. En pratique, il est très difficile de modéliser les pertes indirectes et la grande
partie du mémoire se focalisera sur les pertes directes.

10
1.4.2 Module Alea
L’exposition aux catastrophes naturelles dépend de plusieurs paramètres que sont la répartition géographique, la
fréquence d’occurrence mais aussi l’intensité des évènements.
Pour pouvoir quantifier le risque lié à une catastrophe naturelle, il faut avoir une approche qui repose sur un raison-
nement dual :
— d’une part, procéder à un inventaire le plus exhaustif possible d’évènements antérieurs qui se sont réalisés
dans la zone étudiée.
— d’autre part, construire à l’aide de considérations scientifiques une série d’évènements probables fictifs.
En effet, il est tout à fait intuitif que les évènements antérieurs constitueront la pierre angulaire du module de l’aléa.
Ainsi, plus les séries de données remontent loin dans le temps et plus elles sont complètes, plus elles sont susceptibles
de donner une image fidèle et cohérente du risque réel. Mais comme présenté en introduction, certaines régions long-
temps épargnées par des évènements naturels peuvent être des zones intrinsèquement risquées.
Pour palier ce problème, il est donc absolument nécessaire de simuler un échantillon représentatif de tous les évène-
ments susceptibles de se produire.

L’objectif de ce module est donc de constituer un catalogue d’évènements fictifs liés au phénomène CAT étudié
où les caractéristiques de ces derniers sont générées aléatoirement.
Ce module concentre donc toute l’essence du modèle et regroupe la plupart des hypothèses et approximations consen-
ties.
Certaines entreprises à l’origine de modèles catastrophes consciente de la difficulté de cette tâche choisissent de sous-
traiter la réalisation du catalogue d’évènements à des sociétés spécialisées, réunissant tous les centres de compétences
requis, à savoir l’hydrologie, l’hydrométrie, l’étude des sols et la géographique pour le péril inondation.

Il est donc nécessaire, d’élargir à l’aide de connaissances scientifiques sur la formation et la dynamique des pé-
rils naturels, l’échantillon trop restreint des évènements antérieurs. A partir des évènements antérieurs, on génère à
cette fin des milliers d’autres évènements en faisant varier certaines propriétés.
Ces évènements générés artificiellement ne se sont certes jamais produits par le passé mais d’un point de vue scien-
tifique rien ne permet d’affirmer qu’ils n’auront pas lieu à l’avenir. La génération du catalogue d’évènements peut se
faire de manière historique ou stochastique :

Méthode historique
La méthode historique consiste à construire un catalogue d’évènements à partir d’inondations déjà observées par
le passé. Si elles sont insuffisantes pour une étude statistique valide, il est possible d’en générer de nouvelles en se
contentant de modifier leur sévérité, voire leur empreinte géographique.

Méthode Stochastique
La méthode stochastique est fondée sur des études hydrométriques et géographiques.
Elle nécessite de disposer des données historiques d’hauteurs d’eaux quotidiennes pour un ensemble de points don-
nés. Ces dernières permettent de construire une fonction de distribution empirique de la hauteur d’eau quotidienne
à chaque point, ainsi que leur matrice de corrélation.
Elles permettent ensuite de simuler un vecteur de hauteurs d’eau en chaque point à partir des distributions empi-
riques et de leur corrélation pour ensuite lancer un modèle de propagation d’eau pour avoir l’empreinte de l’évènement
c’est-à-dire l’ensemble des zones touchées et la hauteur d’eau dans ces dernières.

AXA Global P&C possède son propre modèle de génération d’inondations en France qui simule aléatoirement 60.000
évènements (5000 simulation pour les 12 mois de l’année) d’inondation mesurés en un nombre fixe de stations réparties
sur le territoire français. Ils sont construits autour de deux éléments essentiels :
— le MNT 6 de la France. C’est une carte découpant la France en carreaux de 75m sur 75m donnant l’altitude de
chaque case par rapport au niveau de la mer. Ainsi, chaque police du portefeuille, si elle est géocodée, pourrait
être rattachée à un numéro de cellule du MNT.
— Des cartes hydrographiques. Ces cartes nommées Carthage N 7 fournies par l’IGN illustrent les emplacements
des cours d’eau en fonction de la taille de leur tronçons. Plus la valeur N est élevée, plus la longueur des
rivières sélectionnes est faible.
Par exemple, le niveau 1 ne prend en compte que les cours d’eau longs d’au moins 100km tandis que le niveau
7 tient compte de l’intégralité du réseau fluvial.
6. Modèle Numérique de Terren
7. N allant de 1 à 7

11
Ci-dessous, nous pouvons représenter la carte donnant la répartition sur le territoire français des stations de jaugeage
qui permettent de récupérer des hauteurs d’eau quotidienne.

Figure 1.6 – Répartition des stations de jaugeage en France

Après avoir calibré des distributions d’hauteurs d’eau mensuelles pour chacune de ces stations de jaugeage en faisant
appel à la théorie des valeurs extrêmes, il est possible d’obtenir des hauteurs d’eau extrêmes en allant tirer dans un
quantile de la distribution et puis de lancer un modèle de propagation d’eau permettant de simuler le déplacement
de l’eau et ainsi de construire une carte d’inondation pour un évènement donné comme ci-dessous :

Figure 1.7 – Carte : Exemple d’empreinte pour un évènement fictif inondation sur Paris

La génération d’empreintes, qu’elle soit historique ou stochastique est d’une complexité importante et aurait pu
faire l’objet d’un mémoire.
Ici, nous ne détaillons pas leur mode de construction et nous considérons dans la suite que le catalogue d’Aléa est
déjà crée et fiable.

12
1.4.3 Module Vulnerabilité
Le module Vulnérabilité résulte de la mise en commun des modules Aléa et Exposition précédemment détaillés.
L’analyse de la vulnérabilité provient du fait que différents types de bâtiments réagissent différemment à chaque péril.
Par exemple un mobile-home sera plus vulnérable qu’une maison en ciment lors de la survenance d’une inondation.
Pour étudier ce coût indépendamment de la valeur assurée, nous étudions une quantité appelée taux de destruction.
Elle représente le rapport entre la charge du sinistre et la somme assurée par l’assureur (SIV pour Sum Insured
Value) :
Charge
TD =
SIV
Le module de vulnérabilité consiste ainsi en un ensemble de fonctions reliant l’aléa et les caractéristiques du bien
assuré à un taux de destruction moyen.
Elles peuvent être déterminées à l’aide :
— d’une expertise d’ingénieurs, qui étudient le comportement du bâti face à un aléa physique.
— d’une analyse des sinistres historiques.

Les courbes de vulnérabilité sont généralement, des fonctions croissantes avec l’intensité de l’aléa.
Le graphique ci-dessous illustre le principe de « courbes » de vulnérabilité associant ainsi un taux de destruction à
une hauteur d’eau 8 .

Figure 1.8 – Schéma : Exemple de courbe de vulnérabilité

Lorsqu’une structure est confrontée à un aléa (vitesse de vent, mouvement du sol, hauteur d’eau), elle ne va pas
toujours réagir de la même manière, il existe une incertitude autour de cette valeur moyenne. Ainsi, à chaque valeur
de l’intensité d’aléa ne correspond pas une unique valeur de taux de destruction mais une distribution de taux de
destruction comme on peut le voir dans l’image ci-dessous :

Figure 1.9 – Schéma : Incertitude autour d’une valeur moyenne

8. Source : Swiss Re- Un exemple de modélisation d’inondations 2013

13
La prise en compte de cette incertitude sera l’objet d’une sous-section dans la partie sur le développement du module
vulnérabilité.
Notre méthode consistera non pas à calibrer une loi de probabilité sur les taux de destruction à chaque valeur d’aléa
mais à « chocker » les taux moyens par une variable aléatoire préalablement déterminée.

Enfin, une fois que l’on connaît les courbes de vulnérabilité, on peut déduire la perte brute pour chaque police
à partir de l’intensité de l’aléa pour cette police.
Il reste alors à évaluer les conditions financières (franchises, limites, coassurance) pour déterminer la perte nette.

1.4.4 Module Financier


Le module financier prend en entrée la perte brute calculée pour chaque police et applique les différentes condi-
tions d’assurance. En effet, l’assureur n’assure pas toujours la totalité du risque qu’il peut partager avec un assureur
(principe de la coassurance) et des franchises et des plafonds sont souvent appliqués. Il est intéressant de souligner
que les pertes nettes peuvent être très différentes des pertes brutes suivant le niveau des conditions financières.
L’ensemble des mécanismes est détaillé dans la figure ci-dessous :

Figure 1.10 – Schéma : Application des conditions financières

Ici, la perte brute vaut 550 et la perte nette vaut 450 car il y a 100 de rétention (franchise). On obtient en sortie du
modèle financier les pertes par police nettes de conditions financières ; c’est la somme qui est réellement à la charge
de l’assureur.

Dans certaines situations, il peut exister des architectures de protection de l’assureur qui sont particulièrement com-
plexes avec des conditions d’applications ou d’agrégations spécifiques entre certains sites ou certaines polices.
Dans la suite, par souci de simplicité, nous ne considérons que des conditions ordinaires se limitant à l’application
de franchises et des limites usuels mais le lecteur intéressé peut lire de la documentation présentant des structures
plus atypiques et complexes. 9

9. AIR Technical Documentation : An overview of complex financial conditions

14
1.4.5 Sortie des modèles
Pour évaluer l’exposition d’un portefeuille d’assurance au péril sous-jacent, le modèle CAT produit un certain
nombre de sorties qu’il convient de définir succinctement ici. Pour cela, nous allons introduire deux grandeurs couram-
ment utilisées en réassurance : l’AEP (Aggregate Exceedence Probability) et l’OEP (Occurence Exceedence Probability)
faisant parties dans un cadre plus général des EP curves.

Les courbes EP
Les courbes EP pour Exceedance Probability expriment la probabilité que des pertes excèdent un certain seuil.
Les courbes EP sont l’indicateur de risque principal utilisé dans la fonction de Risk Management. Il existe deux types
de courbes EP définies ci-après :

— L’AEP ou Aggregate Exceedance Probability est la probabilité que la somme des pertes annuelles excède
un certain seuil. Elle permet donc réciproquement de déterminer la perte annuelle maximale probable à un
niveau de confiance donné. Comme expliqué précédemment, nous préférons l’exprimer en termes de périodes
de retour, plutôt que de probabilité. Ainsi, on a :
N
!
X
AEP (x) = P Xi > x
i=1

— Conceptuellement proche de l’AEP, l’OEP Occurence Exceedance Probability représente la probabilité annuelle
que la perte maximum excède un certain seuil :

OEP (x) = P (max(X1 , ..., XN ) > x)

Une OEP ne donne donc qu’une information partielle sur la perte annuelle d’un portefeuille, puisqu’il ne tient
compte que de l’évènement le plus important survenu chaque année.

Un assureur ou un réassureur s’intéresse alternativement à ces deux mesures de risques suivant la nature des contrats
de réassurance qu’il a souscrit.
Lorsqu’il couvre contractuellement tous les sinistres d’une année, l’AEP est plus appropriée. En revanche, l’étude
de l‘OEP est recommandée pour les contrats ne s’appliquant qu’aux risques rares et extrêmes. Ainsi, les traités de
réassurance proportionnels, couvrant leur bénéficiaire contre une fréquence élevée d’événements, seront étudiés via
l’AEP.
Au contraire, la détermination des modalités d’un traité non proportionnel nécessite le calcul de l’OEP, qui convient
aux protections contre des sévérités anormalement hautes.

Figure 1.11 – Graphique : Exemple d’AEP et d’OEP

15
Notons que puisque la perte annuelle agrégée (correspondant à l’AEP ) est toujours supérieure à la perte causée par
l’évènement le plus grave d’une année donnée (correspondent à l’OEP ), nous observons toujours visuellement que
l’AEP est supérieure à une OEP. L’égalité est vérifiée lorsqu’au plus un évènement survient dans l’année.

Event Loss Table


Un modèle CAT restitue également l’ensemble des événements qui ont été simulés dans l’opération de modélisation
en indiquant pour chacun des événements un certain nombre de paramètres comme la fréquence de survenance ainsi
que les paramètres liés à la distribution de ces pertes.
Ces restitutions concerneront selon les demandes :
— la sinistralité brute.
— la sinistralité nette.
— l’écart-type de la sinistralité.
— La somme assurée dans l’empreinte de l’évènement.

Figure 1.12 – Tableau : Exemple d’Event Loss Table

16
Chapitre 2

Développement du module vulnérabilité

L’estimation des dégâts causés par les inondations reste un point crucial pour les assureurs et les réassureurs. Pour
respecter les règles de solvabilité et garantir une « sécurité financière » en cas de dommages extrêmes, une estimation
des pertes potentielles pour un portefeuille donné à partir d’un modèle CAT est nécessaire.
Dans cette section, nous proposons une approche pour développer le modèle Vulnérabilité du modèle et ainsi quan-
tifier le risque économique à partir de la connaissance de l’aléa et ceci pour l’ensemble des biens assurés dans le
portefeuille non-vie d’AXA France, plus grande filiale du groupe AXA couvrant des polices appartenant à plusieurs
branches d’activité différentes.

L’idée centrale dans l’estimation du risque d’inondation repose sur le concept de courbes de vulnérabilité définies
dans la section précédente. L’origine de ce concept est « supporté » par l’observation que les biens assurés d’un type
particulier ont une résistance globalement similaire vis-à-vis d’un même phénomène.
Ce concept est à présent clairement établi et constituent à présent un standard : les courbes de vulnérabilité sont vues
comme un bloc essentiel pour une estimation pertinente des inondations. L’intuition consistant à supposer que les
dommages sont fortement liés à la hauteur d’eau dans la zone inondée est cependant remise en cause pour certaines
branches d’activité.

Traditionnellement, la construction de ces courbes reposent sur une collecte de données sinistres la plus fiable possible
après un évènement inondation.
Un problème qui se pose souvent lorsque nous étudions les branches d’activité industrielles ou commerciales est
l’absence de données ou leur présence en nombre insuffisant pour calibrer des courbes de vulnérabilité robustes.
Nous verrons qu’une alternative consiste à se fier à des jugements d’experts, que nous utilisons cependant avec soin,
résultat d’une étroite collaboration entre Axa Global P&C et AXA Matrix, filiale spécialisée du groupe AXA dans
l’ingénierie et la construction qui mènent de nombreuses études pour analyser la sensibilité de certains types de biens
à des risques extrêmes.

Dans la suite, l’approche retenue pour développer le module Vulnérabilité du modèle Inondation consiste à dé-
composer le risque en deux facteurs s’approchant de la décomposition classique fréquence-coût que l’on retrouve dans
de nombreuses méthodes actuarielles.

Dans un premier temps, nous estimons un taux de destruction affectant les biens assurés permettant de répondre
à la question : Connaissant les caractéristiques d’un site assuré, quelle est le pourcentage de destruction de celui-ci
quand il est inondé ?

Dans un second temps, nous estimons une fréquence de sinistres (COL pour Chance of Loss) après le constat
qu’un certain nombre de polices dans les empreintes inondations ne déclarent pas de sinistres répondant ainsi à la
question : Connaissant les caractéristiques d’un bien assuré, quelle est la probabilité que celui-ci soit sinistré lorsqu’il
est dans l’empreinte géographique d’une inondation ?

Nous concluons cette section par l’identification des principales limites et d’éventuelles pistes d’améliorations per-
mettant ainsi de réviser le module Vulnérabilité dans le futur.

17
2.1 Contexte et données
Dans cette section, nous définissons précisément le contexte de l’étude à travers la présentation des différentes données
utilisées pour la modélisation.
Le portefeuille d’AXA France est composé de cinq branches d’activité :
— Résidentiel (ou MRH ) : branche d’activité couvrant les habitations des particuliers.
— Industriel (ou MIE ) : branche d’activité permettant de couvrir les biens industriels de tout genre.
— Immeuble (ou IMM ) : branche d’activité permettant de couvrir les immeubles.
— Commercial (ou MRP ) : branche d’activité assurant les biens commerciaux.
— Collectivité (ou COL) : branche d’activité couvrant les édifices des collectivités.

Il existe une dernière branche d’activité qui couvre les biens agricoles mais qui ne sera pas modélisée
dans la suite faute de données en nombre suffisant.

Ci-dessous, nous calculons des statistiques extraites de la base sinistres permettant ainsi de mettre en avant un
premier critère de segmentation.
En effet, les différentes branches d’activité réagissent globalement différemment au risque inondation hormis le Rési-
dentiel et le Commercial qui présentent de fortes similarités. Une explication possible vient du fait que ces deux types
de biens assurés ne diffèrent que par la nature du contenu assuré mais que la vulnérabilité réelle face aux évènements
inondations semble proche.
Dans la suite, nous choisissons de distinguer les différents biens assurés suivant leur branche d’activité.

Branches Taux de destruction moyen Fréquence de sinistre moyenne


Collective 11.4% 18%
Résidentiel 21.2% 37%
Immeuble 2.3% 14%
Commercial 22.3% 40%
Industriel 5.3% 29%

Table 2.1 – Tableau : Les différentes branches d’activité d’AXA France

Les chiffres contenus dans ce tableau ont été fortement modifiés pour des raisons évidentes de confidentialité mais
les relativités des différentes branches d’activité sont conservées.

2.1.1 Les évènements historiques d’inondations


La calibration du module de Vulnérabilité a été effectuée principalement à partir des données sinistres transmis par
AXA France. Cette base est constituée de 27 évènements historiques constituant plus de 42.000 sinistres sur un
périmètre de 1999 à 2014.
Une partie importante des sinistres étant géocodée, nous pouvons les représenter sur la carte de France mettant ainsi
en évidence des zones où le risque est plus présent que d’autres (Sud-Est de la France par exemple).

Figure 2.1 – Carte : Répartition des sinistres

18
Il est important de noter à ce stade que les pertes liées aux inondations peuvent être classées en deux catégories
distinctes : pertes directes et indirectes.
Les pertes directes ont lieu à cause d’un contact physique de l’inondation avec des êtres humains, des biens ou tout
autre objets. Les pertes indirectes, aussi appelées pertes intangibles (en opposition aux pertes tangibles) sont induites
par une inondation mais ont lieu en dehors de l’évènement - en temps ou en espace.
Des exemples typiques de pertes indirectes sont l’interruption du trafic, du business ou de services publiques.

La grande partie de la littérature traitant de l’estimation des dégâts liés au phénomène d’inondation concerne les
pertes tangibles malgré qu’il est à présent reconnu que les pertes indirectes représentent une part importante voir
même supérieure dans l’évaluation de l’impact des inondations.
Dans la base sinistre fournie par AXA France, nous ne disposons pas de l’information donnant la
nature de la perte.

Nous faisons l’hypothèse que les pertes liées au secteur Résidentiel ne contiennent pas de pertes intangibles et que
celles-ci sont présentes majoritairement dans les branches industrielles et commerciales. Dans la suite, nous proposons
une méthode d’estimation des pertes intangibles pour ces branches en considérant que le principal facteur explicatif
est la durée de l’inondation.

Pour évaluer la sévérité des évènements historiques, un premier traitement sur la base sinistre consiste à procé-
der à une mise en As-if des coûts permettant ainsi d’avoir une idée de la charge que subirait le portefeuille d’AXA
France si ces évènement survenaient aujourd’hui.

Ce redressement consiste en :

— L’actualisation des montants de sinistres permettant ainsi de prendre en compte l’inflation subie par
les montants des sinistres entre la période qui sépare la date d’historique et la date de la modélisation. Nous
utilisons pour cela l’indice FFB 1 produit de façon trimestrielle.

— La revalorisation des montants de sinistres qui a pour but de prendre en compte l’évolution du porte-
feuille entre la date du sinistre et la date de modélisation.

Si on définit Xi la perte totale liée à un évènement inondation survenu l’année i , on obtient X̃j à la date de modé-
lisation j par la formule :
F F Bj Expoj
X̃j = Xi ∗ ∗
F F Bi Expoi

Figure 2.2 – Évolution de l’indice FFB Figure 2.3 – Variation de l’exposition

1. FFB : Fédération Française du Bâtiment

19
A titre d’exemple, un évènement ayant eu lieu en 2003 de perte totale de 100 M€ sera revalorisé en tenant compte
de :
— L’augmentation de la taille du portefeuille depuis 2003 supposée égale par exemple à 10%.
— L’évolution de l’indice FFB sur cet interval temporel égale à 15%.
La valeur as-if de cet évènement serait donc égal à 127 m€.

Pour chacun de ces évènements, nous pouvons par ailleurs construire les empreintes inondations correspondantes
à partir de la connaissance des hauteurs d’eau dans les stations de jaugeage à proximité et aux quantités de précipi-
tations à l’époque de l’évènement.
Il est important de noter que c’est donc une empreinte simulée par le modèle de propagation d’AXA global P&C et
que celle-ci ne permet pas de capter la totalité des sinistres.

Figure 2.4 – Carte : Empreinte simulée de la Crue du Sud de 1999

Pour améliorer le taux de « capture » des sinistres, l’équipe de modélisation d’AXA Global P&C a développé une
approche supplémentaire reposant sur l’extension de ces empreintes à l’aide de ce que nous avons défini comme étant
des zones de risques complémentaires.
Deux zones de risques sont alors construites à partir d’un concept géomorphologique, la distance verticale à un réseau
de rivière (pour la première zone) ou à un réseau théorique (pour la deuxième zone).
Ces zones ont pour objectif de compléter les zones inondables par débordement de rivières obtenues avec le modèle
de propagation. Ainsi, pour l’évènement défini plus haut :

Type d’empreinte Nombre sinistres capturés Charge captées


Empreinte simulée 45% 51%
Empreinte simulée + Zones de risques 60% 85%

Table 2.2 – Tableau : Impact de l’ajout des zones complémentaires sur le taux de capture des sinistres

Plusieurs raisons expliquent de faibles pourcentages de capture de sinistres.


La première et principale vient du fait que le modèle physique développé au sein d’AXA Global P&C modélise les
inondations liées aux débordement de rivières, toute inondation liée à un autre phénomène est donc mal appréhendée
(les inondations liés à une forte précipitation par exemple).
La deuxième vient de la qualité de la base sinistre en elle-même ; certains sinistres sont rattachés à un évènement
climatique donné alors que ces sinistres ne sont pas la conséquence directe de cet évènement.

20
2.1.2 Les données externes : une source d’information supplémentaire
La Base sinistres fournie par AXA France donne des informations sur la branche d’activité du bien sinistré, un certain
nombre de caractéristiques internes (plus nombreuses pour le secteur Résidentiel par exemple) et sa localisation
géographique.
Avant le travail de modélisation, nous nous proposons dans ce qui suit d’enrichir la base de données en récoltant à
partir de données publiques ou privées des informations géographiques.

Quantité de précipitation
La quantité de pluie tombée dans une zone donnée est une information capitale lorsque l’on étudie le phénomène
d’inondation. Cette information est d’autant plus importante que les empreintes historiques générées par le module
Aléa n’intègre pas les conditions de précipitations.
ERA-Interim est une entreprise mettant en ligne des données de précipitation depuis plus de 1979 avec des mailles
de 25km sur 25.
Pour plus d’informations, notamment sur la méthode de collecte de données, le lecteur intéressé peut se référer au
site internet de l’entreprise 2 .
Nous disposons donc de données de précipitations exprimées en millimètres de façon journalière avec un historique
de près de 40 ans. Nous faisons le choix d’agréger cette information par la construction du quantile à 99% de la
précipitation tombée pour chaque maille considérée.

Figure 2.5 – Fonction de répartition des Figure 2.6 – Fonction de répartition des préci-
précipitations pour le Sud de la France pitations pour le Nord de la France

A partir de ces données, nous pouvons alors découper le territoire Français en trois grandes zones :
— < 25mm : zones de faible précipitation.
— [25, 40mm] : zones de précipitation modérée.
— > 40mm : zones de forte précipitation principalement localisées dans le contour méditerranéen .

Figure 2.7 – Carte : Représentation des quantiles de pluie sur le territoire française
2. Era-Interim - Site : www.ecmwf.int/en/research/climate-reanalysis/era-interim

21
Nombre d’arrétés CAT NAT
Dans le cadre de l’assurance des catastrophes naturelles, la France possède une particularité qui la distingue des
autres pays européens puisque dans le cas où de nombreux sinistres liés à un évènement CAT se produisent, le maire
d’une commune peut proposer de constater l’état de catastrophe naturelle de tout ou une partie de sa commune à
travers une série de dispositifs.

Cet arrêté permet donc aux sinistrés d’être indemnisés plus rapidement par leur assureur qui se réassurent préa-
lablement auprès de la Caisse centrale de réassurance (CCR) 3 .
Il est alors possible de récupérer une base de données publique recensant la totalité des arrêtés CAT NAT en France
depuis la création du régime et d’agréger cette information au niveau de chaque commune.
Ainsi, une commune ayant été très fortement touchée dans le passé par des évènements CAT aura un nombre d’ar-
rêtés élevé.

Ci-dessous, nous pouvons représenter le nombre d’arrêtés CAT NAT dans le Sud-Est, une région qui historique-
ment est fortement sinistrée à cause d’une quantité de précipitation bien supérieure à la moyenne ; la teinte plus
foncée indiquant une plus forte concentration d’arrêtés.

Figure 2.8 – Carte : Nombre d’arrétés CAT NAT dans la région Sud-Est

Densité de population
Des études scientifiques liées à la modélisation du risque inondation 4 suggèrent que la densité de population peut être
un facteur explicatif puisque les zones fortement urbanisées (et donc densément peuplée) présentent des résistances
artificielles à l’inondation liées à la construction des nombreux bâtiments ou même à la construction de défenses
(barrage par exemple) pour protéger les habitants plus efficacement contre le risque de débordements des fleuves.
De plus, les habitants des grandes agglomérations bénéficient de politiques de prévention mises en place par l’admi-
nistration publiques permettant de prévenir les habitants en cas de fortes crues.

Au contraire, les zones rurales sont a priori plus vulnérables.


Ainsi, cela suppose qu’un bien assuré en dehors d’une agglomération a plus de chance d’être inondé qu’un bien situé
en pleine agglomération.
De plus, ces publications soutiennent le fait qu’en termes de sévérité, le même phénomène est observé avec une
tendance globalement décroissante en fonction de l’augmentation de la densité de population.

L’INSEE met à disposition une base publique permettant d’obtenir la densité de population en nombre d’habi-
tants par km2 à l’échelle de chaque commune.
3. Le régime CAT NAT français est plus largement abordé dans la section 3
4. GRAIE - Comparative evaluation of the main factors that contribute to flood risk in urban drainage areas

22
Figure 2.9 – Carte : Densité en nombre d’habitants par km2

Distance au cours d’eau le plus proche


A partir de la localisation des biens assurés et des sites sinistrés, nous avons pu obtenir la distance séparant le sinistre
de la plus proche rivière. Les cours d’eau considérés pour ce calcul sont ceux contenus dans l’agrégation des cartes
Carthage 1, 2 et 3 présentés dans la partie sur le module Aléa d’AXA Global P&C.
Nous faisons alors la supposition alors qu’un bien assuré proche d’un cours d’eau aura tendance a être plus facilement
inondé en cas de débordement. Ci-dessous, nous pouvons alors représenter le réseau de rivières utilisé :

Figure 2.10 – Carte : Réseau de rivières Carthage

23
2.1.3 Approche pour la modélisation
Pour la construction du module de vulnérabilité, nous adoptons une approche décomposée en deux étapes reprenant
une décomposition actuarielle classique :

Détermination du taux de destruction :


Sachant que le site déclare un sinistre, à combien s’évaluera son taux de destruction ?
Pour le secteur Résidentiel, nous disposons de suffisamment de données pour une estimation statistique robuste. Pour
les branches Commerciale et Industrielle, nous utilisons principalement des approches par dires d’experts que nous
combinons avec notre propre historique de sinistralité.
Pour la branche Immeuble, nous déterminons les paramètres par simple calcul statistique.
Enfin pour la branche Collectivité, nous n’adoptons par une approche par taux de destruction mais par une approche
forfaitaire c’est à dire un coût moyen fixe multiplié par le nombre de sites dans les zones à risques.
Nous proposons donc pour chacune de ces branches d’activité, une estimation des taux de destruction pour des polices
qu’elle soit à l’intérieur de l’empreinte inondations, dans la première zone complémentaire, dans la deuxième zone
complémentaire ou dans aucunes zones citées (Hors-zone).

Nous confortons notre intuition en mettant en avant le fait que les coûts moyens et les taux de destruction dé-
croissent bien en fonction de la zone de risque du bien assuré.
Nous finissons cette section, par rappeler que des études récentes ont montré que ces paramètres de vulnérabilité
contiennent de fortes incertitudes en raison du fait que la hauteur d’eau and les caractéristiques du bâtiment n’ex-
pliquent qu’une partie de la variance des données 5 . Cette constatation est justifiée par la mise en évidence d’un
comportement globalement différent en termes de sévérité en fonction de l’évènement considéré même à iso-valeur
d’aléa (en l’occurrence à même hauteur d’eau donné) à un iso-caractéristique.
Pour tenir compte de la volatilité inter-évènement on se propose de calibrer un coefficient COV (Coefficient of
Variation ) suivant une loi log-normale centrée en 1 et d’écart type estimé sur la base sinistre permettant d’appliquer
alors un choc sur les taux de destruction estimés.
Ainsi, pour chaque catégories de vulnérabilité, nous ne récupérons pas une unique valeur de taux de destruction mais
une distribution de valeurs possibles.

Détermination de la Chance of Loss :


Connaissant la localisation et les caractéristiques du bien, quelle est la probabilité de déclarer un sinistre sachant
qu’il est dans une empreinte inondation ?
Nous commençons d’abord par calibrer ces paramètres pour les sites à l’intérieur de l’empreinte et ceci pour l’en-
semble des branches d’activité. Pour des raisons techniques exposées dans la suite, nous ne pouvons pas proposer un
modèle statistique de fréquence, nous considérons dans la suite que les seuls facteurs influençant la probabilité de
sinistre sont la branche d’activité, la hauteur d’eau de la cellule inondée et l’appartenance à l’une des zones de risque.
La Chance of Loss est par ailleurs calibrée sur l’évènement de la Crue du Rhône de 2003 adoptant ainsi une approche
particulièrement conservative.
En mettant en évidence qu’un nombre important de sinistres ont lie en dehors d l’empreinte de l’inondation, nous
étendons comme pour le taux de destruction ces paramètres aux 2 zones complémentaires et au hors-zone en mon-
trant que la fréquence de sinistre varie fortement entre ces zones de risques.

Figure 2.11 – Processus de calibration

5. Mertz 2004 - Flood damage and influencing factors : new insights from the August 2002 flood in Germany

24
2.2 Modélisation du taux de destruction
2.2.1 Les modèles linéaires généralisés : Théorie et Applications
Les GLM ont fait leur apparition dans Nelder et Wedderburn [1972]. Ils sont adaptés à de nombreuses probléma-
tiques et sont d’utilisation courante dans le domaine de la statistique et de l’Actuariat (cf. Denuit et Charpentier
[2005]). La théorie des GLM bénéficie d’un avantage par rapport aux modèles linéaires classiques : le caractère nor-
mal de la variable à expliquer Y n’est plus imposé, seule l’appartenance à une famille exponentielle est indispensable.

Dans le contexte d’un modèle GLM, on considère que pour une variable aléatoire Y , qui correspond à la variable à
expliquer, il existe une relation de la forme suivante :
p
X
g (E [Y |x1 , ..., xp ]) = βk x k
k=1

entre p variables explicatives Xi (i = 1, ..., p) et l’espérance conditionnelle de la variable à expliquer.


La fonction g (strictement monotone et dérivable) est appelée fonction de lien du modèle.
Elle détermine la relation entre les prédicteurs linéaires et l’espérance de la variable expliquée.
Ci-dessous, nous dressons une liste non exhaustive des fonctions de lien les plus usuelles :

Figure 2.12 – Fonctions de lien usuelles

Un choix classique consiste à choisir la fonction de lien g(u) = ln(u) qui conduit au modèle multiplicatif suivant :
p
!
X
E [Y |x] = exp βk xk = exp (βx)
k=1

Il reste à spécifier la loi de la variable Y. On retient une famille dite exponentielle, pour laquelle la densité s’écrit :
 
yθ − b (θ)
fθ,φ (y) = exp + c (y, φ)
φ

avec les conditions suivantes :


— b est une fonction définie sur R deux fois dérivable et de dérivée première injective.
— c est une fonction définie sur R2 .

25
La famille de lois exponentielles recouvre un grand nombre de distributions classiques que nous utiliserons pour la
suite. Nous avons des relations entre les paramètres qui sont valables pour toutes les lois :
Une relation sur l’espérance de la variable à expliquer :

E [Y ] = b0 (θ)

Une relation sur la variance de la variable à expliquer :

V [Y ] = b00 (θ) φ = b00 b0−1 (E [Y ]) φ = u (E [Y ])




Ci-dessous, nous retrouvons l’exemple de deux lois de la famille exponentielle que l’on sera amené à utiliser par
la suite :

Figure 2.13 – Tableau : Loi de poisson

Figure 2.14 – Tableau : Loi Gamma

Figure 2.15 – Deux exemples de lois de la famille exponentielle

Notons une particularité de la loi de Poisson qui sera plus amplement étudiée par la suite : nous avons, en théorie,
une variance égale à l’espérance de la variable à expliquer.
Cette condition, peu représentative de la réalité, dans la grande majorité des cas est à l’origine de la construction de
lois dites de quasi-Poisson qui tiennent compte d’une différence entre la variance et l’espérance.

Traitement du phénomène d’exposition du risque et variable offset

Dans le cadre d’une régression pour expliquer un nombre de sinistres N avec un modèle poissonnien et une fonction
de lien logarithme, on a :
p
!
X
E [N |x] = exp βk xk = exp (βx)
k=1

Si on veut tenir compte de l’exposition au risque d, on sait que l’espérance λ de la loi de Poisson devient λd. La
régression se réécrit alors :
p
!
X
E [N |x, d] = d ∗ exp βk xk = exp (βx + ln(d))
k=1

Tout se passe donc comme si l’on ajoutait une variable explicative pour laquelle le coefficient β est connu (ici égal
à 1) et ne doit donc pas être estimé. La variable ln(d) s’appelle une variable offset.

26
Validation d’un modèle GLM

Plusieurs techniques sont utilisées pour valider un modèle GLM. Outre les méthodes classiques d’analyse, nous
introduisons ici la notion de déviance utilisée pour mesurer la qualité de l’ajustement d’un modèle.
Elle est notée D et est calculée de la façon suivante :

D = −2 × [lnL (Bk ) − lnL (B0 )]

avec L la vraisemblance du modèle.


D est positif et "petit" pour un modèle de bonne qualité. Cette statistique suit asymptotiquement, du fait de résultats
généraux sur les rapports de vraisemblance, une loi du Khi-2 à n − p − 1 degrés de liberté.
Notons que la déviance joue un rôle similaire à celui de la somme des carrés des résidus ; en fait, dans le cas particulier
d’une distribution normale, la déviance est la somme des carrés des résidus.

Cet indicateur global est en pratique complété par une analyse observation par observation ; cette analyse se base
souvent sur l’analyse des résidus.
Nous introduisons ici deux types de résidus : les résidus de Pearson et les résidus de Déviance

Residus de Pearson :
√ yi − µi
ri = ωi p
V (µi )
avec ωi le poids de l’observation (ici son exposition).

Residus de Déviance : p
ri = (yi − µi ) di
avec  qui est le signe de la différence entre yi − µi et di la déviance de l’observation.

On peut noter que la somme des carrés des résidus est dans les deux cas, asymptotiquement, un Khi-2 à n − p − 1
degrés de liberté.

Figure 2.16 – Graphique : Exemples de résidus

Phénomène de sur-dispersion

Très souvent, lors de l’étape de modélisation, certaines hypothèses fondamentales ne sont pas respectées.
Citons, par exemple une hypothèse très forte des modèles de Poisson qui dans la théorie, supposent que la variable
à expliquer a une variance égale à son espérance. Les premiers résultats de nos modèles peuvent révéler la présence
d’un phénomène dit de sur-dispersion.

Nous parlons de sur-dispersion, lorsque la variance de la réponse Y (variable à expliquer) est supérieur à son
espérance mathématique E [Y ].

27
Mathématiquement, cela se traduit par :
V(Y) = φ · E(Y)
avec φ>1, où φ est appelé paramètre de dispersion.
La correction de la sur-dispersion se réalise en estimant φ par le rapport du Chi-deux de Pearson sur les degrés
de liberté.
Les écarts-types des estimations des paramètres du modèle sont alors multipliés par φ-estimé et les chi-deux des
statistiques sont divisés par φ-estimé.

La non-prise en compte de la sur-dispersion est une erreur assez classique, qui n’entraîne aucune modification sur
l’estimation des paramètres mais entraîne un biais trop "optimiste" sur la significativité des paramètres du modèle.

Sélection de modèle

Dans la littérature, nous trouvons de nombreux indicateurs permettant d’évaluer la « pertinence » d’un modèle.
Ci-dessous, nous présentons la courbe de Lorenz et l’indice de Gini lui étant associé qui se révèlent être des indicateurs
particulièrement populaires.
Cependant, la courbe de Lorenz n’a pas été introduite dans un contexte d’évaluation d’un modèle statistique mais à
travers différentes études économiques visant à mesurer l’inégalité de richesse dans une population donnée.

Pour conceptualiser cette approche, notons :


x1 , ..., xi , ..., xn
les revenus des n individus de la population étudiée. On note également :

x(1) , ..., x(i) , ..., x(n)

la statistique d’ordre, c’est-à-dire la série de revenus triés par ordre croissant. Notons maintenant qi la proportion de
revenus par rapport au revenu total qu’ont gagné les i individus ayant les plus bas revenus, ce qui s’écrit :
Pi
j=1 x(j)
qi = Pn avec q0 = 0 et qn = 1
j=1 x(j)

La courbe de Lorenz est la représentation graphique de la fonction qui à la part des individus les moins riches associe
la part du revenu total qu’ils perçoivent.
Plus précisément, la courbe de Lorenz relie les points (i/n, qi ) pour i = 1, ..., n.
En d’autres termes, en abscisse, nous avons donc une proportion d’individus classés par ordre de revenu, et en
ordonnée la proportion du revenu total reçu par ces individus.

Figure 2.17 – Graphique : Courbe de Lorenz

28
L’indice de Gini, noté G est égal à deux fois la surface comprise entre la courbe de Lorenz et la diagonale.
Il est possible de montrer que :
1 Pn Pn
|xi − xj |
n(n − 1) i=1 j=1
G=
2x̄
En utilisant la statistique d’ordre x(1) , ..., x(i) , ..., x(n) , l’indice de Gini peut également s’écrire :
 Pn 
1 2 i=1 ix(i)
G= − (n + 1)
n−1 nx̄

L’indice de Gini est compris entre 0 et 1 ; s’il est proche de 0, tous les revenus sont égaux. S’il est proche de 1, les
revenus sont très inégaux.

L’analogie pour un contexte d’évaluation et de sélection de modèle statistique se fait en considérant que les in-
dividus sont les sites assurés et que les revenus sont la charge sinistre modélisée du site considéré.
Pour des besoins évidents de segmentation, nous cherchons un modèle qui proposera une charge sinistre modélisée
la plus segmentée possible c’est-à-dire la plus forte possible pour les sites particulièrement à risque et la plus faible
pour les sites peu vulnérables.

De plus, il est usuel de se référer au calcul de l’indice de Gini normalisé correspondant à :

G̃modèle
G̃ =
G̃empirique

Ainsi, nous cherchons à construire un modèle avec une valeur d’indice de Gini élevée, révélateur d’une forte segmen-
tation de la charge modélisée mais dont la dispersion doit être proche de celle des données sinistres correspondant
alors à un indice de Gini normalisé proche de 1.

Pour information, le lecteur intéressé pourra retenir que les indices de Gini dans un contexte de risque CAT sont très
forts et proches de 1 en raison de la très forte variabilité des pertes CAT tandis que dans le secteur non-vie classique,
ils sont plutôt aux alentours de 0.4 ou 0.5 pour les risques les plus volatils.

Enfin, il est important de noter que malgré la popularité de l’indice de Gini dans un contexte de sélection de
modèle, celui-ci n’évalue absolument pas l’ajustement du modèle vis-à-vis des données empiriques : il n’est qu’une
mesure de dispersion.
Il conviendra donc dans la suite de calculer des indicateurs statistiques plus classiques comme la RMSE, la MAE ou
la MAPE pour avoir une vision plus juste de l’ajustement du modèle sur les données.

29
2.2.2 Gradient Boosting : Théorie et Applications
L’idée à la base des méthodes de boosting est de combiner plusieurs classifieurs à faible pouvoir prédictif afin de
former un outil ayant un pouvoir explicatif plus important.
Les méthodes dites de Gradient Boosting consistent à appliquer successivement un algorithme de régression simple
sur les résidus d’une régression, et de répliquer ce processus un nombre important de fois.

Chaque estimateur est sélectionné de sorte à minimiser le gradient L de l’estimateur G tel que :
N
X
L (G) = L (yi , G (xi ))
i=1

où G (xi ) représente ici l’estimateur de l’individu yi . Ainsi, l’estimateur Ĝ sélectionné est celui qui minimise le gra-
dient de la fonction.

Nous pouvons représenter le schéma de l’étape de base à l’étape m par la formule suivante :

Ŷ = Gm−1 (x) + u

Nous appliquons notre classifieur faible Rx au résidu u ,tel que û = Rx (u). Il correspond à la fonction minimisant le
gradient de u, avec um le résidu de cette régression, de la manière suivante :

Ŷ = Gm−1 (x) + û + um

Nous posons Gm (x) = Gm−1 (x) + û ce qui donne, à la fin de l’étape m, une régression de la forme suivante :

Ŷ = Gm (x) + um

Gm (x) représente la régression à la fin de l’étape m de notre méthode de boosting. Nous réitérons ce processus un
nombre fini de fois préalablement choisi.

En particulier, nous parlons de Gradient Boosting Tree quand l’estimateur est un arbre de décision.
Pour déterminer quand arrêter ce processus, une méthode classique est de tester à la fin de chaque étape le modèle
régression sur un échantillon test afin de déterminer quand le sur-apprentissage a lieu et donc quand arrêter le pro-
cessus.
Une autre méthode consiste à appliquer à chaque étape la régression à un échantillon tiré aléatoirement parmi
nos données auxquelles nous avons appliquées un facteur aléatoire. Cette méthode est appelée Gradient Boosting
Stochastique.

30
2.2.3 Le secteur Résidentiel
Pour le secteur Résidentiel, nous avons suffisamment de données pour procéder à une modélisation.
L’approche retenue consiste à construire un GBM (gradient boosting tree) pour extraire parmi l’ensemble des variables
explicatives les variables les plus influentes puis lancer par la suite un GLM (Generalized Linear Model ) pour obtenir
un modèle simple et interprétable.

Une grande majorité des variables étant continues, la question de la discrétisation est absolument primordiale.
Dans la suite, nous considérons deux méthodes pour discrétiser les variables :
— La première basée sur l’influence relative de la variable après avoir construit un GBM.
— La deuxième basée sur l’utilisation de modèles GAM qui, en relâchant la contrainte de linéarité sur les variables
explicatives permet de détecter des possibles liaisons non-linéaires.

Nous proposons un modèle de prédiction du taux de destruction pour les sinistres ayant lieu à l’intérieur de l’empreinte
(Modèle 1) et un modèle pour les sinistres ayant lieu dans les zones complémentaires et dans le Hors-Zone. (Modèle
2).
Nous choisissons de distinguer ces deux types de sinistres en considérant que les sinistres ne sont pas
fondamentalement du même type.

Etape 1 : Construction d’un modèle GBM


Suite à une étape de calibration des différents hyper-paramètres du GBM par construction d’une grille fictive et
maximisation des critères d’ajustement classiques, nous pouvons représenter sur un même graphique l’apport de
chacune des variables explicatives sur l’explication des taux de destruction observés.

Figure 2.18 – GBM

Nous constatons que certaines variables se démarquent particulièrement des autres par leur influence importante sur
la modélisation.
Trois grands types de variables explicatives sont disponibles dans notre base de sinistres :
— Les variables « internes » au contrat.
— Les variables liées au phénomène d’inondation.
— Les variables externes ou géographiques.

31
Figure 2.19 – Graphique : Influence marginale des variables internes

Interprétation :

QUAL : Nous constatons que la variable QUAL (qualité de l’assuré) est conforme à nos intuitions puisque le taux de
destruction est deux fois plus élevé pour un contrat où l’assuré est locataire plutôt que propriétaire.
Une explication de ce phénomène vient du fait qu’un locataire assure principalement du contenu aux inondations qui
est beaucoup plus vulnérable que pour un propriétaire qui assure une partie du bâtiment en plus.

ETAGE : L’information Étage est une information capitale malgré le fait qu’elle ressorte peu dans l’influence relative
des variables. Encore une fois, intuitivement, il parait tout à fait cohérent qu’un appartement semble moins vulnérable
qu’une maison ou un appartement au rez-de-chaussée puisque celui-ci se trouve en hauteur.
Les principaux dégâts seront plus liés à des phénomènes d’infiltration de l’eau qu’à une réelle submersion de son
contenu considérée à juste titre plus coûteuse.
De plus, la majorité des sinistres liés aux phénomènes d’inondations touchant les appartements en étage sont liés à
un dégât des eaux inondant le balcon de l’assuré ou encore à des inondations de caves qui rentrent des fois dans la
garantie habitation de l’assuré.
Le taux de destruction associé au appartement en rez-de-chaussé est très élevé mais le peu d’exposition que nous
avons pour cette catégorie nous oblige à raisonner avec prudence.

NB_PIECES : Le nombre de pièces a un comportement très irrégulier, nous constatons cependant que pour les
habitations avec un fort nombre de pièces, le taux de destruction semble décroître. Ce n’est pas étonnant car la
somme assurée est étroitement liée aux nombres de pièces de l’habitation.
Ainsi pour un contrat avec un nombre important de pièces, la somme assuré sera d’autant plus élevée faisant alors
mécaniquement baisser le taux de destruction. Il semble donc difficile de justifier l’utilisation de cette variable dans
la suite.

32
Figure 2.20 – Graphique : Influence marginale des variables inondations

Interprétation :

Duration : La durée de l’évènement inondation a un comportement irrégulier, nous nous attendions à une augmenta-
tion du taux de destruction en fonction de la durée de l’évènement mais cette situation est difficilement perceptible.
Il est important de rappeler que nous travaillons ici sur des pertes directes et que la relation entre perte directes et
durée de l’inondation est moins perceptible qu’avec les pertes indirectes.

Vals : Le taux de destruction ne semble pas être corrélé avec la hauteur d’eau ce qui peut être contre-intuitif.
Cependant, les hauteurs sont des hauteurs d’eau simulées à partir du modèle de propagation d’AXA Global P&C
puisque les hauteurs réelles sont très difficiles à récupérer.
Ainsi, nous n’estimons pas qu’il n’y a aucune relation entre hauteur d’eau et perte directe en Résidentiel mais
cependant celle-ci ne nous semble pas suffisamment fiable et cohérente pour l’intégrer dans nos modèles.

33
Figure 2.21 – Graphique : Influence marginale des variables externes

Interprétation :

isSOUTH : La variable isSOUTH est une variable binaire prenant la valeur 1 quand le contrat est localisé dans
un département situé dans la liste suivante :
— 07
— 48
— 30
— 34
— 66
— 11
— 13
— 83
— 06
Cette variable a été construite à partir du constat qu’un nombre important de sinistres était localisée dans le sud et
que la charge y était plus importante. Bien que cette variable semble avoir un effet segmentant important, il nous
semble difficile à justifier d’effectuer une segmentation a priori aussi forte.

NB_ARRETE : Cette variable donne le nombre d’arrêtés CAT NAT décrétés par commune depuis plus de 40
années. Nous constatons une tendance clairement à la hausse.
Toutefois, intuitivement nous pouvions aussi nous attendre à observer l’effet inverse puisque des communes souvent
touchées auraient pu mettre en place des politiques de prévention ou des défenses physiques.

era_q990 : Cette variable donne le quantile de précipitation à 99% sur un historique de 40 ans et nous consta-
tons qu’il y a une tendance à la hausse mettant en avant le rôle de la précipitation ou du débit de la pluie dans
l’intensité de la destruction des biens. Une analyse de corrélation met en évidence la forte corrélation entre cette
variable et la variable isSOUTH définie précédemment. Nous lui préférons donc cette variable reposant sur des ob-
servations plus objectives qu’un jugement a priori.

Density : Plus la densité est importante plus le taux de destruction diminue. Ce n’est pas flagrant sur le gra-
phique mais après retraitement de la variable, nous obtenons une tendance clairement baissière mettant en évidence
les propres tenus dans la sous-section précédente.

De nombreuses autres variables ont été testés mais ne fournissent pas un caractère prédictif suffisamment fort comme :
— Le taux d’urbanisation qui s’avère fortement corrélé à la densité de population.
— La nature des sols qui peut avoir une incidence sur la perméabilité du sol et donc sur le risque inondation
mais qui n’apparaît pas comme significative dans notre étude.
— La richesse de la population et de manière générale toute information socio-économique dans la zone considérée.

34
Étape 2 : Découpage optimal des variables continues
Dans cette section, nous nous proposons d’expérimenter une technique pour l’intégration de variables continues dans
nos modèles statistiques.
La question de la transformation des variables continues (ou quantitatives) en variables qualitatives est souvent,
à tort, considérée comme une problématique mineure et la création des différentes modalités est souvent réalisée
en proposant seulement des regroupements avec un nombre suffisant d’observations sans tenir compte de la réelle
influence de ce découpage sur la vraisemblance des modèles et sans justification théorique.

Dans le cadre de ce mémoire, nous proposons une approche duale :


— Avec les influences relatives du GBM, nous détectons des zones de stabilités visuellement.
— Avec un modèle GAM, pour generalized additive model, en mettant en avant les seuils de non-linéarité.

Dans la suite, nous nous proposons d’étudier avec plus de précisions le deuxième point.
Ainsi, nous nous proposons d’adopter une démarche plus rigoureuse qui repose sur l’utilisation de modèles additifs
généralisés (GAM ). Cette démarche sera appliquée sur l’ensemble des variables continues de notre modélisation.
Afin de regrouper en modalités les différentes valeurs de ces variables, le modèle additif teste tout d’abord l’hypothèse
de non-linéarité de la relation avec la fréquence de sinistres.
Après avoir mis en évidence cette non-linéarité (qui motive donc à partitionner la variable en classes), nous pouvons
quantifier la contribution marginale de cette variable sur la variable cible et ainsi détecter des tendances haussières
ou au contraire à la baisse.
Dans ce qui suit, nous donnons un bref rappel théorique des modèles GAM qui s’apparentent sur de nombreux points
aux modèles GLM.
Cependant, l’idée des modèles additifs est de relâcher l’hypothèse de linéarité du prédicteur que l’on impose dans un
GLM :
p
X
g (E [Y |x1 , ..., xp ]] = βk x k
k=1

en supposant la forme plus générale :


p
X
g (E [Y |x1 , ..., xp ]] = fk (xk )
k=1

L’estimation des fonctions associées aux variables explicatives est effectuée par des méthodes semi-paramétriques de
lissage (splines pénalisés par exemple). Nous allons utiliser les modèles GAM pour définir le découpage en classes
d’une variable continue dont l’effet est non-linéaire.

Dans ce qui suit, nous prenons l’exemple du nombre d’arrêtés CAT NAT. Pour la modélisation, nous reviendrons
quelque peu sur ce découpage pour regrouper des modalités qui seraient faiblement représentées.
Tout d’abord, nous pouvons représenter la moyenne du taux de destruction empirique en fonction du nombre d’arrêtés
CAT NAT.

Figure 2.22 – Graphique : Taux de destruction empirique

35
Nous savons que le nombre d’arrêtés CAT NAT est un critère explicatif fort. Ici, nous observons son influence sur la
sinistralité.
Malgré une tendance globale à la hausse (ce qui semble cohérent), il existe certains pics qui contribuent à augmenter
la volatilité de la variable (surtout vers la queue de la courbe).
Ceci ne nous permet pas une interprétation aisée des niveaux de risques des différentes modalités.

Catégorisation de la variable

Pour tester l’hypothèse de non linéarité de la relation avec le taux de destruction, nous voulons estimer la part
due au nombre d’arrêtés CAT NAT sur la variable réponse.
Ainsi, construisons le modèle GAM suivant :

log(E [Y ]) = α0 + f (N ombreCATi )

ou Y représente le taux de destruction et est supposée suivre une loi Gamma.

Notons que la structure additive du modèle GAM permet cette démarche d’estimation individuelle. L’inclusion
d’autres variables explicatives dans le modèle ne changerait pas la forme de la relation estimée ici.

La procédure GAM sépare l’influence linéaire du nombre d’arrêtés CAT de son influence non-linéaire.
Nous acceptons l’hypothèse que l’influence du nombre d’arrêtés CAT sur le taux de destruction comporte une partie
linéaire et une partie non-linéaire toutes deux significatives en analysant les sorties de la procédure GAM.
Ainsi, nous obtenons un modèle de la forme :

log (E [Y ]) = αˆ0 + β̂N ombreCAT ∗ N̂ ombreCATi + fˆN ombreCAT (N ombreCATi )

avec f un spline de lissage cubique.

Nous pouvons par ailleurs représenter le graphe de la contribution non-linéaire de la variable :

Figure 2.23 – Graphique :Partie non-linéaire

Graphe de l’influence partielle de la variable

Le modèle que nous avons présenté précédemment estime le taux de destruction à l’aide uniquement du nombre
d’arrêtés CAT NAT et les résultats sont particulièrement mauvais ce qui est tout à fait normal.
Ce qui nous intéresse avant tout dans cette démarche est d’observer l’influence de la variable sur le taux de destruc-
tion.

36
Ainsi, nous ne tenons pas compte des valeurs estimées.
Nous allons tout d’abord extraire la partie marginale correspondant à la variable :

β̂N ombreCAT ∗ N̂ ombreCATi + fˆN ombreCAT (N ombreCATi )

Nous pouvons ensuite quantifier la part du taux de destruction due uniquement à la variable par la formule :
 
Taux de Destruction = exp β̂N ombreCAT ∗ N̂ ombreCATi + fˆN ombreCAT (N ombreCATi )

En sortie de la procédure GAM, nous obtenons aussi les intervalles de confiance à 95% du taux de destruction estimé.

Figure 2.24 – Graphique : Taux de destruction dû au nombre d’arrêtés CAT NAT

Choix des classes

A partir des intervalles de confiance de l’estimation, nous pouvons définir des niveaux de risques.
Nous tenons à ce que les classes créées soient toutes disjointes et le nombre d’individus dans chaque classe soit suffi-
sant. Ceci nous permet de catégoriser la variable en mettant ensemble des valeurs de niveaux de risque proche.

Pour le nombre d’arrêtés CAT NAT, nous avons opté pour une segmentation en 6 classes, qui ne contiennent bien
évidemment pas le même nombre de risques.
Des regroupements entre des modalités avec trop peu d’observations seront effectués lors de la modélisation.

37
Étape 3 : Construction du modèle GLM
Enfin, après l’étape de sélection des variables et de découpage des variables continues, nous pouvons procéder à la
construction du GLM final.
Pour des raisons de confidentialité, nous ne précisons pas la liste des variables conservées dans le modèle final et ne
représentons pas l’ensemble des coefficients estimés. Ci-dessous, nous pouvons cependant représenter à titre d’exemple
un aperçu des estimations des coefficients pour les variables QUAL et ETAGE.

Figure 2.25 – Graphique : Modèle 1 - Représentation du GLM et de ses relativités

Nous avons un niveau de base égal à 10,99% ; c’est la valeur du taux de destruction pour les modalités de référence.
Nous retrouvons par exemple pour ces variables les mêmes relativités que pour le GBM.
Un coefficient de 198,1% pour la modalité L (assuré Loctaire) de la variable QUAL signifie « que toute chose égale
par ailleurs », un locataire devra s’attendre à un taux de destruction quasiment deux fois plus fort que si c’était un
propriétaire.
De même, pour la variable ETAGE, le coefficient de la modalité R (rez-de-Chaussée) est fort et conforte ce que
nous avions vu pour le modèle GBM. Les histogrammes en jaune représentent l’exposition dans la base sinistre des
modalités considérées permettant ainsi d’évaluer la pertinence de ces estimations.

Figure 2.26 – Graphique : Modèle 1 - Courbe de Lorenz du GBM et du GLM

38
Enfin, nous pouvons représenter les courbes de Lorenz pour le modèle GBM et le modèle GLM final après retraite-
ment.
Nous constatons que les deux courbes sont très proches ce qui veut dire que nous arrivons avec les multiples retraite-
ments sur les variables à construire un GLM avec une segmentation quasiment équivalente à celle d’un GBM. Étant
donné que l’indice de Gini des données sinistres est très proche de 1, nous nous contentons d’utiliser la valeur de
l’indice de Gini usuel pour conclure sur la pertinence du modèle.

De plus, les critères d’ajustement statistiques classiques mettent en évidence que le modèle semble coller correc-
tement aux données réelles.

Étape 4 : Construction du Modèle 2 : sinistres dans les zones complémentaires et dans le Hors-Zone
Pour la modélisation du taux de destruction pour les zones de risques complémentaires et le hors-zone, nous adoptons
exactement le même processus, c’est pourquoi nous n’affichons ici qu’un aperçu des estimations des coefficients.

Figure 2.27 – Graphique : Modèle 2 - Représentation du GLM et de ses relativités

Nous remarquons que les relativités pour la variable QUAL sont encore plus marquées que pour le modèle 1 ce qui
confirme et conforte notre décision de construire deux modèles différents en fonction des zones de risque.
De plus, suite à des tests sur de nombreux modèles, nous avons choisi de fusionner les deux zones de risque complé-
mentaire et de ne considérer que la présence ou l’absence dans la zone comme variable explicative binaire (variable
GEO).
De plus, le taux de base est plus faible (deux fois moins) que pour le modèle 1.

39
2.2.4 Le secteur Industriel
Pour le risque industriel, ne disposant que de peu de sinistres, nous déterminons les taux de destruction par une
approche dite de jugements d’experts reposant sur des études scientifiques ou des simulations menées par AXA
Matrix.
Par ailleurs, une segmentation a priori des biens industriels avait déjà été effectué par Axa Corporate Solutions en
trois grands groupes :

Classe de risques Vulnérabilité


Classe 1 Forte vulnérabilité
Classe 2 Vulnérabilité Moyenne
Classe 3 Faible Vulnérabilité

Table 2.3 – Tableau : Échelles de vulnérabilité pour le risque industriel

Ainsi dans la classe 1, nous trouvons des sites industriels chimiques ou des sites de haute technologie qui sont a priori
très vulnérables à des inondations pouvant avoir une influence particulièrement grave.
Dans la classe 3, nous trouvons des sites d’industrie lourde présentant un risque plus faible.

Aussi, pour la branche industrielle, nous proposons des paramètres de vulnérabilité pour les trois garanties
séparément contrairement au risque Résidentiel :
— Pour la garantie Bâtiment, nous utilisons une moyenne constatée sur la base sinistre.
— Pour la garantie Contenu, nous nous appuyons sur des courbes de vulnérabilité fournie par AXA Matrix.
— Pour la garantie Perte d’exploitation, nous proposons une approche consistant à considérer que le principal
facteur est la durée de l’inondation.

La Garantie Bâtiment
Pour la garantie Building, nous faisons le choix de fixer des taux de destruction égaux à la moyenne observée sur
nos base sinistres et ceci pour les 4 zones de risques complémentaires définies préalablement :

Figure 2.28 – Figure : Taux de destruction Building pour les 4 zones de risque

Interprétation :
La garantie Building couvrant l’ensemble des bâtiments, nous avons des taux de destruction faibles mais nous notons
encore une fois la diminution de ce paramètre en fonction des zones de risques mettant à nouveau en lumière l’intérêt
de ce découpage géographique.

40
La Garantie Contenu
Une étude précédente menée conjointement par AXA Matrix et AXA Global P&C a permis la construction d’une
courbe de vulnérabilité de la garantie Contenu pour la branche d’activité industrielle par classe de risque du bien
assuré.
Nous représentons ici la courbe de vulnérabilité déterminé pour la classe de risque 1 qui pour rappel représente les
sites industriels les plus risqués :

Figure 2.29 – Graphique : Courbe de vulnérabilité Contents - Classe 1

Cependant, nous souhaitons mettre en avant le fait que dans certaines situations mises en évidence par un nombre
important d’études 6 , nous pouvons avoir une perte totale des biens assurés c’est-à-dire un taux de destruction égale
à 1.
Pour cela, au lieu de considérer un taux de destruction déterministe, nous faisons le choix de modéliser notre taux
de destruction par une loi Beta inflatée en 1 et ceci pour chacun des intervalles d’hauteurs d’eau.

Soit X0 une variable aléatoire une loi Beta classique définie par deux paramètres α et β dont la densité peut
s’écrire par :
1
f (x, α, β) = xα−1 (1 − x)
β−1
1[0,1] (x)
B (α, β)
Soit F0 la fonction de répartition de la variable X0 . Nous pouvons définir la fonction de répartition de la variable
X1 inflatée en 1 par :
F1 (x) = (1 − p1 ) F0 (x) + p1 1[1,+∞] (x)
où p1 représente la probabilité de destruction totale.
La densité de la variable X1 devrait être considéré sous la mesure µ (x) = λ (x) + δ1 (x) :
1x6=1 1x6=1
f1 (x) = p11 x=1 (1 − p1 ) f0 (x)

De plus, l’espérance de la variable X1 vaut :


a
E (X1 ) = p1 + (1 − p1 )
a+b
6. Swiss-Re - Builder’s Risk : Limits for CAT peril insurance

41
Figure 2.30 – Taux de destruction pour le contenu de la branche industriel

Ainsi, pour un bien assuré industriel sinistré appartenant à la catégorie de risque 1 et inondé par une hauteur d’eau
égale à 2.5 mètres, nous tirons aléatoirement son taux de destruction pour la garantie Contenu à partir d’une loi
Beta inflatée en 1 de moyenne de taux de destruction 24% et avec une probabilité de 19% de destruction totale.
Pour les biens appartenant à la catégorie 2 et 3, la même distorsion est appliquée sur les courbes de vulnérabilité
fournie par AXA Matrix permettant ainsi d’inclure de la volatilité dans les taux de destruction déterministes fournis.

Pour les taux de destruction dans les trois autres zones, nous utilisons les mêmes relativités que pour la garan-
tie Bâtiment que nous appliquons sur les moyennes de taux de destruction puisque nous n’avons pas d’informations
sur les hauteurs d’eau dans les zones complémentaires nous permettant de calibrer des courbes de vulnérabilité.

42
La Garantie Business Interruption
Précédemment, nous avons discuté de la problématique de la modélisation des pertes indirectes lors d’un évènement
inondation.
Pour chacune des 3 classes de risques définies préalablement, nous proposons un taux de destruction τBI de la forme
suivante :
n+
τBI =
N
où :
— n la durée de l’inondation en nombre de jours.
— N le nombre de jours ouvrés dans une année (fixée à 252).
—  un facteur additionnel dépendant de la classe du bien industriel (1, 2 ou 3).

Cependant, la durée d’un évènement n’est pas aussi simple à obtenir pour nos évènements simulés.
En effet, le module Aléa produit une série d’évènements probables avec une empreinte inondation et les hauteurs
d’eau associées à chacune des cellules inondées mais ne donne pas la durée de l’évènement.

L’approche retenue pour déterminer la durée de l’inondation est d’établir une relation polynomiale d’ordre 2 entre
durée d’évènement et volume d’eau (en m3 ) calculé à partir de la connaissance de la hauteur d’eau dans chaque
cellule. Cette relation est de la forme :

Dureei = a ∗ V olume2i + b ∗ V olumei + c

Figure 2.31 – Graphique : Modélisation de la durée de l’évènement en fonction du volume d’eau dans l’empreinte

Le R2 de la modélisation est très bon, permettant ainsi de valider cette approche. Ainsi pour les évènements
historiques, nous avons :

Évènements historiques Durée réelle Durée simulée


Crue du Sud 2002 3 3.2
Crue du Rhône 2003 9 11.4
Crue du Rhône de 2008 7 5.2
Crue du Sud 2011 7 4.6
Crue du Sud 1999 3 3.04

Table 2.4 – Tableau : Backtesting des durées modélisées

Notons que c’est une approche conservatrice puisqu’on utilise la durée de l’inondation totale et non pas la durée de
l’inondation pour chaque cellule.
Enfin, nous faisons le choix de ne considérer un taux de destruction pour la perte d’exploitation et donc une perte
positive seulement pour les sites se trouvant dans l’empreinte de l’inondation.
Les sites étant dans les zones complémentaires ou hors-zone auront donc un taux de destruction pour
la perte d’exploitation égal à 0.

43
2.2.5 Le secteur Commercial
Pour la branche d’activité Commercial, nous reprenons une approche similaire que pour le risque Industriel.
Cependant, ici nous ne disposons pas de courbes de vulnérabilité calibrée à priori par AXA Matrix.
Les taux de destruction pour la garantie B et C sont supposés égales et déterminés à partir des données sinistres :

Figure 2.32 – Graphique : Taux de destruction Garantie B et C combinées

Pour la garantie Business Interruption, le taux de destruction est obtenu de la même façon que pour la branche
d’activité industrielle en modifiant le facteur additionnel .

44
2.2.6 Le secteur Immeuble
Pour la branche d’activité Immeuble, le taux de destruction a été calibré à partir de la base sinistres. Nous ne
choisissons pas de faire une segmentation suivant la garantie couverte et proposant un taux de destruction unique.
Notre seul critère de segmentation est donc la zone de risque du site assuré.

Figure 2.33 – Graphique : Taux de destruction combiné pour Immeuble

Cependant, nous constatons que dans le portefeuille, certaines polices ont une somme assurée particulièrement im-
portante probablement à cause d’une agrégation de site assuré ou à une mauvaise manipulation informatique lors de
la création de la base. Ces sommes assurées élevées conduisent ainsi à des pertes incohérentes et bien trop élevées
après multiplication par le taux de destruction déterminé.
Nous avons décidé de « limiter » les pertes obtenues par le modèle pour éviter d’avoir des charges difficiles à justifier
à un seuil maximal.
Ce seuil correspond au quantile à 99,5% de la distribution des pertes modélisées à partir de notre historique sinistres.
Pour le déterminer, nous avons modélisé les pertes par une loi à queue lourde :

Figure 2.34 – Graphique : Calibration de loi à queue lourde

45
2.2.7 Ajout d’une volatilité
Enfin, après une analyse détaillée de la base, nous avons remarqué une volatilité importante des taux de destruction
suivant l’évènement inondation considéré.
Ci-dessous, un exemple de variabilité des taux de destruction pour la branche résidentielle :

Figure 2.35 – Graphique : Taux de destruction pour chaque évènement

Pour tenir compte de cette variabilité, appelée aussi incertitude secondaire, nous déterminons un event volatility
factor. Ce coefficient suit une loi log-normale centrée en 1 permettant de modéliser l’écart à un comportement moyen.
Dans la littérature, le terme de COV (Coefficient de variation) est souvent utilisé.
Ce coefficient est déterminé pour chaque branche d’activité par :
σ
COV =
µ
où :
— σ est l’écart-type des pertes.
— µ est la moyenne des pertes.
Ce coefficient est calibré pour chacune des branches d’activité du portefeuille d’AXA France.

Figure 2.36 – Graphique : COV pour chaque branche d’activité

Ceci, nous permet alors, au lieu de considérer un taux de destruction unique (hormis le cas de l’industriel en contenu
qui est déjà aléatoire) d’obtenir une distribution de probabilité.

46
Figure 2.37 – Graphique : Distribution log-normale du COV pour le secteur Résidentiel

Ci-dessus, nous avons représenté la distribution du coefficient de variation pour les appartements en Résidentiel.
Nous constatons que cette distribution est très resserrée autour de sa moyenne. Les valeurs que peuvent prendre le
taux de destruction ne seront donc pas très volatils.
Nous pouvons alors calculer la distribution de probabilité du taux de destruction associé à cette catégorie de vulné-
rabilité en tirant aléatoirement une valeur du coefficient de variation un nombre important de fois et en multipliant
le résultat par le taux de destruction déterministe.
Nous pouvons exhiber le résultat toujours pour les appartements Résidentiel ci-dessous :

Figure 2.38 – Graphique : Distribution de probabilité du taux de destruction

47
2.3 Modélisation de la Chance of Loss ou Probabilité de sinistres(draft)
Suite à l’analyse statistique réalisée pour la détermination des taux de destruction, nous avons pu quantifier la perte
économique d’une inondation sur des polices sinistrées mais il parait évident que l’ensemble des polices se trouvant
dans l’empreinte de l’inondation ou dans les zones de risques ne déclarent pas de sinistres.
Pour tenir compte de cette situation, nous nous proposons d’estimer une probabilité de sinistre (Chance of Loss )
qui correspond à la probabilité qu’un site donné déclare un sinistre.

Figure 2.39 – Schéma : Le Concept de COL

Plusieurs paramètres peuvent expliquer que le sinistre n’ait pas eu lieu dans l’empreinte :
— L’étage de la police : un site surélevé comme un appartement déclare beaucoup moins de sinistres qu’un site
au rez-de-chaussée.
— Temps d’alerte : dans certaines situations,les assurés peuvent être prévenus de l’imminence d’un évènement et
se préparer en protégeant leurs biens ce qui réduit la probabilité de sinistre.
— La présence de protections.
— Le surélèvement de certains biens par rapport au niveau du réseau de rivière

Figure 2.40 – Carte : Représentation de l’empreinte de la crue du Rhône et des sinistres observés

48
2.3.1 Calibration de la Fréquence Résidentiel sur la Crue du Rhône
Le processus de calibration de la COL a été réalisé exclusivement sur un évènement unique : la Crue du Rhône
de 2003.
Plusieurs raisons expliquent ce choix :
Les empreintes pour les évènements sont crées à partir du module de propagation interne d’AXA Global P&C et ne
sont pas des empreintes historiques.
Il est illusoire de croire que notre modèle de propagation permet ainsi de construire des empreintes qui soient tota-
lement crédibles puisque le module Aléa est un modèle par débordement de rivière et n’est donc pas exhaustif.

Cependant, la crue du Rhône de 2003 est un cas d’école de débordement de rivière et nous arrivons à produire
une empreinte qui nous semble correcte.
De plus, devant le peu de données géocodées, nous décidons de calibrer une fréquence de sinistre sur le secteur Rési-
dentiel et d’en déduire par divers raisonnements la fréquence de sinistre des autres branches d’activité.

Nous ne disposons pas du portefeuille d’AXA France l’année de la survenance de l’évènement, nous ne pouvons
pas donc faire une jointure ligne à ligne entre police et sinistres pour calibrer un véritable modèle statistique type
logit afin de déterminer les variables influençant la fréquence de sinistre.
Ne disposant que du portefeuille d’AXA France en 2015, l’exposition sera réajustée pour capturer l’évolution du
portefeuille entre la date de l’extraction du portefeuille et la date historique du sinistre.
De plus, la base sinistre n’est pas entièrement géocodée donc ce biais doit être pris en compte dans la revalorisation
de la fréquence de sinistre.

˜ LOB = N Bsinistres,survenance ∗ τExpo


F req
N Bpolices,actuel ∗ τgeocoding
Par exemple, si pour les appartements à l’étage (MRH-A), nous avons une déclaration de 2400 sinistres pour 10.000
polices dans l’empreinte, la fréquence de sinistre n’est pas de 24% mais doit être réajustée :
— taux de géocodage sinistre = 43%
— Évolution expo = 114%
On trouve alors une fréquence de sinistres réajustée égale à 63% :
Ci-dessous, nous représentons les fréquence de sinistres pour le Résidentiel en fonction de la nature du bien (Maison,
Appartement en étage ou Appartement au rez-de-chaussée).

Figure 2.41 – Graphique : Chance of Loss

Devant le peu d’observations pour le MRH-Appartemment en rez-de-chaussée, nous lui attribuons


la fréquence de sinistres du MRH-Maison car intuitivement nous nous attendons à ce que ces deux
types de biens réagissent de la même façon aux inondations.

49
De plus, intuitivement, il nous semble naturel de considérer que la hauteur d’eau est un facteur explicatif de la
fréquence de sinistres et que plus celle-ci est est élevée plus la fréquence est importante. Cette intuition est confirmée
par le calcul de la fréquence de sinistres par bande d’hauteurs d’eau comme nous pouvons le voir ci-dessous :

Figure 2.42 – Graphique : Fréquence de sinistre pour le Résidentiel

Nous constatons alors que la fréquence de sinistres est quasi-stable pour les appartements au-dessus d’un seuil iden-
tifié à 1 mètre.
Dans la suite, nous considérons alors que la COL pour les appartements ne dépend pas de la hauteur
d’eau. Pour les maisons et les appartements rez-de-chaussée, il y a clairement une tendance à la hausse en fonction
de la hauteur d’eau.
Cependant, dans nos données historiques il existe très peu de sinistres avec des hauteurs d’eau à plus de 2 mètres.

A partir d’études scientifiques externes, nous construisons une nouvelle courbe de dépendance à la hauteur d’eau par
blending entre données empiriques et données a priori de sorte que pour les faibles hauteurs d’eau, les deux courbes
soient proches.
Le résultat final est présenté ci-dessous :

Figure 2.43 – Graphique : Chance of Loss en fonction de la hauteur d’eau pour MRH-M et MRH-R

50
2.3.2 Extension aux autres branches d’activité
Pour les autres branches d’activité, nous nous proposons de suivre le processus suivant :
1. Calcul de la Chance Of Loss moyenne sur nos bases d’études.
2. Calibration des courbes de dépendance à la hauteur d’eau à partir de la courbe Résidentiel en procédant à
des ajustements pour avoir une moyenne égale à la COL moyenne déterminée en 1.
Nous obtenons les résultats suivants :

Figure 2.44 – Graphique : Chance of Loss pour toutes les branches d’activités

Notons que les branches d’activité Immeubles, Commercial, et Résidentiel ont des valeurs très semblables puisque
ces branches couvrent des polices similaires qui ne diffèrent que par les sommes assurées en jeu.

2.3.3 Détermination de la fréquence pour les zones complémentaires


A nouveau, en raison d’une insuffisance de données sinistres géocodées dans les zones complémentaires, nous
ne pouvons pas calibrer une COL pour les 2 zones complémentaires et le Hors-zone pour l’ensemble des branches
d’activités.
Cependant, une étude précédente avait été réalisée permettant d’obtenir des relativités entre fréquence de sinistres
dans l’empreinte inondation, zones complémentaires et hors-zone permettant de calculer la COL des 3 zones de risques
et ceci pour toutes les branches.

Figure 2.45 – Graphique : Relativités de la fréquence de sinistres suivant les zones de risques

51
2.4 Récapitulatif et exemple
Devant la complexité du processus de calibration, nous présentons ici un cas fictif pour expliciter la procédure de
calcul qui sera systématiquement suivie pour la génération des pertes.
Prenons l’exemple d’un portefeuille fictif composé de 3 sites Résidentiel mais le processus reste similaire et générali-
sable pour un portefeuille avec un nombre plus important de sites assurés.

Nous avons vu auparavant, que pour la branche Résidentiel, les taux de destructions sont fonctions des caracté-
ristiques du site mais aussi de sa localisation dans les zones de risque.
Nous cherchons donc à évaluer, à partir de la connaissance des paramètres de vulnérabilité, l’impact financier d’un
évènement i tiré du catalogue d’Aléa.

Le procédure à suivre peut être résumée comme suit :


1. Première étape : Jointure entre le portefeuille de l’assureur et l’empreinte géographique.
Après cette opération, nous constatons que le premier site est dans la deuxième zone complémentaire, le
deuxième site dans la première zone complémentaire et le dernier dans l’empreinte inondation.
Pour le site dans l’empreinte, nous récupérons aussi la valeur de l’Aléa dans la cellule où se situe le site en
question.

2. Deuxième étape : Récupération des distributions de probabilité de chacun de ces sites :


A partir des caractéristique des sites et de la valeur de l’aléa (hauteur d’eau) associée à la cellule inondée,
nous pouvons leur rapprocher la distribution de taux de destruction leur étant associée représentée ci-dessous
par une fonction de répartition avec :
— une masse en 0 (pour un taux de destruction égal à 0 avec une probabilité égale à 1 - COL) où la COL
représente la fréquence de sinistre calibrée dans la section précédente.
— des valeurs strictement positives de taux de destruction avec une probabilité égale à COL.

Figure 2.46 – Graphique : Fonctions de répartition pour une valeur d’aléa fixée pour les 3 sites

Comme nous pouvons le voir ici, la fonction de répartition 1 (en rouge) a une masse importante en 0 car le
site considéré est dans la deuxième zone complémentaire, la probabilité que ce site génère une perte est donc
faible.
Pour le troisième site, étant dans l’empreinte inondation, la masse est plus petite et la probabilité de générer
une perte strictement positive est plus importante.

3. Troisième étape : Tirage de nombres aléatoires entre 0 et 1


Pour chacun de ces sites, nous effectuons n tirages de nombres aléatoires entre 0 et 1, permettant après
application de la fonction de répartition d’obtenir un vecteur de taux de destruction de taille n.

52
Figure 2.47 – Graphique : Tirage de nombres aléatoires sur l’axe des ordonnées et déduction du taux de destruction

Compte tenu de la présence de la masse en 0, il est possible que ce vecteur soit composé de taux de destruction
nuls.

4. Quatrième étape : Calcul du vecteur de pertes :


A partir de la somme assurée de chacun de ces sites, nous calculons un vecteur de pertes sur l’ensemble de
ces n simulations par multiplication de la valeur assurée par le vecteur de taux de destruction précédemment
déterminé.

5. Cinquième étape : Agrégation des résultats :


Ainsi, pour chacun des sites, nous avons un vecteur de pertes ; nous pouvons décider soit de prendre la moyenne
et de l’agréger afin d’obtenir une estimation de la perte engendrée moyenne pour cet évènement ou de sommer
les composants de chaque vecteur par tirage aléatoire pour obtenir une distribution de pertes pour l’événement
considéré.

La procédure est extrêmement similaire pour les autres sites du portefeuille, cependant pour les sites des autres
branches d’activité, comme nous avons calibré une vulnérabilité par garantie couverte (Bâtiment,Contenu et
Perte d’exploitation), nous devons pour chaque garantie d’un site en question, récupérer la bonne fonction de répar-
tition des taux de destruction.

La troisième section du mémoire va venir répondre aux principales interrogations que suscitent ce mode de calcul
notamment sur la génération des nombres aléatoires, l’agrégation des pertes ou encore l’architecture informatique
nécessaire pour effectuer ce genre d’opérations.

53
2.5 Conclusion et limite de l’approche
Dans cette section, nous avons proposé une approche pour déterminer le couple de paramètres (taux de destruc-
tion, fréquence de sinistre) pour l’ensemble des catégories de vulnérabilité en essayant de trouver des paramètres de
segmentation permettant une analyse plus fine du risque.

L’étude de la base sinistre nous a permis de détecter de nombreuses variables ayant une influence significative
sur le risque inondation.
Devant les peu de données mises à disposition pour certaines branches d’activités, il nous a semblé nécessaire de nous
baser sur des jugements a priori par le rapprochement et la collaboration avec AXA Matrix.

L’étude de la fréquence de sinistre quand un site est dans une empreinte inondation s’est révélée beaucoup plus
compliquée que prévu nous empêchant alors de construire un modèle prédictif cohérent.
Enfin, au vu des nombreuses sources d’incertitudes, qu’elles soient liées à nos estimations statistiques ou à la qualité
de la base sinistre, nous avons fait le choix de calibrer un coefficient de variation appliquant ainsi un choc sur les
taux de destruction déterministes.

Faute de temps, nous n’avons pas étudié les modèles gamlss (Generalized additive model for location, scale and
shape) estimant une moyenne mais aussi une variance qui pourrait par exemple dépendre de la hauteur d’eau. En
guise de pistes d’améliorations, citons par exemple une amélioration globale de la qualité des données qui nous per-
mettrait d’effectuer une analyse plus juste du risque.
Par ailleurs, le rajout d’une corrélation entre taux de destruction et hauteur d’eau nous semble par ailleurs particu-
lièrement important.

La construction du module de vulnérabilité pourra être enrichie par la suite en intégrant plus de variables exo-
gènes que nous pourrons récupérer à partir de bases de données publiques ou même de bases privées faisant ainsi le
pont entre la puissance des BigData et l’estimation du risque de phénomènes climatiques.
Une amélioration de la qualité des informations contenues dans le portefeuille des assureurs est donc un incontournable
pour une meilleure estimation et quantification des risques de catastrophe.

54
Chapitre 3

Implémentation du modèle CAT

A présent que le module Vulnérabilité a été entièrement calibré, il s’agit de mettre en place la plateforme de calcul
permettant de déterminer les pertes économiques à charge de l’assureur concernant le risque d’inondation.
Pour cela, nous avons adopté une solution combinant un développement sous R de la majorité des traitements de
données et un coeur de calcul développé en C++ pour optimiser les temps de calculs.

Dans un premier temps, nous revenons sur les différents développements informatiques réalisés et présentons briè-
vement l’initiative OASIS et les choix de modélisation s’y rattachant.
Cette section sera principalement dédiée à expliciter le processus permettant de passer du module Vulnérabilité du
modèle à des pertes économiques pour l’assureur en tenant compte de nombreux facteurs comme, par exemple, la
volatilité des paramètres de vulnérabilité, des corrélations sur la génération des pertes entre les sites touchés et du
nombre de resimulations de chaque évènement issu de notre catalogue d’Aléa.

Dans un second temps, nous procédons à une évaluation du modèle sur les évènements historiques.
Cet exercice consistera à vérifier sa cohérence en simulant les évènements historiques qui ont produit des pertes pour
le portefeuille d’AXA France et en comparant les pertes modélisées aux pertes historiques.
Bien que nous utilisons un modèle CAT principalement pour estimer des pertes extrêmes, une reproduction raison-
nable et correcte des pertes historiques est primordiale.

Dans un troisième temps, nous appliquons le modèle sur les 60.000 évènements du catalogue d’Aléa permettant
ainsi d’avoir la vision complète du risque.
Nous pouvons alors construire les AEP et OEP du modèle pour le portefeuille non-vie d’AXA France ou encore de
déterminer la perte bi-centenaire pour celui-ci pour identifier les besoins en capitaux de l’assureur.
De plus, nous réalisons une étude de sensibilité sur le modèle en modifiant certains paramètres pour évaluer la ro-
bustesse de nos résultats et quantifier les incertitudes inhérentes à tout modèle CAT.

Enfin, dans un dernier temps, nous présentons des cartes de risques issues du modèle permettant de mettre en
évidence des zones à risque concernant les phénomènes d’inondations.
De plus, nous nous proposons d’appliquer le modèle sur la crue de Paris en 1910 qui est considérée comme l’un des
évènements les plus dévastateurs d’inondations ayant touché la France dans l’histoire moderne.
L’idée est de pouvoir quantifier la perte économique que cet évènement entraînerait s’il avait lieu aujourd’hui pour
le portefeuille d’AXA France.
L’évènement Paris 1910 constitue en quelque sorte un benchmark et de nombreuses publications scientifiques 1 pro-
posent une estimation de la perte pour le secteur Assurantiel permettant ainsi de légitimer notre modèle.

1. CCR- La crue de la Seine en île-de-France

55
3.1 Implémentation et coeur de calcul
3.1.1 L’initiative OASIS
La question de l’architecture informatique est fondamentale dans un contexte de modélisation de catastrophes
naturelles. A l’aide des évènements fictifs générés dans le module Aléa, nous pouvons évaluer et quantifier le risque
d’inondation pour un portefeuille d’assurance donné.

Cependant, pour avoir une vision la plus juste possible et qui « couvre l’univers des possibles », le nombre d’évène-
ments fictifs produits est élevé ; dans notre cas 60.000 évènements simulés.
La question du développement informatique est donc primordiale pour optimiser les temps de calcul.

Axa Global P&C a décidé pour développer des modèles CAT internes respectant les meilleurs conventions de code
et permettant des calculs efficients de se rapprocher de l’initiative OASIS.
L’initiative OASIS a vu le jour en 2012 grâce à un support important du monde l’Assurance et de la Réassurance
représentant ainsi un consortium de plus de 40 assureurs et réassureurs.
L’idée fondamentale derrière la création de cette organisation est de promouvoir la science des phénomènes clima-
tiques et de développer la connaissance des assureurs sur les risques extrêmes qu’ils peuvent subir 2 .

Concrètement, OASIS met à disposition de ses membres un nombre important de codes développés en C++ parti-
culièrement optimisés permettant sous réserve de fournir tous les éléments de la modélisation (portefeuille géocodé,
paramètres de vulnérabilité et évènements fictifs) de produire des pertes en un temps de calcul très faible.

Nous avons donc décidé d’utiliser ces ressources mises à notre disposition pour développer le mo-
dèle CAT étudié dans ce mémoire.

3.1.2 Choix de développement


Suite à notre étude de vulnérabilité, nous pouvons à partir de chaque évènement d’inondation qu’il soit sto-
chastique (issu de notre catalogue d’Aléa) ou historique (resimulé à l’aide des conditions physiques de l’époque
d’occurrence du sinistre), déterminer une distribution de perte pour chaque site touché tenant ainsi compte de la
volatilité physique ou assurantiel de nos estimations et par agrégation de ces pertes, une distribution de perte par
évènement.

En d’autres termes, puisque les paramètres de vulnérabilité définis dans la section 2 ne sont pas constants mais
variables à cause du choc appliqué à l’aide du coefficient de variation, rejouer plusieurs fois un même évènement ne
conduit pas à la même estimation de pertes.

Plusieurs questions sont alors immédiates :


— Combien de simulations doivent-être considérées pour assurer une stabilité de la moyenne ?
— Comment tenir compte des corrélations potentielles entre les sites touchés ?
— Comment mettre en lumière l’incertitude des estimations dans la production des résultats ?

Ces questions trouvent leur réponse dans la suite de cette section.

Détermination du nombre de resimulation par évènement


Dans la suite du mémoire et notamment dans la partie concernant la construction des EP curves, nous faisons le
choix de prendre la moyenne de la perte pour chaque évènement simulé.
Pour que cela ait du sens, il faut faire suffisamment de simulations pour que l’estimation de la moyenne soit robuste.

Pour cela, nous calculons une moyenne mobile pour un évènement donné sur un portefeuille fictif suffisamment
hétérogène et analysons en combien de simulations il y a un effet de stabilisation et de convergence.

2. OASIS - Global Overview of OASIS objectives - www.oasislmf.org

56
Figure 3.1 – Graphique : Convergence des pertes simulées vers la moyenne simulée

A l’aide du graphique ci-dessus, nous en concluons qu’il faut au minimum 50 simulations pour assurer la convergence
de la moyenne.

Pour être prudent et pour tenir compte du fait que certains sites appartiennent à des catégories
de vulnérabilité fortement volatils, nous faisons le choix de faire 100 simulations pour chaque évène-
ment dans notre catalogue d’Aléa.

Prise en compte de l’incertitude


Pour chaque évènement, compte tenu de la volatilité induite par chaque site, nous obtenons une distribution de perte
caractérisée par trois paramètres :
— la moyenne : c’est la moyenne des pertes sur l’ensemble des simulations pour un évènement donné.
— l’écart-type : c’est l’écart-type de la distribution de perte pour l’évènement donné.
— Perte Max : c’est la perte maximale sur l’ensemble des simulations pour un évènement donné.

Notons que par construction, la perte maximale pour un évènement donné est inférieure ou égale à la somme assurée
totale des sites touchés.
De plus, la probabilité que la perte maximale soit égale à cette valeur est extrêmement petite.

En effet, théoriquement, si n sites sont affectés par un évènement donné, nous pouvons estimer la probabilité de
destruction totale (équivalente à un taux de destruction égale à 100%) par :

P (Perte totale) = P (Perte totale pour le site 1)


× P (Perte totale pour le site 2) × ...
× P (Perte totale pour le site n)

La probabilité de perte totale pour n’importe quel site étant strictement inférieure à 1, le produit de ces probabilité
devient très petit quand n augmente et tend même vers 0.

Par exemple, supposons que tous les sites sont identiques et qu’ils aient le même taux de destruction moyen pour un
évènement donné.
S’il y a 100 sites et que la probabilité de destruction totale du site est de 0.2 alors la probabilité de destruction totale
est égale à 0.2100 ≈ 10−70 ≈ 0.
Dans ce cas, il semble évident que la perte maximale ne pourra pas être égale à la destruction totale des 100 sites.

57
Pour n simulations d’un même évènement, nous récupérons un vecteur de taille n considérant que c’est la réali-
sation de la variable aléatoire Xi où X représente la perte par évènement et i le numéro de l’évènement.

Nous faisons le choix de calibrer une loi statistique (log-normale ou gamma selon les cas) sur ces observations
pour deux raisons principales :
— Raison informatique : au lieu de stocker pour chaque évènement l’ensemble des réalisations de la variable
aléatoire représentant la perte, il suffit de stocker les paramètres de la loi utilisée pour la calibrer.
— Raison opérationnelle : pour que le modèle puisse être utilisé dans d’autres analyses de type DF A 3 , il est plus
judicieux de proposer une paramétrisation plutôt qu’un jeu de données empiriques.

Cependant, le choix d’une loi log-normale ou gamma présente un défaut important. Les lois log-normale et gamma
sont à support sur ]0, +∞[ c’est-à-dire que la probabilité (bien qu’elle soit petite) de tirage d’un montant extrême
est non-nulle.
Pour garder une cohérence avec la réalité de nos modèles , la loi calibrée doit donc être tronquée à la perte maximale
de l’évènement déterminée antérieurement.

De plus, nous procédons à une opération de mean matching en raison du fait que la loi tronquée estimée a une
moyenne légèrement inférieure à la distribution non-tronquée puisque que la troncature enlève la partie de la distri-
bution au-dessus de la perte maximale.
Ainsi, la moyenne estimée est forcée à la perte moyenne.
Pour chaque évènement, nous estimons donc les paramètres de loi sous-jacents et les récapitulons dans un tableau
de la forme suivante :

Numéro de l’évènement Moyenne estimée (en m€ ) Écart-type estimé Perte maximale


145 0.5 2.5 2.5
3 24.2 9.42 54.24
44210 31 58.6 94.2
26584 587.3 620.7 944.6
2432 1425.4 2111.2 1984.3

Table 3.1 – Tableau : Event Loss Table produit par le modèle

Grâce à cette opération, nous pouvons représenter pour chaque période de retour donné dans une EP curves donnée,
un intervalle autour de la perte moyenne correspondant aux quantiles à 5% et 95%. A titre d’exemple, la figure
ci-dessous illustre ce principe :

Figure 3.2 – Graphique : Incertitude autour de la moyenne pour l’AEP du modèle


3. Dynamic Financial Analysis

58
Cette information supplémentaire permet d’apprécier plus correctement les chiffres fournis et de donner un intervalle
de confiance sur les résultats communiqués.

Prise en compte de la corrélation


Enfin, la corrélation dans le tirage des nombres aléatoires générant les pertes pour les sites assurés dans un modèle
CAT traduit une proximité de ces derniers vis-à-vis du risque étudié quand par exemple les sites sont localisés dans
des endroits avec le même risque physique ou quand les mêmes conditions de construction ont été appliquées pour
ces biens.

Ces caractéristiques, et d’autres facteurs peuvent alors entraîner des corrélations spatiales ou non-spatiales.
Cependant, nous considérons que la corrélation « physique » est déjà prise en compte dans la construction même des
empreintes d’inondations.

Ici, nous faisons le choix de considérer seulement deux types de corrélations :


— La corrélation inter -site
— La corrélation intra-site

La corrélation inter -site reflète la relation entre les sites d’un même ensemble touché par un évènement donné.
La corrélation intra-site reflète la relation pouvant exister entre les pertes des garanties Bâtiment, Contenu et Perte
d’exploitation pour un site donné.
Concrètement, dans les modules de calcul d’OASIS cela se traduit par le tirage du même nombre aléatoire qui sera
appliqué aux distributions des taux de destruction en cas de corrélation à 100%.

Dans la suite, nous faisons le choix de ne considérer aucune corrélation inter -site mais de considérer une corrélation
intra-site à 100%.

59
3.2 Validation sur des évènements historiques
Les modèles CAT sont principalement utilisés pour estimer des pertes extrêmes, pour lesquelles très peu ou pas
du tout d’observations sont disponibles. Un premier indicateur de cohérence à étudier est la capacité de ces modèles
à reproduire les pertes d’évènements historiques récents.

Bien que les évènements historiques répertoriés dans les bases sinistres d’AXA sont insuffisants pour dériver des
estimateurs statisques robustes sur des périodes de retour fortes (100 ans ou plus), ils sont d’une importance capitale
pour quantifier la justesse du modèle construit dans les premières étapes précédentes.

Nous jugeons dans cette section la capacité de notre modèle à ré-estimer des pertes sur le « bas de la courbe ».
La première étape de validation consiste à lancer le modèle sur les empreintes simulées pour chacun des 27 évènements
ayant touchés le portefeuille d’AXA France ces 20 dernières années.

Figure 3.3 – Graphique : Backtesting des taux de destruction sur les évènements historiques

Nous constatons que les erreurs sont globalement faibles malgré de fortes disparités entre les évènements.
Par exemple, la crue du Rhône de 2003 est extrêmement bien reproduite par notre modèle tandis que la crue de 2002
présentent un biais important.
Des explications sont à chercher au niveau même du module Aléa qui ne modélise pour l’instant que les inondations
par débordement de rivière.
La crue de 2002 étant une inondation considérée comme « Flash Flood » principalement du à une forte précipitation,
il est très difficile à l’heure d’aujourd’hui d’obtenir une modélisation correcte et des écarts importants sont constatés.

60
3.3 Simulation des pertes sur le catalogue d’Aléa
Le modèle développé permet, à l’issue des quatre modules détaillés dans la partie I, de générer une table de pertes
par évènements simulés afin de construire les courbes AEP et OEP.
Ces courbes constituent un indicateur fondamental dans la gestion des risques CAT car elles permettent d’évaluer
et de quantifier la capacité du portefeuille à résister à des évènements extrêmes.

A présent, nous pouvons lancer le modèle sur la liste des 60000 évènements fictifs probables générés antérieure-
ment, chaque mois de l’année étant simulé 5000 fois.
Pour des raisons évidentes de confidentialité, l’ensemble des graphiques ci-après ne représentent pas les montants ab-
solus des pertes des évènements mais une version normalisée par la valeur totale des sommes assurés du portefeuille
étudié.
Cette transformation permet en outre d’obtenir des résultats comparables entre différents portefeuilles voir différents
pays.

3.3.1 Distribution des pertes associées au portefeuille d’exposition


Ci-dessous, nous pouvons tout d’abord représenter les distributions de probabilité des pertes des évènements
brutes et nettes de conditions financières à charge pour l’assureur.
Pour plus de lisibilité, nous représentons l’axe des abscisses en échelle logarithmique.

Figure 3.4 – Graphique : Distribution des pertes brutes et nettes de conditions financières par évènements

La courbe a un caractère fortement irrégulier mettant en évidence la forte hétérogénéité du catalogue d’Aléa en
termes d’intensité et d’empreintes géographiques.
De plus, nous constatons que les courbes brutes et nettes de conditions financières sont quasiment superposées ce qui
est représentatif d’un portefeuille d’assurance où les rétentions des assurés sont très faibles.
Pour rappel, le portefeuille étudié dans ce mémoire ne dispose d’aucun plafond de paiement, seules des franchises y
sont appliquées pour chacun des sites assurés.

61
Cette situation s’explique par le fait que les catastrophes naturelles sont généralement couvertes par des contrats
classiques de dommages aux biens, qui ne leur sont pas spécifiques. Les franchises sont donc très standards et ont un
effet sur les sinistres de la vie quotidienne.
Cependant, une inondation se distingue de ces sinistres par son intensité. Ainsi, les franchises usuelles de quelques
centaines d’euros couramment observées pour l’assurance d’un bien ne jouent que très peu lorsque celui-ci est détruit
de façon importante.

A partir de maintenant et pour la suite de l’analyse, l’ensemble des graphiques représenteront les
pertes nettes de conditions financières.

3.3.2 Distribution des pertes annuelles associés au portefeuille d’exposition


Chaque évènement simulé appartenant au catalogue d’Aléa peut être rattaché à un mois et à une année simulée.
Ainsi, au lieu de représenter la distribution de pertes des évènements, nous pouvons construire la distribution des
pertes par année simulée en agrégeant les pertes des évènements pour chaque année.

Figure 3.5 – Graphique : Distribution des pertes annuelles associées au portefeuille d’exposition

La moyenne de cette distribution est égale à 0.008%.


Cela s’interprète comme étant le montant annuel moyen espéré des pertes liées aux évènements d’inondations pour
le portefeuille d’AXA France ; entre d’autres termes la prime pure de ce dernier.
Ce montant est à comparer à la prime pure historique du portefeuille de l’assureur révélant ainsi que le modèle est
légèrement conservateur avec une moyenne simulée supérieure à 15% de la moyenne observée.

62
3.3.3 AEP et OEP du modèle
Ci-dessous, nous représentons les AEP (en rouge) et les OEP (en bleu) du modèle.
Outre une meilleure connaissance du risque d’inondation qu’elles apportent, ces courbes permettent de prendre des
décisions en gestion du risque notamment comme nous le verrons dans la partie suivante sur le choix d’une structure
de réassurance optimale.

Nous nous intéressons de plus particulièrement aux pertes relatives à la période de retour 200 ans c’est-à-dire aux
quantiles à 99,5% des distributions de pertes annuelles.
Cela correspondent précisément à la valeur du SCR requis par Solvabilité II pour le module Catastrophe en Assurance
non-vie.

Figure 3.6 – AEP & OEP en échelle log Figure 3.7 – AEP & OEP en échelle standard

Comme nous le voyons dans la figure 3.7, la forme concave des EP curves indique que la prime pure est extrêmement
dépendante des faibles périodes de retour.
Cette forme est typique et standard pour les périls à forte fréquence comme les inondations.

A contrario, une forme concave indique que la prime pure est plus dépendante pour les hautes périodes de retour
comme c’est le cas pour les tremblement de terre.

Période de retour Numéro de l’évènement OEP (en taux de destruction)


5000 457 0.1%
2500 48874 0.085%
1666 2465 0.08%
1250 12 0.078%
1000 24897 0.075%
500 18745 0.05%
333 25555 0.03%
200 99 0.025%

Table 3.2 – Tableau : OEP par période de retour

63
3.3.4 OEP et prime pure par mois
Pour les phénomènes d’inondation, il est commun de constater un fort effet de saisonnalité en terme d’intensité
lié en partie à la quantité de précipitations tombée dans une région donnée.
Pour savoir si notre modèle capte bien cet effet, nous nous proposons de calculer la prime pure du portefeuille repré-
sentant la charge moyenne pour chaque mois de l’année.

Il s’agit donc de voir si nous observons une forte variabilité de prime pure entre les mois d’été où les précipita-
tions (et donc le risque d’inondation) sont extrêmement faibles et les mois d’autonome et d’hiver où les évènements
d’inondations sont importants entraînant une charge élevée.

Figure 3.8 – Graphique : Prime pure moyenne (en taux de destruction) par mois de l’année

Nous validons alors le caractère hautement volatil de la prime pure du portefeuille en fonction du mois de l’année.
Cet élément de différenciation tient sa source directement à partir de la création des évènements d’inondations qui
tient compte des différents mois de l’année dans la génération des empreintes inondations et des hauteurs d’eau
simulées.
Sur le graphique ci-dessus, nous constatons que, tandis qu’en Juillet et en Août la prime pure est extrêmement faible,
nous observons une prime pure jusqu’à 5 fois plus élevée pour les mois de Janvier et de Décembre.

Figure 3.9 – Graphique : OEP par mois

64
Au lieu de calculer la prime pure pour chacun des mois de l’année, nous pouvons tout aussi bien construire les OEP
par mois et ainsi détecter les tendances et les influences de ces derniers sur la construction de l’OEP globale.
Nous constatons sur la figure 3.9 que les trois mois d’été Juin, Juillet et Août saturent rapidement et que leur influence
relative sur les évènements à forte période de retour sont bien moindres que les mois d’hiver et d’automne dont la
contribution est croissante avec l’intensité des évènements.

3.3.5 Contribution des différentes branches d’activité à l’AEP


Sur un autre registre et dans la continuité des travaux concernant l’analyse des résultats du modèle, il est
intéressant de pouvoir quantifier la contribution de chacune des branches d’activité du portefeuille sur les résultats
globaux.
Suite à nos remarques dans la seconde partie du mémoire sur l’analyse de la vulnérabilité, il nous parait tout à
fait évident que certaines branches d’activité sont beaucoup plus vulnérables et que cela doive se traduire dans la
contribution de chacune d’entre elles dans les pertes pour une période de retour donnée.

Figure 3.10 – Graphique : Contribution des différentes branches d’activités à l’AEP

La première remarque concerne l’allure générale du graphique qui met en lumière la forte variabilité des contributions
des branches d’activité en fonction des périodes de retour considérées.
Ainsi, pour la majorité des branches d’activité, la contribution n’est pas constante en fonction de la période de retour.

Par exemple, il est intéressant de souligner le caractère singulier des courbes représentant la branche Résidentiel-
Maison (nommée sur le graphique MRH-M ) et la branche Industriel (nommée sur le graphique MIE-M ) dont les
contributions changent radicalement en fonction des périodes de retour respectivement de 54% et 18% pour une
période de retour de 2 ans à 15% et 47% pour une période de retour de 1000 ans.
Ce phénomène s’explique par la construction même du module Vulnérabilité et des différents choix de modélisation
effectués.
Alors que la vulnérabilité de la branche Industriel est fonction de la hauteur d’eau pour la fréquence de sinistre et
pour les taux de destruction, celle du Résidentiel ne l’est que pour la fréquence de sinistre.

Ainsi, les pertes liées au Résidentiel finissent par saturer en montant absolu pour les évènements au-dessus d’un
certain seuil tandis que les pertes liées à l’industriel continuent de croître.
Cela a aussi une explication physique puisque lors d’un phénomène extrême, les dégâts les plus lourds proviennent
des grosses industries qui possédaient des contenus à fortes sommes assurées et donc représentent de gros risques
potentiels pour l’assureur.

65
3.3.6 Contribution de l’OEP dans l’AEP
La question de la contribution de l’OEP dans l’AEP est cruciale et est représentative des différents périls étudiés.
Une forte contribution signifie que les pertes majeures sont induites généralement par un phénomène majeur et non
par une multitude d’évènements de moindre intensité.
Ici, pour les faibles périodes de retour, l’AEP est engendrée par un nombre important d’évènements de faible em-
preinte et intensité traduisant une contribution relative faible.

Cependant, pour les fortes périodes de retour, la part de l’OEP est de plus en plus important ce qui est un ca-
ractère standard pour le risque inondation, La part de l’OEP dans l’AEP est consultable dans la figure ci-dessous.
Elle est globalement croissante en fonction de la période de retour, ce qui confirme le phénomène décrit précédemment.

Figure 3.11 – Graphique : Contribution de l’OEP dans l’AEP

3.3.7 Calcul de la TVAR


La Tail Value at Risk (TVaR) aussi connu sous le nom d’Expected Shortfall est une mesure de risque qui mesure
la contribution des pertes extrêmes sur un portefeuille à un niveau de probabilité de dépassement donné.
La TVaR est calculée à partir de la moyenne des pertes au dessus d’un seuil :
EP =0.02%
1 X
T V aR = E (L|L ≥ LEP % ) = L
N
EP %
La somme des pertes est extraite de la courbe EP à partir d’un seuil donné et jusqu’à la valeur maximale (qui pour
un catalogue de 5000 années d’historiques correspond à une probabilité de 0.02%.

Par exemple, la 1% Aggregate TVaR pour un portefeuille donnée est égale à la moyenne des pertes pour le top
1% des pertes annuelles aggrégées.
Pour un catalogue de 5000 années, ça serait la moyenne des 50 plus grandes pertes :
EP =0.02%
1 X
T V aR = E (L|L ≥ L1% ) = L
50
1%

La TVaR est calculée pour chaque probabilité de dépassement ce qui permet de construire une TVaR curve et de la
représenter sur le même graphique que les AEP et OEP du modèle.

66
Figure 3.12 – Graphique : Représentation de la TVAR

Par construction, la TVaR curve est supérieure ou égale à l’EP curve.


La TVaR a de nombreuses applications pratiques en ce qui concerne l’estimation des risques de catastrophes.
La principale caractéristique de la TVaR est sa robustesse. Une simple métrique, comme l’AEP pour une probabilité
de dépassement de 1% est limitée dans son utilité puisqu’elles ne représentent que la valeur de la perte pour une
période de retour donnée et ne révèle aucune information sur le reste de la distribution.

La TVaR, quant à elle, incorpore les pertes au-dessus du seuil de 1% et permet d’avoir une vision du risque plus
précise.
C’est ce qu’on peut voir sur la figure ci-contre où 2 compagnies A et B ont un quantile de perte similaire pour le
seuil de dépassement de 0.4% mais la compagnie A a une TVaR plus grande que la compagnie B.

Figure 3.13 – Graphique : Exemple de 2 EP curves

67
3.3.8 Sensibilité du modèle aux paramètres de vulnérabilité
De nombreuses hypothèses ont été faites pour la construction du modèle, il s’agit à présent d’évaluer l’impact de
différents changements sur nos paramètres pour évaluer la robustesse du modèle.
Nous appliquons les tests de sensibilité suivants :

— Écart de 10% des paramètres de vulnérabilité pour la branche d’activité Résidentiel.


— Écart de de 10% de la fréquence de sinistre pour la branche d’activité Immeuble (IMM et MIE).
— Suppression de la dépendance à la hauteur d’eau pour les taux de destruction des lob Industriel et Immeuble.
— Perturbation du geocoding des sites en les décalant de 100 mètres.
— Multiplication par deux de la vulnérabilité pour la garantie Perte d’exploitation.
— Modification des conditions financières.
— Ajout d’une corrélation inter-site.

Figure 3.14 – Graphique : Sensibilité du modèle aux paramètres de vulnérabilité

Pour chacun de ces tests, nous ré-estimons les risques inhérents aux catastrophes naturelles et reconstruisons l’OEP
pour chacune de ces situations.
Nous estimons l’impact de ces chocs de vulnérabilité sur le SCR CAT (c’est-à-dire à la valeur égale à la perte
deux-centenaire) à 17,5% du SCR.

68
3.4 Construction de cartes de risques
Nous finissons cette section par mettre en avant un outil visuel permettant d’évaluer la pertinence d’un modèle
et consistant à produire des cartes de risques sur le territoire Français.
A l’aide du modèle CAT, nous pouvons construire deux types de cartes de risques :
— Une carte de risques basée sur le module Aléa et présentant les zones les plus risquées vis à vis de la vulnérabilité
physique c’est-à-dire en agrégeant les empreintes inondations des évènements fictifs.
— Une carte de risque basée sur les pertes générées par le modèle tenant ainsi compte de l’exposition du porte-
feuille, de la vulnérabilité et des conditions financières.

Ci-dessous, nous présentons un aperçu d’une carte de la première catégorie :

Figure 3.15 – Carte : Carte de risque de première catégorie

Par ailleurs, nous pouvons représenter, pour chaque département, la prime pure calculée à l’aide de notre modèle
CAT (carte de risque de 2ème catégorie).

Figure 3.16 – Carte : Moyenne des pertes modélisées par département

69
3.5 Reproduction de la crue Paris 1910
La crue de Paris 1910 est l’évènement inondation le plus important dans l’histoire moderne en France.
Nous procédons dans ce qui suit à une simulation de cet évènement avec le portefeuille d’AXA France actuel.
Paris 1910 est connu pour être considéré comme un évènement avec une période de retour d’environ 300 ans.
Une empreinte de cet évènement a été construite par l’équipe actuarielle à partir de ce postulat en récupérant la
hauteur d’eau dans les stations de jaugeages de tous les stations se trouvant dans la région Île-de-France et en allant
récupérer le quantile correspondant de la loi modélisée puis en lançant le modèle de propagation.

Notons que l’approche ici est dite conservative car nous ne tenons pas compte des possibles corrélations entre ces
bassins versants même si celle-ci doit être très proche de 1.

Figure 3.17 – Carte : Représentation de l’empreinte de la crue de Paris en 1910

La durée de l’évènement est importante pour le calcul des taux de destruction de la garantie en Perte d’exploitation
pour les branches Industrielle et Commerciale comme nous avons pu le voir dans la section 2.
Pour cela, on utilise une documentation de la DRIIE 4 qui donne une vision très précise du déroulement de la crue.

Figure 3.18 – Tableau : Durée de l’évènement Paris 1910

Nous constatons que la durée de l’évènement n’excède pas 15 jours. En conséquence, nous considérons dans la suite
un scénario avec une durée de 15 jours tout en sachant que c’est très conservateur.

4. Direction Régionale et Interdépartementale de l’Environnement et de l’Energie

70
A l’aide de notre modèle, nous calculons les pertes si cet évènement devait se reproduire de nos jours :
Branche d’activité Nombre de sinistre Perte nette (en millions d’euros)
MRH 17000 272
MIE 500 433
IMM 2400 150
MRP 2400 200
COL 150 55
En agrégeant les pertes, nous arrivons à un total de plus d’un milliard d’euros de pertes pour l’assureur.
A cela, nous devons rajouter des chargements tenant compte de ce qu’on appelle la Post-Loss Amplication. 5
En effet, en cas d’évènements extrêmes touchant une zone densément peuplée, l’assureur peut effectuer des « gestes
de solidarité » en indemnisant des assurés dont la garantie ne couvre pas explicitement les dégâts subis.

De plus, en cas de dommages majeurs, de nombreuses pertes peuvent être rattachées à la garantie Perte d’ex-
ploitation voir même des pertes indirectes très difficiles à modéliser (interruption de trafic, dégâts sous-jacents à
l’évènement, frais de relocation des assurés sinistrés).

Pour tenir compte de ce phénomène, nous appliquons une série de chargements proportionnels à la taille de l’em-
preinte, de la somme assurée totale touchée et à de nombreux autres facteurs qui sortent du cadre de ce mémoire.
En agrégeant tous ces facteurs, nous arrivons à une perte globale supérieure de 20% à celle en sortie du modèle.

En tenant compte de l’estimation de perte d’un tel évènement pour le marché Assurantiel fournie par la CCR
et en tenant compte de la part de marché d’AXA sur Paris, nous arrivons à la conclusion que cette perte nous semble
cohérente et vraisemblable.

5. Montpelier Group - “Post-Event Loss Amplification” and System Risk, are we Prepared for Inflated Tail Risk Losses ?

71
Chapitre 4

Applications en Réassurance

Suite à la construction et à l’implémentation du modèle France Flood et après avoir mis en évidence l’utilité d’un
modèle interne pour une meilleure gestion des risques, nous pouvons à présent étudier une application très courante
des modèles CAT dans le domaine de la Réassurance.
Pour cela, notre travail s’articulera autour de trois sections :

Dans un premier temps, nous introduisons les concepts généraux de la Réassurance puis nous formalisons ma-
thématiquement la problématique de transfert de risque entre assureur et réassureur qui apparaît complexe sur bien
des abords.
Ce transfert de risque reposant sur l’établissement d’un contrat qui peut prendre une très grande variété de formes
rendant ainsi d’autant plus délicate toute étude de modélisation, nous présentons les différents formes les plus cou-
rantes en mettant en avant les avantages et inconvénients de chacune.
Nous finissons cette section par présenter un certain nombre de clauses classiques que l’on retrouve généralement
dans les traités de Réassurance et qui peuvent avoir un impact très important sur la modélisation qu’il est donc
intéressant de connaître pour avoir une vision du risque la plus juste possible.

Dans un deuxième temps, nous nous proposons d’utiliser les sorties du modèle CAT préalablement construit pour
la tarification d’un traité de Réassurance en excédent de sinistres par évènements avec reconstitutions gratuites et
illimitées.
La problématique de la détermination du coefficient de chargement permettant de passer d’une prime pure à une
prime commerciale est centrale concernant la tarification des traités de réassurance, cependant elle ne sera pas dé-
veloppée dans la suite. Ainsi, nous appliquerons pour notre étude un principe de prime simple reposant sur un
chargement proportionnel à l’écart-type de la perte et tenant compte de différents frais annexes.

Dans un troisième temps, nous nous intéressons à la problématique de réassurance optimale du point de vue
de la cédante consistant à déterminer la structure de réassurance lui permettant le gain économique le plus impor-
tant. Nous verrons que cette problématique étant particulièrement complexe puisque basée sur un certain nombre de
paramètres qualitatifs et subjectifs, nous dériverons plus modestement sur la mise en place d’un mécanisme reposant
sur des critères objectifs permettant de comparer des structures de réassurance déjà existantes qui constitue une
problématique plus raisonnable et accessible.

Pour cela, nous introduisons la notion de Création de valeur définie comme la différence entre le gain apporté
par la structure de réassurance en termes de fonds propres et le coût moyen de la réassurance permettant ainsi
d’établir un paramètre à maximiser pour obtenir le meilleur traité pour la cédante.
Un nombre important d’hypothèses doivent être prises pour ne pas alourdir les calculs et proposer une solution d’une
complexité raisonnable mais il s’agit de garder à l’esprit que cette problématique pourrait certainement faire l’objet
d’un tout autre mémoire, au vu de sa complexité.

72
4.1 Concepts généraux et utilité de la Réassurance
4.1.1 L’utilité de la Réassurance comme outil de Risk Management
Le contrat de réassurance est un contrat aléatoire par lequel le réassureur s’engage envers l’assureur contractant
appelé cédante à couvrir financièrement pour une période donné en échange du paiement d’une somme d’argent dite
« prime de réassurance » tout ou une partie des montants des sinistres relatifs à tout ou une partie des polices du
portefeuille de l’assureur, selon les termes et modalités déterminés par le contrat. 1

Le contrat de réassurance est généralement un contrat d’assurance particulier liant un assureur à un réassureur.
On considère souvent à juste titre que cela constitue « l’assurance des assureurs ».
Parmi les réassureurs les plus importants, nous pouvons citer Swiss Re, Munich Re, Hannover Re ou encore Scor.
Il existe quatre modes de réassurance que nous retrouvons ci-dessous :

hhhh Réassureur
hhhh
Obligatoire Facultative
Assureur
hhh
hhh h
Obligatoire Traité OB-FAC
Facultative FAC-OB FAC

Table 4.1 – Tableau : Les quatre formes juridiques de la réassurance

— Obligatoire : la cédante s’engage à présenter au réassureur tous les risques du portefeuille couverts par le
traité et ce dernier s’engage à les accepter.

— Facultative : C’est une réassurance « police par police », la cédante est libre de présenter le risque au réas-
sureur, qui lui-même est libre de l’accepter ou de le refuser. En pratique, elle est très utilisée dans l’assurance
des grands risques.

— Facultative-Obligatoire : la cédante a le choix de présenter ou non le risque au réassureur qui en revanche


à l’obligation d’accepter le risque. Cette relation est complètement asymétrique et peut favoriser l’apparition
du risque d’anti-sélection pour le réassureur.

— Obligatoire-Facultative : le réassureur a le droit d’accepter ou non le risque mais l’assureur doit le présenter
au contrat. Cette forme de réassurance n’existe pas en pratique.

Dans la suite, nous nous limitons à l’étude du mode de réassurance dit « obligatoire » en comparaison
au mode de réassurance dit « facultatif ».

La Réassurance possède de nombreux avantages pour les cédantes ce qui en fait un outil incontournable surtout
depuis la mise en oeuvre de Solvabité 2 qui permet de mieux prendre en compte le rôle de la réassurance contraire-
ment à Solvabilité 1 qui avait un mécanisme très frustre à ce niveau et qui ne permettait pas une prise en compte
effective du mécanisme de transfert de risque.

Elle permet entre autres :


— un transfert de risque entre cédante et réassureur.
— une réduction de la volatilité du résultat pour la cédante.
— une diminution des exigences réglementaires en capitaux immobilisés.
— un accès privilégié à l’expertise des réassureurs.
— un élargissement des capacités de souscription.
— un apport de liquidités en cas de pic de sinistralité.

Parmi toutes les fonctions citées ci-dessus, nous nous focaliserons dans la partie sur la recherche d’une structure
optimale sur la diminution des exigences réglementaires en terme de capitaux immobilisés qui est un facteur objectif
et facilement quantifiable.
Toutefois, les autres fonctions sont toutes aussi importantes et l’une des principales raisons qui pousse les cédantes
à acheter de la Réassurance se trouve dans la protection du capital contre de larges déviations qu’elle procure.
C’est même absolument primordial pour le risque Catastrophe qui a la particularité de pouvoir toucher un nombre
important de polices de façon brutale et inattendu.

1. Source : SCOR- Le métier de la Réassurance

73
Par exemple, c’est grâce à la Réassurance que le secteur de l’assurance n’a pas souffert de sérieux problèmes et d’une
vague d’insolvabilité quand les tempêtes Lothar et Martin ont frappé l’Europe en Décembre 1999 ou encore quand
les nombreuses inondations ont frappé l’Europe Centrale et l’Europe de l’est en 2002. 2

La figure ci-dessous illustre comment la Réassurance permet une stabilisation des résultats pour l’assurance non-
vie et ceci dans les 10 dernières années.
Nous constatons que le bénéfice est particulièrement prononcé l’année des tempêtes Lothar et Martin (1999)

Figure 4.1 – Graphique : L’effet stabilisateur de la Réassurance dans le marché Français

A présent, essayons de formaliser l’apport de la réassurance et son utilité d’un point de vue mathématique.
Nous pouvons alors démontrer que la réassurance permet de diminuer la probabilité de ruine d’un assureur.

Plaçons-nous dans un cadre élémentaire. On considère un assureur qui dispose d’un montant de fonds propres F P ,
et d’un portefeuille de N risques indépendants et de même loi de probabilité.
Nous supposons que chaque risque a une sinistralité dont l’espérance vaut µ et l’écart type vaut σ.
La tarification est telle que chaque prime est égale à (1 + ρ) µ correspondant à une prime commerciale égale à la
prime pure multiplié par un coefficient de chargement
Notons S la charge totale des sinistres.
Nous avons :

P(ruine) = P (F P + N (1 + ρ) µ − S < 0)
= P (S − N µ > F P + N ρµ)

Or d’après l’inégalité de Bienaymé-Tchebychev, on a :

1
P(ruine) ≤
2
où :

F P + N ρµ
= √
N ×σ
Donc plus  est grand plus la probabilité de ruine est faible. L’enjeu est donc d’augmenter ce paramètre. Les
leviers disponibles sont multiples :

— Augmenter le niveau de fonds propres par injection de capital dans l’entreprise mais ceci aura une connaissance
immédiate sur leur rentabilité qui diminuera, les actionnaires ne seront pas favorables à cette solution.
— Augmenter le nombre de risques souscrits c’est à dire augmenter ses possibilités de souscription car  croit
FP
avec N quand N ≥ mais cela revient à augmenter le risque supporté par l’assureur
µρ
2. Central European Flooding August 2002 - EQECAT Technical Report

74
— Augmenter ρ et ainsi augmenter les tarifs des primes ce qui est une démarche peu concurrentielle.

Pour faire augmenter le coefficient de sécurité, une solution consiste donc à recourir à la réassurance.
En effet, recourir à la réassurance peut faire diminuer la volatilité de la sinistralité à savoir σ.
Cependant, la réassurance implique aussi un transfert de résultat au réassureur et donc une diminution des primes
récoltées. Toute la difficulté est donc de trouver un bon compromis entre un transfert de risque significatif et à une
fuite des primes la plus faible possible.

Nous allons voir dans la prochaine section que ce transfert de risque peut prendre une grande variété de formes
et que c’est le contexte ou encore l’appétit au risque de la cédante qui permettre de déterminer le contrat.

4.1.2 La Réassurance Proportionelle


La Réassurance est dite « proportionelle » lorsque le réassureur participe de manière proportionnelle à l’activité de
la cédante pour le périmètre du contrat de réassurance. En d’autres termes, cela signifie qu’en échange d’un certain
pourcentage des primes, le réassureur indemnisera la cédante de ce même pourcentage de sinistres.

La Réassurance proportionnelle se caractérise donc par un taux de cession τ selon lequel la cédante et le réassu-
reur vont se partager le risque et la prime définie contractuellement.
Si on note P la prime acquise par l’assureur et S sa sinistralité brute, les flux entre les deux partis se matérialisent
de la façon suivante :

Figure 4.2 – Schéma : Flux entre réassureur et cédante

A ce principe est intégré la notion de partage des coûts par le biais d’une commission de réassurance payée par
le réassureur à la cédante. La cédante ayant à son passif un certain nombre de charges liés entre autres aux frais
d’acquisition des primes et de gestion des sinistres, le réassureur se doit de participer pour un partage équitable.

Généralement, cette commission est déterminée à partir des estimations faites par la cédante et par le réassureur
autour du ratio de perte attendu du portefeuille réassuré.
Le montant de la commission fait donc l’objet de l’essentiel des négociations entre réassureur et cédante autour d’un
traité en quote-part car plus celle-ci sera faible, plus la marge du réassureur sera grande.

En réassurance proportionnelle, nous distinguons deux types de contrats :


— Le traité en Quote-Part ( Quota-Share en anglais).
— Le traité en excédent de pleins (Surplus en anglais).

75
Le traité en Quote-Part
Parmi les formes de réassurance proportionnelle, la plus utilisée est le traité en « Quote-Part » (QP) ou en anglais
Quota-Share (QS).
Dans un traité en Quote-Part, le taux de cession défini contractuellement est le même pour toutes les polices couvertes
par le traité. Nous voyons que le taux de cession s’applique aussi bien sur les grands sinistres que sur les petits.

Figure 4.3 – Schéma : Représentation d’un quote-part avec un taux de cession de 30%

Les avantages de ce traité pour la cédante sont le partage des frais avec le réassureur, l’apport de son expertise lors
du lancement d’un nouveau produit d’assurance mais aussi une sécurité renforcée en cas d’incertitude quant à la
profitabilité d’un portefeuille, en lissant le résultat de la cédante ce qui atténue ses pertes comme ses gains.
L’avenir de la cédante est donc étroitement lié à celui du réassureur, l’assureur cédant une portion τ du résultat du
portefeuille que ce résultat soit déficitaire ou bénéficiaire.

L’inconvénient principal de ce traité est qu’il oblige la cédante à partager ses primes sur l’intégralité des risques : la
part la plus extrême qui serait insoutenable pour la cédante, mais aussi la part attritionnelle qu’elle est capable de
subir et pour laquelle il n’est pas indispensable de céder les risques.

Ainsi le Quote-Part n’a pas pour utilité une réduction de la volatilité de la sinistralité mais est plus adapté à
une sinistralité de fréquence.

76
Le traité en excédent de pleins
L’autre forme de traités proportionnels , le « traité en excédent de pleins » (XP) ou surplus share (SP) permet
de pallier l’inconvénient principal du quote-part.
En effet, pour l’excédent de plein, le taux de cession τ est défini police par police.
En pratique, un traité de réassurance en excédent de pleins est défini selon 2 paramètres :
— Le plein de souscription K qui est le montant maximum pris en charge par la cédante.
— La capacité C qui est le montant de somme assurée à hauteur duquel le réassureur s’engage à payer son client.
Elle est souvent exprimée en multiple de plein de souscription.

On définit alors le taux de cession de la police i de somme assurée Si par la formule suivante :

min (max (Si − K, 0) , C)


τi =
Si
Le graphique ci-dessous illustre ce mécanisme :

Figure 4.4 – Schéma : Fonctionnement d’un excédent de plein avec K=500 et C=14*K

Cette forme de réassurance permet de réduire la volatilité du portefeuille de la cédante, en cédant fortement les
grands risques et peu ou pas les risques de faible somme assurée. L’excédent permet aussi une économie significative
de primes par rapport aux quote-part et est particulièrement adapté à certaines branches où les portefeuilles sont
très hétérogènes.
Cependant, il nécessite une gestion police par police ce qui rend son utilisation très lourde et moins fréquente qu’un
quote-part.

77
4.1.3 La Réassurance Non-Proportionelle
Par opposition à la réassurance proportionelle, la réassurance non-proportionelle permet au réassureur de n’intervenir
qu’à partir d’un certain seuil de sinistre ou de perte de la cédante et jusqu’à une limite fixée contractuellement.
Le réassureur touche pour cela une prime de réassurance qu’il faut donc calculer et négocier.

La non-proportionnalité de ce traité est illustrée dans la Figure 4.5 indiquant le taux de cession du traité, soit
la part du sinistre prise en charge par la réassurance, en fonction du montant du sinistre. Ce taux n’étant pas
constant, mais dépendant du montant du sinistre, le traité n’est pas proportionnel.

Figure 4.5 – Schéma : Taux de cession pour un XS

Le sort de la cédante et du réassureur sont beaucoup moins liés, ainsi au cours d’une année d’exercice, l’assureur
pourra être en perte, mais pas forcément le réassureur, ce qui aurait dû être le cas dans le cadre d’un contrat en
quote-part.

En réassurance non-proportionelle, nous distinguons deux grands types de contrats :


— Les traités en Excédent de sinistre (Excess of Loss en anglais).
— Les traités en Excédent de perte (Stop Loss en anglais).

Traité en Excédent de sinistres


Le traité non proportionnel le plus utilisé en pratique est le traité en « excédent de sinistre » (XS) ou en anglais
Excess of Loss (XL). Le traité consiste à intervenir seulement à partir d’un certain seuil de sinistres appelé priorité
ou en anglais deductible et ceci à hauteur de la portée ou en anglais limit.
La notation usuelle d’un traité en excédent de sinistre est la suivante :

b XS a

où :
— a représente la priorité
— b la portée

Ainsi un traité avec une priorité de 100 millions d’euros et une portée de 50 millions d’euros sera noté dans la suite
50X100.
Le montant des récupérations Ri (c’est-à-dire les montants pris en charge par le réassureur pour un sinistre de
montant Si peut s’écrire de la façon suivante :

Ri = min (max (Si − a, 0) , b)

Ainsi, si le portefeuille subit N sinistres sur une période de un an, alors la sinistralité agrégée à charge du réassureur
vaut :
SR = R1 + R2 + ... + RN

78
Il existe deux types de traités XS :
— Les traités dits « par sinistre ».
— Les traités dits « par évènement ».

La différence entre ces types réside dans l’application des conditions de réassurance (priorité & portée) sur chaque
police sinistrée dans le cas du XS par sinistre et sur tous les sinistres liés à un même évènement ou à une même cause
(une tempête qui endommage plusieurs maisons par exemple) pour un XS par évènement.
Il parait donc évident que dans une optique de couverture contre les catastrophes naturelles que nous aborderons
dans la suite, c’est le traité par évènement qui sera à chaque fois utilisé en raison de l’importance du nombre de
polices sinistrées en cas d’événements CAT.
La priorité jouant pour chaque police en XS par risque, cela se traduit par une charge totale plus élevée pour la
cédante qu’avec un XS par évènement.

La figure ci-dessous met en lumière le fonctionnent d’un traité XS par risque pour différents montants de sinistres.

Figure 4.6 – Schéma : Fonctionnement d’un traité par excédent de sinistre

Dans le schéma ci-dessus, le premier sinistre traverse la tranche ; la partie en-dessous de la retention de 1.5M est à
charge de l’assureur tandis que le reste est à charge du réassureur.
Ce n’est pas le cas du deuxième sinistre où le montant est entièrement à charge de l’assureur.

Ce traité est adapté à pratiquement toutes les branches, permet de céder beaucoup moins de primes que la réassu-
rance proportionelle et d’avoir une couverture totale au-delà de la franchise, dans la limite du plafond. Cependant,
la cédante devra payer d’autant plus cher que la priorité est basse.
Aussi, la détermination du juste prix pour un traité en excédent de sinistres n’est pas un exercice facile et constituera
d’ailleurs l’objet de la prochaine section. Enfin, ce traité ne permet pas une protection du résultat technique global,
c’est pour cela que l’on va définir dans la suite un autre type de traités plus adapté à ce niveau.

Traité en Excédent de perte


L’autre forme principale de traités non proportionnel est l’excédent de perte ou en anglais Stop-Loss (SL) qui permet
une protection totale du résultat technique global.
Un traité en excédent de perte peut s’exprimer soit en montant soit le plus souvent en pourcentages du ratio de
perte. Ainsi le réassureur intervient lorsque la cédante est en perte et ceci jusqu’à un certain niveau. Un traité en
excédent de perte sera noté suivant le même modèle que le XS :

b SL a
où :
— a : seuil d’intervention exprimé en ratio de perte, en pratique toujours supérieur à 100%.
— b : la portée, elle aussi exprimée en ratio de perte.

Ce type de traité permet à la cédante de limiter efficacement ses pertes, il est cependant assez rare car très coûteux.
Notons que ce genre de traités agit sur le montant cumulé des sinistres d’un portefeuille contrairement à un traité
XS par risques ou par évènement.

79
4.1.4 La notion de reconstitutions
Après avoir défini les différentes formes que peuvent prendre les traités de Réassurance dans le marché, il est
intéressant de mettre en lumière un certain nombre de clauses classiques permettant au réassureur de limiter son
engagement vis-à-vis de la cédante.
Ainsi, il est possible pour le réassureur de contrôler son engagement à l’aide de :
— une franchise cumulée annuelle (AAD : Annual Aggregate Deductible) permettant à la réassurance de n’inter-
venir qu’à partir d’un certain montant de sinistres.
— d’une limite cumulée annuelle (AAL : Annual Aggregate Limit) permettant de limiter les récupérations an-
nuelles.

Il est d’ailleurs d’usage que le montant de l’AAL soit énoncé en nombre de portées du traité.
Par exemple, pour un traité 50 XS 100, le réassureur peut décider de limiter son engagement avec une AAL = 150M
soit 3 fois la portée du traité.

On parle alors de traité avec reconstitutions quand la portée annuelle (AAL) est supérieure à la portée simple
du traité c’est-à-dire que la cédante a la possibilité de faire exercer ces conditions de réassurance plusieurs fois.
Au contraire, dans le cas d’un traité sans reconstitutions, suite à plusieurs sinistres dans l’année, la cédante peut
épuiser sa couverture. Cet exemple illustre bien la volonté de la cédante d’acheter des traités avec un nombre impor-
tant de reconstitutions quand elle sait que la fréquence de sinistres atypiques sera élevée.

Le plus souvent la prime associée aux traités avec reconstitutions est constituée :
— d’une prime de base qui donne le droit à la cédante d’utiliser la portée simple.
— d’une prime supplémentaire pour utiliser les autres portées du traité.

La prime supplémentaire est appelée prime de reconstitutions car elle sert à reconstituer la capacité consommée par
les sinistres survenus plus tôt au cours de l’année.

Généralement, elle est payée au fur et à mesure de la consommation de la capacité : la survenance d’un sinistre
touchant la ligne réassurée entraîne alors la « reconstitution » de la portée par le paiement de la prime de reconsti-
tution.
Le montant des primes de reconstitutions est fixé à l’avance et s’exprime généralement en pourcentage de la prime
initiale et est payé pro rata capita (proportionnellement au montant de portée consommé).

80
4.1.5 La Réassurance du risque Catastrophe
La Réassurance du risque Catastrophe se fonde sur des bases légales très différentes d’un pays à l’autre et ce même
au sein de l’union européenne.
Certains pays disposent d’un régime spécial d’assurance des catastrophes naturelles comme l’Italie qui a préféré gérer
les catastrophes naturelles par des interventions ponctuelles de l’état en fonction des circonstances.
Le système français a mis en place un régime dit CatNat qui impose aux assureurs de consacrer une prime uniforme
de leurs contrats de dommages aux biens à l’indemnisation des catastrophes naturelles, tempêtes exclues 3 qui s’élève
à:
— 12 % de la prime pour les biens autres que véhicules à moteur.
— 6% des primes liées au vol et aux incendies.

Le régime est activé une fois l’état de catastrophe naturelle décrété par un arrêté interministériel, pour les biens
couverts par un contrat d’assurance de type « dommage aux biens ».
Il permet ainsi d’assurer la solvabilité des assureurs opérant en France, et donc de protéger les assurés contre des
sinistres pouvant mettre en danger jusque leur assureur.

D’autre part, l’originalité du système français réside dans la nature de la Caisse Centrale de Réassurance déte-
nue à 100% par l’Etat français, qui intervient notamment dans le domaine des catastrophes naturelles en offrant aux
assureurs une couverture en illimité.
En pratique, elle offre aux assureurs la possibilité de se réassurer de deux manières différentes :
— un traité en quote-part à 50 % ;
— un traité en excédent de perte annuelle de priorité 200% et de portée illimitée.

Figure 4.7 – Graphique : La garantie CATNAT de la CCR

Ainsi, la CCR intervient en cas de sinistralité due à une catastrophe naturelle, d’abord via un quote-part puis
par un Stop-Loss sur la rétention du quote-part.

3. CCR - Le régime CAT NAT

81
4.2 Tarification d’un traité classique de Réassurance
Nous nous proposons à présent de tarifier un traité classique de réassurance en excédents de sinistres par évè-
nements en faisant l’hypothèse d’un traité avec reconstitutions gratuites et illimitées. Comme expliqué
précédemment, pour une couverture CAT NAT, le choix se portera toujours sur un traité XS par évènement permet-
tant de s’appliquer à toutes les polices du portefeuille touchées par un seul et même évènement.
La définition d’un évènement est spécifié dans les termes du traité de façon très précise pour éviter des malentendus
qui peuvent avoir un rôle important pour la cédante et pour le réassureur.

4.2.1 Calcul de la prime pure


Pour tarifier une tranche de réassurance, il faut utiliser la distribution de perte que l’on a estimé en sortie du
modèle CAT.

De manière générale, la prime commerciale qui sera proposée à la cédante pour une tranche de réassurance est
composée de trois éléments principaux :
— La prime pure, égale à l’espérance de la charge annuelle pour le réassureur.
— Un coefficient de chargement qui inclut une notion d’incertitude sur le montant des pertes
— Un chargement pour frais de gestion.

Bien que la prime pure reste relativement aisée à déterminer à partir du moment où nous disposons des sorties du
modèle CAT, la problématique dans la détermination du coefficient de chargement est souvent délicate.
Dans la suite, nous allons considérer un chargement égal à 15% de l’écart-type de la distribution de pertes et 10%
pour les frais de gestion.

Nous avons donc une formule pour déterminer une prime commerciale qui prend la forme suivante :
PP + C ∗ σ
PC =
(1 − g)
où :
— PC est la prime commerciale du traité que nous cherchons à déterminer.
— PP est la prime pure calculée à l’aide de nos sorties du modèle CAT.
— σ est l’écart-type de la distribution de pertes.
— C est le taux de chargement de sécurité supposée égale à 15%.
— g est le taux de chargement pour frais de gestion supposé égale à 10%.
Nous avons vu précédemment la formule donnant la charge du réassureur pour un sinistre donné donc s’il est
engagé dans un traité A CATXL B, nous avons

Creass (S) = min (max (Si − B, 0) , A)


La prime pure du traité étant égale à l’espérance de cette charge, nous avons :
N
1 X
PP = Creass (Si )
N i=1

où :
— N est le nombre d’évènements simulés dans le modèle.
— Si est le coût de l’évènement i pour l’assureur.
De plus, nous pouvons aussi déterminer l’écart-type de la distribution de pertes du réassureur s’écrivant alors :
v
u
u1 X N
2
σ=t (Creass (Si ) − P P )
N i=1

82
Ainsi, pour un traité 100XS100, qui protège la cédante contre les sinistres dont les montants de pertes sont supé-
rieures à 100 millions d’euros et ceci jusqu’à hauteur de 100 millions, nous pouvons calculer à titre d’exemple la prime
commerciale issue du modèle CAT :

— Prime Pure P P = 2.39 M€


— Ecart type σ = 18,1 M€
— Prime Commericale P C = 5.68 M€

Il est usuel dans la réassurance des catastrophes naturelles d’avoir des écarts-types largement supérieurs à la moyenne
traduisant alors une très forte volatilité des pertes simulées comme c’est le cas ici.

Nous pouvons par ailleurs, représenter sur un même graphique la distribution de pertes de la cédante et du ré-
assureur comme ci-dessous.
Nous constatons alors que la fonction de répartition du réassureur (en bleue) est toujours en dessous de celle de la
cédante et qu’elle sature plus rapidement que celle de la cédante en raison de la portée fixée à 100M€ laissant à la
charge de la cédante les pertes supérieures à ce seuil.

Figure 4.8 – Graphique : Distribution de pertes de la cédante et du réassureur

Dans cet exemple, bien que le prix reste relativement peu cher comparé à la capacité offerte, nous constatons qu’ici
le réassureur ne prend que peu de risques et que la cédante garde en rétention la majorité de la sinistralité.
Les inondations étant plutôt une catastrophe naturelle de « fréquence » (même si ce terme est peu adapté aux catas-
trophes) en comparaison aux tremblement de terre, il faudrait envisager une tranche avec une priorité plus faible pour
un transfert de risque plus important. Cependant, mécaniquement, une tranche avec cette configuration coûterait
plus chère que celle proposée ci-dessus.

Ainsi, dans la prochaine section, nous allons mettre en place une procédure pour déterminer la tranche de Réas-
surance la plus favorable possible du point de vue de la cédante.

83
4.3 Optimisation de la réassurance
Nous avons pu voir dans la section précédente qu’un assureur peut avoir recours à la réassurance pour diverses
raisons dont la plus évidente est la couverture directe qu’elle lui procure permettant ainsi une meilleure stabilité et
un lissage de son résultat.
Avec l’achat de réassurance, l’engagement net de l’assureur étant réduit, son besoin de capital immobilisé c’est-à-dire
le besoin en fonds propre subit mécaniquement une diminution conséquente.
La question de l’optimisation de la réassurance est une problématique qui reste de nos jours encore très complexe au
vu des nombreux paramètres à prendre en compte et de nombreuses approches ont été développées afin d’y apporter
des réponses.
Il en ressort que deux éléments doivent être forcément pris en compte pour une couverture optimale : le résultat de ré-
assurance appelé aussi coût de la réassurance et la diminution des exigences réglementaires en termes de fonds propres.

Nous allons à travers cette section retenir un critère purement économique pour l’optimisation de la réassurance
qui est celui de la création de la valeur défini comme le gain de capital procuré diminué du coût de la réassurance.
En pratique, utiliser ce critère consiste à considérer que l’assureur agit en tant qu’agent économique rationnel et
néglige l’aversion au risque de l’assureur qui peut dans certaines situations le contraindre à se réassurer à perte (et
ainsi avec une création de valeur négative).

Dans la suite, les raisonnements d’optimalité seront considérés du point de vue de l’assureur, acheteur de la ré-
assurance, encore appelé cédante.
Ainsi, plus la création de valeur est élevée, plus grand sera l’intérêt de la cédante pour la structure de réassurance
associée.

Le processus de recherche du traité optimal est définit à partir du processus d’évaluation suivant :
— Simulation de la sinistralité CAT à l’aide de notre modèle CAT.
— Calcul du coût de réassurance.
— Calcul du capital dégagé.
— Déduction de la création de la valeur

Figure 4.9 – Schéma : Processus d’évaluation de l’efficacité d’un programme de réassurance

84
4.3.1 Définition du coût de réassurance
On définit le concept de coût de réassurance par son impact sur le résultat financier de la cédante.
Cette grandeur inclut :
— la prime commerciale P C du traité de réassurance supposée égale à la prime pure augmentée d’un coefficient
de chargment censé tenir compte de la volatilité des sinistres et permettant au réassureur de dégager une
marge.
— la charge du réassureur supposée égale à la prime pure P P du traité
— le taux d’imposition des sociétés τIS qui intervient sur le résultat total et dont l’impact n’est pas négligeable.
Il est supposé constant et égal à 34% pour le cas de la France.
— La perte en rendement financiers liée à la cession d’une partie des primes récoltées qui ne sont donc pas placées
et ne rapport pas d’intérêts.
Ci-dessous, nous trouvons un exemple permettant d’illustrer le principe du coût de réassurance :

Sans Réassurance Avec Réassurance


Primes récoltées 100 100
Sinistres constatés 70 70
Résultat technique brut de Réassurance 100 -70 = 30 100 - 70 = 30
Primes cédées 0 35
Charge réassureur (PP) 0 15
Coût de la réassurance 0 35-15 =20
Résultat technique net de réassurance 30 30 -20 =10
Impôt sur les sociétés (τIS ) 34%*30 =10.2 34%*10 =3.4
Rendement financier des primes 100*2%= 2 65*2%=0.13
Résultat 30 + 2 - 10.2 = 19.2 10 + 0.13 -3.4 = 6.7

Table 4.2 – Tableau : Impact de la réassurance sur le résultat

Dans la pratique, il y a d’autres facteurs qui doivent être inclus dans le calcul du résultat technique de réassurance :
— Commisions : elles représentent la participation du réassureur dans les frais engagés par l’assureur (frais de
gestion et d’acquisition du risque) sur les affaires que celui-ci cède en réassurance et qui s’appliquent seulement
aux traités proportionnels.
— Participations aux bénéfices : lorsque le résultat de la réassurance est bon, le réassureur peut accepter de
verser une participation aux bénéfices (PB) au prorata.
— Frais de courtage : frais payés aux courtiers par la cédante, les frais de courtage varient selon le type de traité.
Les traités non-proportionnels coûtent plus cher que les traités proportionnels
— Frais d’administration et autres frais.

Dans la suite, nous allons négliger la perte liée aux rendements financiers, commissions et autre frais
annexes considérant que ceux-ci sont peu significatifs.
Ainsi, le coût de la réassurance est défini par :

Coutreass = (1 − τIS ) ∗ (P C − P P )

85
4.3.2 Impact sur le capital immobilisé
L’ancienne réglementation, Solvabilité I, mesurait mal l’impact de certains outils de Risk Management sur la
solvabilité de la compagnie d’assurance.
Ainsi, sous Solvabilité 1, l’impact de la réassurance sur la marge de solvabilité exigée était simple à calculer mais
particulièrement frustre :
— En non-vie, les traités proportionnels étaient pris en compte jusqu’à 50% du taux de cession.
— Pas d’impact pour les traités non proportionnels.

La nouvelle réglementation Solvabilité II permet à présent de tenir totalement compte de la Réassurance pour la
quantification des risques et laisse aux assureurs le choix, ou bien d’utiliser une formule standard, ou bien de déve-
lopper un modèle interne justifié.

AXA a choisi de développer un modèle interne fondé sur le concept du STEC (Short Term Economic Capital ),
qui joue le même rôle que le SCR dans la formule standard.
Ainsi, pour toute activité risqué X générant un résultat RX , le capital requis associé à cette seule activité vaut :

ST ECX = E [RX ] − V aR0,5% (RX )

Ce principe est alors appliqué pour chaque calcul de capital associé à un type de risque.

Le modèle interne de Solvabilité d’AXA définit trois risques pour l’activité P&C (Property&Casualty) : le risque
de prime (premium risk ), le risque de réserve (reserve risk ), et enfin le risque Catastrophe (catastrophe risk ).
A chacun de ces risques doit être associé un capital.
Le risque catastrophe est défini pour les contrats de réassurance relatifs aux catastrophes naturelles.
Il sera assimilé dans cette étude à un risque de prime.

Le risque de réserve résulte de la variabilité des paiements dans le temps, ainsi que de l’évolution de l’estima-
tion de la charge ultime. Ce risque est donc particulier aux branches d’activités à développement long (Long Tail ).
Les traités étudiés ici sont relatifs au risque CAT qui est une branche d’activité considérée comme Short Tail.
Le risque de réserve sera négligé et ne sera pas traité dans la suite.

Nous allons à présent examiner l’effet de la réassurance sur le besoin en capital dans le cadre du modèle interne
AXA permettant ainsi d’en déduire le coût du capital économisé associé. Nous avons vu au-dessus comme calculer
un SCR CAT et nous supposons que celui se résume au risque inondation.
Nous rappelons donc ci-dessous que la formule est donnée par :

SCRCAT = E[R] − V aR0,5% (R)

avec R le résultat technique brut de réassurance.


Nous pouvons donc établir que la variation de SCR induite par la réassurance s’écrit :

∆SCRCAT = (E[R0 ] − V aR0,5% (R0 )) − E[R] − V aR0,5% (R)




En notant S et S 0 les variables aléatoires représentant respectivement la sinistralité brute et nette de réassurance
de l’assureur, on dispose des relations suivantes :

R = Pa − S
R 0 = Pa − S 0 − P C

avec Pa les primes acquises et P C la prime pour le traité de réassurance considéré.


On en déduit :

E [R] = Pa − E [S]
E [R0 ] = Pa − E [S 0 ] − P C

Dans le cas de traités avec reconstitutions gratuites et illimités, la prime P C est déterministe et en utilisant les
propriétés de la V aR :

V aR0,5% (R) = Pa − V aR99,5% (S)


V aR0,5% (R0 ) = Pa − V aR99,5% (S 0 ) − P C

86
Or nous savons que E [S 0 ] = E [S] − P P , nous obtenons alors :

∆SCRCAT = V aR99,5% (S 0 ) − V aR99,5% (S) + P P

Aussi, il s’agit de noter que les besoins en capitaux Solvabilité II pour le module non-vie ne sont pas seulement la
conséquence du risque de souscription.
Le capital immobilisé par un assureur est une combinaison des plusieurs risques.
L’effet de diversification doit être pris en compte dans notre calcul.

Soit ρCAT le coefficient de diversification du SCRCAT dans le SCR total de l’entité AXA France. Nous obtenons
finalement :
∆SCRglobal = (1 − ρCAT ) V aR99,5% (S 0 ) − V aR99,5% (S) + P P


Enfin, cette diminution de fonds propres a deux conséquences principales pour l’assureur :
— D’un côté, il y a une diminution de la rémunération absolue des actionnaires, modélisée par un rendement α.
— De l’autre, la diminution des produits financiers (taxés au taux τIS ) issus du placement des fonds propres
modélisée par le rendement φ.

Ainsi, l’impact économique de la variation de fonds propres peut s’écrire :

GainF P = −∆SCRglobal ∗ [α − φ (1 − τIS )]


Limites du modèle :
La structuration de réassurance est très simplifiée ici :
— Dans la réalité, il y a plusieurs tranches de réassurances avec des primes de réassurance et un nombre de
reconstitutions différent.
— Nous n’avons pas tenu compte du risque de contrepartie lié au fait que la cédante même en se réassurant est
juridiquement responsable en cas de faillite du réassureur.

4.3.3 Détermination du traité optimal dans un cas simple


La problématique de la recherche du traité de réassurance optimal revient à déterminer la priorité et la portée
d’un traité CATXL qui maximiserait la création de valeur définie dans la section précédente.
Ainsi, plus la création de valeur est élevée, plus grand sera l’intérêt de la cédante pour la structure de réassurance
étudiée.
La méthode de calcul de la marge de solvabilité dans la directive Solvabilité II ayant pour objectif de balayer l’ensemble
des risques (et donc des activités) de l’assureur, l’économie de marge synthétise dans l’idéal l’impact de la réassurance
sur la cédante.
L’économie réalisée en coût de capital, confrontée à son coût d’acquisition fournit en théorie et sous réserve des
hypothèses émises toute l’information nécessaire sur l’apport de la réassurance.
La création de valeur s’écrit donc :

CV = GainF P − Coutreass
= −∆SCRglobal ∗ [α − φ (1 − τIS )] − (1 − τIS ) ∗ (P C − P P )

Plusieurs paramètres sont indépendants de la structure de réassurance dans cette formule : τIS , α, φ, ρCAT .

— τIS : taux d’imposition des sociétés égale à 34% en France


— α − φ(1 − τIS ) : souvent désignée par l’appellation spread, il sera fixé dans la suite à 6%, taux recommandé
par le QIS 5 4 ce qui correspond environ à un spread à un an pour un actif noté BBB. Cette approximation
passe donc outre la différence induite par le taux de taxation mais donne l’assurance d’utiliser un indicateur
de référence donc cohérent avec le marché.
— ρCAT : coefficient de diversification que l’on supposera égale à 70%.

La méthode utilisée pour la détermination du traité optimal repose sur la force « brute » en testant tous les combi-
naisons possibles de traités.
Les priorités et les portées étudiées s’échelonnent donc 0 à 1.5 milliards d’euros par pas de 50 millions d’euros.

4. QIS 5- Quantitative Impact Study

87
Les résultats sont disponibles sur la figure-ci-dessous où chaque cellule correspond à un traité donné avec la priorité
en abscisse et la portée en ordonnée. La couleur de la cellule donne une indication sur la valeur de la création de
valeur avec une teinte plus ou moins prononcée.
Les valeurs numériques obtenues sont pour la plupart surestimées ou sous-estimées en raison des
nombreuses hypothèses effectuées d’où l’obligation d’interpréter la création de valeur plus comme un
score que comme une valeur comptable réelle.

Nous constatons que le traité « optimal » au sens de la Création de la valeur est le traité 200XS150.
La création de valeur associée est égale à 0.7m€ décomposée en un coût de réassurance de 1.7m€ et d’un gain
économique lié à la diminution des fonds propres de 2.4m€.
Plusieurs remarques peuvent être faites sur cette figure :

Nous constatons tout d’abord la non-linéarité de l’évolution de ce score suivant la priorité et la portée considé-
rées. Ainsi, nous ne détectons pas de tendance globale qui se détache ou de règles facilement perceptibles permettant
de comprendre les résultats globaux.
Cependant, le sinistre maximal disponible dans notre catalogue d’évènement étant à 1.7 milliards d’euros, nous
constatons que lorsque la somme de la priorité et de la portée dépasse à ce seuil, la création de valeur n’évolue
quasiment plus.
Nous notons par ailleurs, une zone de faible création de valeur pour les traités avec une priorité entre 300 et 500 et
une portée élevée. Compte tenu du fait que le traité optimal est très vite « atteint », il conviendrait de réitérer la
même procédure une seconde fois en réduisant les valeurs possibles de priorité et de limite et en choisissant un pas
plus petit pour être plus précis dans la détermination du traité optimal.

Figure 4.10 – Heatmap : Création de valeur associée aux traités testés

88
Nous pouvons par ailleurs construire les heatmaps associées cette fois-ci au coût de Réassurance d’une part et au
gain lié à la diminution des exigences d’autre part.
Nous constatons alors que ces deux figures sont fortement liées mettant en lumière que plus l’économie en fonds
propres est forte, plus le coût moyen de réassurance est élevé.

Un traité optimal est donc un traité qui permettra d’atteindre le meilleur compromis possible entre un faible coût
moyen de réassurance (caractérisé par une priorité globalement forte comme en témoigne le graphique 4.11) et une
économie significative de fonds propres (caractérisé par une portée élevée sur le graphique 4.12).

Le coût de réassurance présente une évolution très fortement segmentée où la tendance est clairement à la hausse du
coût de réassurance quand la priorité diminue et la portée augmente. Ainsi, à portée constante, réassurer une tranche
haute - c’est à dire de priorité élevée - coûte moins qu’une priorité plus faible.
Nous constatons que le coût est maximal quand la portée est élevée et la priorité faible car la différence entre la
prime technique et la prime pure dans cette situation est forte en raison de la forte volatilité des pertes.

Pour le gain lié à la diminution des fonds propres, l’analyse s’avère plus compliquée.
Nous retrouvons malgré tout les mêmes tendances que pour le coût moyen de Réassurance c’est-à-dire que le gain
est maximal pour une faible priorité et une forte portée puisque c’est ce genre de traités qui modifie le « plus » la
distribution de pertes.
Nous détectons d’ailleurs la même zone de faible valeur que la heatmap de la création de valeur.

Figure 4.11 – Heatmap : Coût moyen de Réassurance Figure 4.12 – Heatmap : Gain lié à la baisse des FP

89
Conclusion

Le travail réalisé dans ce mémoire avait pour objectif de participer au développement d’un modèle stochastique
d’inondation en France, appliqué au portefeuille d’AXA France.
Devant la complexité de ce type de modèle, de nombreuses applications sont envisageables.
Le module Aléa (ou Hazard ) n’a pas fait l’objet d’une analysee poussée considérant ainsi que la création du catalogue
d’évènements d’inondations simulés sortait du périmètre strico sensu de ce mémoire mais a une influence capitale
sur les résultats financiers et sur la quantification du risque réel.
Pour la construction du catalogue, les techniques hydrauliques et hydrologiques sont en constante évolution pour
tenir compte de nombreux phénomènes physiques complexes comme les phénomènes de Flash Flood ou crue rapide
résultant d’une forte précipitation qui pour l’instant sont mal modélisés par le module physique du modèle.
De plus, la résolution de 75m sur 75m considéré jusqu’ici comme acceptable et raisonnable pourrait être encore
améliorée et affinée pour prendre en compte des micro-phénomènes physiques.

La qualité du module Exposition fortement reliée à la qualité des données du portefeuille représente un enjeu crucial
mais malheureusement laisse peu de pistes d’amélioration pour le modélisation elle-même. De sérieux progrès pour-
raient ainsi être réalisés au niveau du portefeuille d’exposition, qui n’est cependant qu’une entrée du modèle, donc
très difficile à modifier. Bien que la plupart de ces renseignements soient probablement connus à la souscription des
polices présentes dans le portefeuille, leur mise à disposition pour les équipes de modélisation de catastrophes néces-
siterait dans certains cas la refonte des systèmes d’information des entités locales. En effet, leur structure actuelle ne
permet pas à ce jour le transfert de toutes les informations nécessaires.

Une partie importante du travail de ce mémoire a consisté au développement du module Vulnérabilité permet-
tant de faire la liaison entre l’aléa modélisé (une hauteur d’eau) et la perte économique à la charge de l’assureur.
Pour cela, nous avons utilisé des modèles statistiques classiques que sont les GBM et les GLM.
Devant les multiples sources d’incertitudes, nous avons mené plusieurs tests de sensibilités afin de quantifier l’in-
fluence de certains choix sur la distribution de pertes finales.
L’écueil principal du module vulnérabilité repose sur la réelle difficulté d’estimer la fréquence de sinistre (ou Chance
of Loss ainsi définie dans ce mémoire) pour des raisons évidentes de mauvaise qualité de données.
Il serait bon d’envisager dans un futur proche de travailler sur les données pour calibrer un modèle à l’instar de la
partie sur les taux de destruction permettant ainsi une modélisation plus précise de la fréquence de sinistre.
Faute de temps, les modèles GAMLSS à variance aléatoire auraient constitué une belle innovation en la matière et
semblent une alternative plausible à l’utilisation de coefficient de variation pour tenir compte d’une volatilité dans
les résultats.
Les deux pistes décrites apporteraient des améliorations indéniables à la qualité du modèle. Mais, comme cela a été
décrit auparavant, la modélisation actuellement développée reste acceptable en première approche. Ses résultats sont
globalement cohérents avec ceux attendus ; ils peuvent donc être conservé comme base d’un algorithme plus complet
et robuste.

L’intérêt du mémoire réside enfin dans le développement d’une solution informatique innovante répondant à l’exi-
gence en termes calculatoires des modèles CAT nécessitant une puissance de calcul très élevée. L’implémentation
du modèle en R et en C++ est le résultat de nombreuses réflexions sur l’efficacité du processus et a permis ainsi
d’améliorer considérablement la vitesse et le temps de calcul.
La richesse et la complexité de la structure envisagée permet ainsi de l’étendre à d’autres périls et à d’autres pays
de façon aisée et ainsi une industrialisation dans la création des modèles à l’avenir.

Finalement, les résultats du modèle ont permis de nombreuses applications.


Sur le plan réglementaire, l’utilisation d’un modèle CAT permet de déterminer les besoins en fonds propres de l’assu-
reur de la même façon que les autres modèles vendeurs à ceci près que le processus de modélisation est complètement
transparent permettant ainsi d’être plus à l’aise avec les résultats produits.
Les cartes de risque développés à l’aide du modèle présentent un intérêt double : d’un côté pour les souscripteurs
en assurance soucieux de déterminer si le bien assuré est dans une zone à risque mais également pour les équipes

90
d’actuaires souhaitant tarifer la garantie Catastrophe naturelle des contrats classiques d’habitation en les utilisant
comme un indicateur fiable et précis assimilant cette information à un zonage géographique.
Au niveau de la Réassurance, bien que le cas de la France soit plutôt particulier, la distribution des pertes annuelles
permet de tarifer un traité de réassurance non-proportionnel. Enfin, la dernière section concernant l’optimisation de
la réassurance, sujet qui aurait pu faire l’objet d’un mémoire au vue de sa complexité, a permis de mettre en évidence
un indicateur supposé objectif qu’est la création de valeur et proposer un processus d’évaluation du programme de
réassurance optimal.

91
Table des figures

1 Schéma : Structure d’un modèle CAT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2


2 Schéma : Aperçu d’un processus de calibration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
3 Graphique : Courbe de Lorenz des différents modèles testés . . . . . . . . . . . . . . . . . . . . . . . . 4
4 AEP & OEP en échelle log . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
5 AEP & OEP en échelle standard . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
6 Graphique : Sensibilité du modèle aux paramètres de vulnérabilité . . . . . . . . . . . . . . . . . . . . 5
7 Carte : Carte de risque de première catégorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
8 Graphique : Distribution de pertes de la cédante et du réassureur . . . . . . . . . . . . . . . . . . . . 7
9 Heatmap : Création de valeur associée aux traités testés . . . . . . . . . . . . . . . . . . . . . . . . . . 7
10 CAT Model framework . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
11 Overview of Calibration Process . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
12 Lorenz curve for all tested models . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
13 AEP & OEP in log scale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
14 AEP & OEP in linear scale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
15 Model sensibility to inputs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
16 Flood Risk map . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
17 Loss distribution for the insurer and reinsurer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
18 Heatmap : Value creation for a set of reinsurance treaties . . . . . . . . . . . . . . . . . . . . . . . . . 14

1.1 Carte : Répartition géographique du groupe AXA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3


1.2 Graphique : Nombre d’évènements catastrophiques : 1970-2015 . . . . . . . . . . . . . . . . . . . . . . 4
1.3 Graphique : Dommages assurés par opposition aux dommages non assurés en milliards de dollars . . . 5
1.4 Schéma : Principe d’un modèle CAT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.5 Schéma : Structure schématique d’un modèle CAT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.6 Répartition des stations de jaugeage en France . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.7 Carte : Exemple d’empreinte pour un évènement fictif inondation sur Paris . . . . . . . . . . . . . . . 12
1.8 Schéma : Exemple de courbe de vulnérabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.9 Schéma : Incertitude autour d’une valeur moyenne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.10 Schéma : Application des conditions financières . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.11 Graphique : Exemple d’AEP et d’OEP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.12 Tableau : Exemple d’Event Loss Table . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

2.1 Carte : Répartition des sinistres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18


2.2 Évolution de l’indice FFB . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.3 Variation de l’exposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.4 Carte : Empreinte simulée de la Crue du Sud de 1999 . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.5 Fonction de répartition des précipitations pour le Sud de la France . . . . . . . . . . . . . . . . . . . . 21
2.6 Fonction de répartition des précipitations pour le Nord de la France . . . . . . . . . . . . . . . . . . . 21
2.7 Carte : Représentation des quantiles de pluie sur le territoire française . . . . . . . . . . . . . . . . . . 21
2.8 Carte : Nombre d’arrétés CAT NAT dans la région Sud-Est . . . . . . . . . . . . . . . . . . . . . . . . 22
2.9 Carte : Densité en nombre d’habitants par km2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.10 Carte : Réseau de rivières Carthage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.11 Processus de calibration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.12 Fonctions de lien usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.13 Tableau : Loi de poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.14 Tableau : Loi Gamma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.15 Deux exemples de lois de la famille exponentielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.16 Graphique : Exemples de résidus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.17 Graphique : Courbe de Lorenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.18 GBM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

93
2.19 Graphique : Influence marginale des variables internes . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.20 Graphique : Influence marginale des variables inondations . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.21 Graphique : Influence marginale des variables externes . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.22 Graphique : Taux de destruction empirique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.23 Graphique :Partie non-linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.24 Graphique : Taux de destruction dû au nombre d’arrêtés CAT NAT . . . . . . . . . . . . . . . . . . . 37
2.25 Graphique : Modèle 1 - Représentation du GLM et de ses relativités . . . . . . . . . . . . . . . . . . . 38
2.26 Graphique : Modèle 1 - Courbe de Lorenz du GBM et du GLM . . . . . . . . . . . . . . . . . . . . . 38
2.27 Graphique : Modèle 2 - Représentation du GLM et de ses relativités . . . . . . . . . . . . . . . . . . . 39
2.28 Figure : Taux de destruction Building pour les 4 zones de risque . . . . . . . . . . . . . . . . . . . . . 40
2.29 Graphique : Courbe de vulnérabilité Contents - Classe 1 . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.30 Taux de destruction pour le contenu de la branche industriel . . . . . . . . . . . . . . . . . . . . . . . 42
2.31 Graphique : Modélisation de la durée de l’évènement en fonction du volume d’eau dans l’empreinte . . 43
2.32 Graphique : Taux de destruction Garantie B et C combinées . . . . . . . . . . . . . . . . . . . . . . . . 44
2.33 Graphique : Taux de destruction combiné pour Immeuble . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.34 Graphique : Calibration de loi à queue lourde . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.35 Graphique : Taux de destruction pour chaque évènement . . . . . . . . . . . . . . . . . . . . . . . . . . 46
2.36 Graphique : COV pour chaque branche d’activité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
2.37 Graphique : Distribution log-normale du COV pour le secteur Résidentiel . . . . . . . . . . . . . . . . 47
2.38 Graphique : Distribution de probabilité du taux de destruction . . . . . . . . . . . . . . . . . . . . . . 47
2.39 Schéma : Le Concept de COL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.40 Carte : Représentation de l’empreinte de la crue du Rhône et des sinistres observés . . . . . . . . . . 48
2.41 Graphique : Chance of Loss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
2.42 Graphique : Fréquence de sinistre pour le Résidentiel . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
2.43 Graphique : Chance of Loss en fonction de la hauteur d’eau pour MRH-M et MRH-R . . . . . . . . . 50
2.44 Graphique : Chance of Loss pour toutes les branches d’activités . . . . . . . . . . . . . . . . . . . . . 51
2.45 Graphique : Relativités de la fréquence de sinistres suivant les zones de risques . . . . . . . . . . . . . 51
2.46 Graphique : Fonctions de répartition pour une valeur d’aléa fixée pour les 3 sites . . . . . . . . . . . . 52
2.47 Graphique : Tirage de nombres aléatoires sur l’axe des ordonnées et déduction du taux de destruction 53

3.1 Graphique : Convergence des pertes simulées vers la moyenne simulée . . . . . . . . . . . . . . . . . . 57


3.2 Graphique : Incertitude autour de la moyenne pour l’AEP du modèle . . . . . . . . . . . . . . . . . . . 58
3.3 Graphique : Backtesting des taux de destruction sur les évènements historiques . . . . . . . . . . . . . 60
3.4 Graphique : Distribution des pertes brutes et nettes de conditions financières par évènements . . . . . 61
3.5 Graphique : Distribution des pertes annuelles associées au portefeuille d’exposition . . . . . . . . . . . 62
3.6 AEP & OEP en échelle log . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
3.7 AEP & OEP en échelle standard . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
3.8 Graphique : Prime pure moyenne (en taux de destruction) par mois de l’année . . . . . . . . . . . . . 64
3.9 Graphique : OEP par mois . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
3.10 Graphique : Contribution des différentes branches d’activités à l’AEP . . . . . . . . . . . . . . . . . . 65
3.11 Graphique : Contribution de l’OEP dans l’AEP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
3.12 Graphique : Représentation de la TVAR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
3.13 Graphique : Exemple de 2 EP curves . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
3.14 Graphique : Sensibilité du modèle aux paramètres de vulnérabilité . . . . . . . . . . . . . . . . . . . . 68
3.15 Carte : Carte de risque de première catégorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
3.16 Carte : Moyenne des pertes modélisées par département . . . . . . . . . . . . . . . . . . . . . . . . . . 69
3.17 Carte : Représentation de l’empreinte de la crue de Paris en 1910 . . . . . . . . . . . . . . . . . . . . 70
3.18 Tableau : Durée de l’évènement Paris 1910 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70

4.1 Graphique : L’effet stabilisateur de la Réassurance dans le marché Français . . . . . . . . . . . . . . . 74


4.2 Schéma : Flux entre réassureur et cédante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
4.3 Schéma : Représentation d’un quote-part avec un taux de cession de 30% . . . . . . . . . . . . . . . . 76
4.4 Schéma : Fonctionnement d’un excédent de plein avec K=500 et C=14*K . . . . . . . . . . . . . . . . 77
4.5 Schéma : Taux de cession pour un XS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
4.6 Schéma : Fonctionnement d’un traité par excédent de sinistre . . . . . . . . . . . . . . . . . . . . . . . 79
4.7 Graphique : La garantie CATNAT de la CCR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
4.8 Graphique : Distribution de pertes de la cédante et du réassureur . . . . . . . . . . . . . . . . . . . . 83
4.9 Schéma : Processus d’évaluation de l’efficacité d’un programme de réassurance . . . . . . . . . . . . . 84
4.10 Heatmap : Création de valeur associée aux traités testés . . . . . . . . . . . . . . . . . . . . . . . . . . 88
4.11 Heatmap : Coût moyen de Réassurance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
4.12 Heatmap : Gain lié à la baisse des FP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89

94
Liste des tableaux

1.1 Tableau : Les différents types d’inondations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

2.1 Tableau : Les différentes branches d’activité d’AXA France . . . . . . . . . . . . . . . . . . . . . . . . 18


2.2 Tableau : Impact de l’ajout des zones complémentaires sur le taux de capture des sinistres . . . . . . 20
2.3 Tableau : Échelles de vulnérabilité pour le risque industriel . . . . . . . . . . . . . . . . . . . . . . . . 40
2.4 Tableau : Backtesting des durées modélisées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43

3.1 Tableau : Event Loss Table produit par le modèle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58


3.2 Tableau : OEP par période de retour . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63

4.1 Tableau : Les quatre formes juridiques de la réassurance . . . . . . . . . . . . . . . . . . . . . . . . . . 73


4.2 Tableau : Impact de la réassurance sur le résultat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85

95
Bibliographie

[Da07] ANDERSON Duncan et al. A Practitioner’s Guide to Generalized Linear Models. 2007.
[Ric09] Paul Kaye Richard Evans Andrew Ford. Introduction to Catastrophe Models and Working with their
Output. 2009.
[Ben11a] Aon Benfield. Czech Republic Flood Model Documentation. 2011.
[Ben11b] Aon Benfield. Thailand Floods- Event Recap Report. 2011.
[Bri11] Association of British Insurers. Industry Good Practice for catastrophe modelling. 2011.
[Sta11] Ray Stanislas. Optimalité des structures de réassurance. 2011.
[Air12] Air. Taking a comprehensive view of Catastrophe Risk Worldwide. 2012.
[Ass13] Lloyd’s Market Association. Catastrophe modelling- Guidance for non-catastrophe modellers. 2013.
[Cha13] Arthur Charpentier. Actuariat IARD- ACT2040 - Réassurance. 2013.
[Cza13] Jeffrey Czajkowski. Catastrophe Model Based Quantification of Riverine and Storm Surge Flood Risk in
Texas. 2013.
[IAR13] Journées d’études IARD. La modélisation des catastrophes naturelles. 2013.
[Cha14] Gabriela Chavez-Lopez. Uncertainty in CAT models. <http://www.actuaries.org.uk/>. [En ligne ;
dernier accès 9 décembre 2016]. 2014.
[Thi14] Geoffrey ECOTO Thierry COHIGNAC. La tarification de réassurance CAT NAT. 2014.
[CCR15] CCR. Modélisation des catastrophes naturelles en réassurance avec garantie de l’Etat. 2015.
[Gui15] David Guillemot. Lien entre tarification des evènements climatiques en Multi-Risques Habitation et
modèle interne Non-vie. 2015.
[Pat15] Howard Kunreuther Patricia Grossi. Catastrophes modeling : A new approach to managing risk. 2015.
[RE15a] Swiss RE. Catastrophes naturelles et réassurance. <www.swissre.com/sigma/>. [En ligne ; dernier accès
16 septembre 2015]. 2015.
[RE15b] Swiss RE. Catastrophes naturelles et techniques en 2014 : les tempêtes convectives et hivernales génèrent
le plus de dommages. <www.swissre.com/sigma/>. [En ligne ; dernier accès 19 Décembre 2015]. 2015.
[Re15] Swiss Re. Les inondatons : un risque assurable ? <http : / / www . swissre . com / publications / Les _
inondations_un_risque_assurable.html/>. [En ligne ; dernier accès 16-Novembre-2016]. 2015.
[SCO15] SCOR. Reinsurability of Natural Catastrophes as Extreme Risks. 2015.
[Erm16] T. Ermolieva. Flood Catastrophe Model for Designing Optimal Flood Insurance Program : Estimating
Location-Specific Premiums in the Netherlands. 2016.
[Ini16] OASIS Initiative. OASIS Financial Module. <http://www.oasislmf.org/the-framework/framework-
components/>. [En ligne ; dernier accès 4-Octobre-2016]. 2016.
[Pat16] Howard Kunreuther Patricia Grossi. Catastrophe modeling : a new approach to managing risk. 2016.
[Re16] Munich Re. Claims management following natural catastrophes. 2016.

96

Vous aimerez peut-être aussi