Vous êtes sur la page 1sur 100

Mémoire présenté le :

pour l’obtention du Diplôme Universitaire d’actuariat de l’ISFA


et l’admission à l’Institut des Actuaires

Par : Maxime Coumes


Titre : Optimisation et structuration d’une couverture de réassurance pour des événements
catastrophes naturelles
Confidentialité :  NON  OUI (Durée :  1 an  2 ans)
Les signataires s’engagent à respecter la confidentialité indiquée ci-dessus

Membres présents du jury de Signature Entreprise : AXA France


l’Institut des Actuaires Nom :
Signature :
............................
Directeur de mémoire en entre-
............................ prise :
Nom :Mme Anne Suchel
............................ Signature :

Membres présents du jury de Invité :


l’ISFA Nom :
Signature :
............................
Autorisation de publication et
............................ de mise en ligne sur un site de
diffusion de documents actua-
............................ riels (après expiration de l’éventuel
délai de confidentialité)
Signature du responsable entreprise

Signature du candidat
Note : Par soucis de confidentialité, tous les montants en valeur absolue et les échelles
de graphiques ont été modifiés mais les proportions ont été conservés.

1
Résumé
L’assurance des catastrophes naturelles est une assurance obligatoire incluse dans le mon-
tant de la prime payée par les assurés. Face à l’importance du risque rencontré par AXA
France, la réassurance apparaît comme une évidence pour se protéger des inondations,
des tremblements de terre ou des ouragans cycloniques dans les départements et régions
d’outre-mer. La France possède un dispositif garantissant à chacun de ses citoyens une
indemnisation en cas de sinistre dit CATNAT. Pour cela, la Caisse Centrale de Réas-
surance propose une couverture de réassurance non-obligatoire au marché français avec
garantie de l’Etat.
Cette couverture de réassurance se compose d’un Quote Part avec un taux de cession à
50% avec des commissions fixes et variables en contrepartie et d’un Stop Loss illimité.
Le Quote Part à 50% représente une importante fuite de primes pour AXA France qui
devrait être compensée par le paiement de commissions. Cependant, en 2017 avec notam-
ment l’ouragan IRMA qui a fortement impacté la CCR, les commissions payées furent
nulles et la question de la rentabilité se pose pour AXA France. Nous proposerons dans
ce mémoire l’étude d’une couverture alternative à la couverture CCR actuelle à savoir
une couverture en Stop Loss tous périls agrégés, une couverture CCR modifiée avec un
taux de Quote Part plus faible ainsi qu’une couverture classique en Excess of Loss. Pour
cela, on cherchera à optimiser les couvertures proposées en terme de risque et de rentabi-
lité. Il conviendra alors de définir plusieurs méthodes de tarification pour nos différents
traités, une première méthode avec un chargement sur l’écart type de nos récupérations
et une deuxième avec un chargement sur le coût du risque pour AXA France. On verra
rapidement que la première méthode est éloignée des prix du marché notamment du fait
d’un risque brut assez conservateur et il sera important de s’intéresser au changement de
risque net de réassurance pour optimiser la priorité du Stop Loss. On envisagera aussi
une modification de la couverture CCR actuelle avec des primes correspondantes aux
primes payées par AXA France pour cette couverture ce qui nous permettra d’analyser
particulièrement la rentabilité et l’impact des commissions payées par la CCR.
AXA France possède actuellement un programme de réassurance qui couvre les catas-
trophes naturelles et non naturelles hors CATNAT couverts par la CCR et on étudiera
l’ajout des périls CATNAT dans cette couverture ce qui modifie profondément la réas-
surance d’AXA France et surtout le Risk Appetite qui est un indicateur très important
pour le Groupe AXA. On proposera des méthodes pour essayer de refondre cette cou-
verture et notamment le tranchage actuel. On utilisera des méthodes de classification
comme la méthode des K-means et la classification ascendante hiérarchique ainsi que des
estimateurs de théorie des valeurs extrêmes pour définir des seuils qui correspondent aux
rétentions de chaque tranche successive. Il s’agira de comparer le tranchage actuel avec
l’ajout des CATNAT au programme de réassurance actuel notamment en terme de risque
ainsi que de comparer les deux tranchages différents de notre programme.

Mots clés : Réassurance, Solvabilité 2, Optimisation, Tarification, Structuration, Classi-


fication, Théorie des valeurs extrêmes

2
Abstract
Natural catastrophe insurance is a compulsory insurance included in the amount of the
premium paid by the insured. Given the importance of the risk faced by AXA France,
reinsurance seems natural to protect the company against floods, earthquakes or cyclonic
hurricanes in the overseas departments and regions. France has a system guaranteeing
each of its citizens a compensation in case of an event called NATCAT. For this reason,
the "Caisse Centrale de Réassurance" offers a non-compulsory reinsurance cover to the
French market with State guarantee.
This reinsurance cover is composed with a Quote Part with a 50% cession rate with
fixed and variable commissions in return and an unlimited Stop Loss. The 50% Quote
Share represents a major premium leak for AXA France, which should be offset by the
payment of commissions. However, in 2017, with Hurricane IRMA, which had a major
impact on the CCR, commissions paid were nil and the question of profitability arose
for AXA France. We will propose the study of an alternative cover to the current CCR
cover, namely an all perils stop loss cover, a modified CCR cover with a lower Quote Part
cession rate and a classical Excess of loss cover. For this, we will seek to optimize the
different covers proposed in terms of risk and profitability. It will then be necessary to
define several methods of pricing for our various treaties, a first method with a loading
on the standard deviation of our recoveries and a second one with a loading on the cost of
the risk for AXA France. It will be seen quickly that the first method is far from market
prices in particular because of a fairly conservative gross risk and it will be important to
look at the modification of the net reinsurance risk to optimize the priority of the Stop
Loss. We will also consider a modification of the current CCR coverage with premiums
corresponding to the premiums paid by AXA France for this cover, which will enable us
to analyze in particular the profitability and the impact of the commissions paid by the
CCR.
AXA France currently has a reinsurance program that covers natural and non-natural
events outside NATCAT covered by the CCR and we will study the addition of NAT-
CAT perils in this cover which profoundly modifies the reinsurance of AXA France and
especially the Risk Appetite which is a very important indicator for the AXA Group.
Methods will be proposed to try to modify this cover and especially the current layering.
Classification methods such as the K-means method and hierarchical ascending classifi-
cation, as well as extreme value theory estimators, will be used to define thresholds that
correspond to the retentions of each successive layer. It will be a question of comparing
the current layering with the addition of NATCAT to the current reinsurance program in
particular in terms of risk as well as to compare the two different layering of our program.

Key words : Reinsurance, Solvency 2, Optimization, Pricing, Structuring, Classification,


Extreme value theory

3
Remerciements

Je tiens à remercier particulièrement pour ce mémoire ma tutrice Anne Suchel pour son
écoute, ses conseils et sa disponibilité tout au long de cette alternance. Son suivi et ses
compétences m’ont permis de réaliser ce mémoire dans les meilleurs conditions.

Je souhaiterais également remercier ma manager Marie Meignié et tous les collègues de


l’équipe avec qui j’ai passé une superbe année chez AXA France.

Enfin, je remercie ma famille et mes amis qui m’ont soutenu tout au long de la réalisation
de ce mémoire et particulièrement sur la fin qui fut intense.

4
Table des matières

Introduction 7

1 Réassurance et Solvabilité 2 8
1.1 Solvabilité 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2 Mesures de risques et STEC . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.1 Les mesures de risque . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.2 Le calcul du STEC P&C . . . . . . . . . . . . . . . . . . . . . . . . 10
1.3 La réassurance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.3.1 Les traités proportionnels . . . . . . . . . . . . . . . . . . . . . . . 11
1.3.2 Les traités non proportionnels . . . . . . . . . . . . . . . . . . . . . 13
1.3.3 Les clauses particulières en réassurance non proportionnelle . . . . 16

2 Les catastrophes naturelles et la CCR 20


2.1 Présentation du régime d’indemnisation des catastrophes naturelles . . . . 20
2.2 La couverture CCR actuelle . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.2.1 Présentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.2.2 Limites de la couverture actuelle et intérêt d’une couverture alter-
native . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

3 Le modèle CAT AXA France 24


3.1 Modélisation coût/fréquence et charge annuelle . . . . . . . . . . . . . . . 24
3.1.1 Calibrage du CAT File Sécheresse . . . . . . . . . . . . . . . . . . . 24
3.1.2 Principe de calibrage des CAT Files par exposition . . . . . . . . . 27
3.1.3 Les données CATNAT . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.2 Le modèle global . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.2.1 La structure globale du modèle . . . . . . . . . . . . . . . . . . . . 29
3.2.2 Le pool property per event . . . . . . . . . . . . . . . . . . . . . . 31
3.2.3 Les contrôles du modèle . . . . . . . . . . . . . . . . . . . . . . . . 32

4 Optimisation de la couverture de réassurance alternative 34


4.1 Les différentes couvertures possibles . . . . . . . . . . . . . . . . . . . . . 34
4.2 Tarification à l’aide du modèle et résultat de réassurance . . . . . . . . . . 35
4.3 Optimisation de la couverture alternative . . . . . . . . . . . . . . . . . . 38
4.3.1 Objectifs et contraintes . . . . . . . . . . . . . . . . . . . . . . . . 38

5
4.3.2 Définition de la mesure du risque et des objectifs . . . . . . . . . . 39
4.3.3 Résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.3.4 Comparaison de la couverture CCR et de la couverture alternative 44
4.3.5 Conclusion de nos études . . . . . . . . . . . . . . . . . . . . . . . 48

5 Modification de la couverture CCR 49


5.1 Enjeux et objectifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
5.2 Etude d’un taux de Quote Part à 25% . . . . . . . . . . . . . . . . . . . . 50
5.3 Etude d’un taux de Quote Part quelconque . . . . . . . . . . . . . . . . . 54
5.4 Respect du Risk Appetite actuel . . . . . . . . . . . . . . . . . . . . . . . 59

6 Structuration d’une couverture de réassurance 62


6.1 Présentation des données . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
6.2 La théorie des valeurs extrêmes . . . . . . . . . . . . . . . . . . . . . . . . 64
6.3 La théorie de l’analyse des données . . . . . . . . . . . . . . . . . . . . . . 68
6.3.1 La méthode des k-means . . . . . . . . . . . . . . . . . . . . . . . . 68
6.3.2 La classification ascendante hiérarchique . . . . . . . . . . . . . . . 70
6.4 Comparaison des différentes méthodes . . . . . . . . . . . . . . . . . . . . 71
6.5 Analyse des couvertures de réassurance . . . . . . . . . . . . . . . . . . . . 74
6.5.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
6.5.2 Comparaison de la couverture actuelle avec et sans Cat Nat . . . . 77
6.5.3 Le Risk Appetite . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
6.5.4 Impact sur le STEC CAT et P&C . . . . . . . . . . . . . . . . . . 85
6.6 Etude du nouveau tranchage . . . . . . . . . . . . . . . . . . . . . . . . . 86
6.6.1 Structuration du programme . . . . . . . . . . . . . . . . . . . . . 86
6.6.2 Tarification des tranches de réassurance . . . . . . . . . . . . . . . 87

Conclusion 89

Bibliographie 92

A Choix de la loi pour le CAT File Sécheresse 95

B Courbe risque-rentabilité avec la VaR à 99.5% 97

C Arbre de classification avec la méthode de Ward 98

D Impact d’une augmentation de la part dans le Pool de 5% 99

6
Introduction

Le travail présenté dans ce mémoire a été effectué dans le cadre de mon alternance chez
AXA France dans le service Actuariat Réassurance et Modèle Interne. Le rôle principal
de mon travail consiste en la mise en place d’un modèle permettant de modéliser la
réassurance d’AXA France IARD et de l’utiliser afin de renouveler et d’optimiser les
différents traités.

La réassurance qui se définit comme "l’assurance des assurances" est un outil majeur
pour réduire le risque auquel est soumis une compagnie d’assurance. Un risque majeur
auquel est soumis AXA France IARD de part l’importance de ses expositions dans le
monde et du changement climatique est le risque de catastrophes naturelles. Malgré
leur fréquence relativement faible, elles engendrent des coûts énormes pour les assureurs
pouvant atteindre le milliard d’euro. L’année 2017 a été particulièrement compliqué pour
le marché français de l’assurance et de la réassurance avec les ouragans IRMA et MARIA.

Dans le contexte de la directive européenne Solvabilité 2, la réassurance permet à un


assureur la réduction du capital nécessaire pour subvenir aux risques inhérents à son
activité. L’objet de ce mémoire sera donc d’analyser la couverture de réassurance actuelle
(CATNAT) et de chercher une couverture alternative qui permettrait d’optimiser certains
critères pour AXA France.

Dans un premier temps nous présenterons les concepts clés de réassurance mis en jeu
dans cette étude puis nous détaillerons le modèle construit et la modélisation actuelle des
événements catastrophes naturelles et enfin nous essayerons de trouver une ou plusieurs
couvertures alternatives qui apparaissent plus optimales selon des concepts que nous
définirons.

7
Chapitre 1

Réassurance et Solvabilité 2

1.1 Solvabilité 2

Solvabilité 2 est une directive européenne votée en 2009 avec pour date d’effet le 1er
Janvier 2016. Elle a pour objectif de mieux adapter les fonds propres des compagnies
d’assurance et de réassurance face aux risques auxquelles elles sont soumises. Elle fait
suite à la directive Solvabilité 1 qui ne prenait pas bien en compte le risque, notamment
le risque systémique que l’on a pu observer durant la crise des subprimes.

Chaque assureur ou réassureur doit identifier les risques inhérents à son activité et déter-
miner un montant de capital suffisant pour les couvrir. Ce calcul peut s’effectuer à l’aide
d’une formule standard définie par l’EIOPA (autorité de contrôle au niveau européen)
ou bien avec l’utilisation d’un modèle interne, option choisie par AXA France IARD. La
directive Solvabilité 2 repose sur 3 piliers :
• Le pilier 1 qui regroupe un ensemble de règles en matière d’exigences quantitatives
et de façons de calculer
• Le pilier 2 qui regroupe les exigences qualitatives relatives à la supervision et à la
gestion des risques
• Le pilier 3 qui regroupe les exigences en matière de communications aux autorités

1.2 Mesures de risques et STEC


1.2.1 Les mesures de risque

Avant de décrire le calcul du SCR d’AXA France IARD, on va s’attacher à définir une
mesure de risque.

Une mesure de risque est une fonction définie sur l’ensemble des variables aléatoires et

8
prenant ses valeurs dans R, c’est donc une fonction ρ qui à X une variable aléatoire lui
associe ρ(X) un réel.

Une mesure de risque ρ est dite cohérente d’après Artzner et al (1999) [1] si elle vérifie
les 4 axiomes suivant :
• Invariance par translation :

∀c ∈ R, ρ(X + c) = ρ(X) + c

• Sous additivité : Pour toutes variables aléatoires X et Y,

ρ(X + Y ) ≤ ρ(X) + ρ(Y )

• Homogénéité :
∀λ ∈ R+ , ρ(λX) = λρ(X)

• Croissance : Pour toutes variables aléatoires X et Y,

X ≤ Y =⇒ ρ(X) ≤ ρ(Y )

Selon Artzner et al, une mesure de risque appropriée doit respecter les propriétés de cohé-
rence. Cependant, cette notion est remise en question avec Solvabilité 2 avec l’utilisation
d’une mesure de risque qui ne respecte pas la notion de sous additivité : la Value at Risk.

La Value at Risk

La Value at Risk (ou VaR) de niveau α d’une variable aléatoire X se définit comme :

V aRα (X) = inf {x ∈ R : P(X ≤ x) > α}

Il s’agit du quantile de niveau α de la distribution de X. C’est la mesure de risque

utilisée dans la formule standard de Solvabilité 2 et aussi la mesure de risque utilisée


dans le modèle interne d’AXA France à un niveau α = 99, 5%.

La VaR n’est pas sous additive au sens d’Artzner et al donc elle n’est pas cohérente.
Cependant, cette mesure de risque présente un risque de queue important car elle ne
s’intéresse pas à ce qui se passe après le quantile de niveau alpha. Par exemple sur une
distribution avec 10000 scénarios la VaR de niveau 99,5% est le 50ème pire scénario mais
cela ne nous donne aucune indication sur le montant des pertes des 49 pires scénarios.
C’est pourquoi il peut être judicieux d’analyser le risque en utilisant la Tail Value at
Risk.

9
La Tail Value at Risk

La Tail Value at Risk (ou TVaR) de niveau α d’une variable aléatoire X se définit comme :

T V aRα (X) = E(X|X > V aRα (X))

La TVaR permet de mieux capter l’information qui se trouve « après » la VaR. Cepen-
dant, elle est plus complexe à mettre en œuvre et augmente les temps de calculs ce qui
la rend moins populaire.
En revanche, la TVaR est une mesure de risque cohérente.

Une autre mesure de risque classique que nous utiliserons par la suite est la volatilité
(racine carrée de la variance) qui est aussi une mesure de risque cohérente (la variance
ne l’est pas).

1.2.2 Le calcul du STEC P&C

La directive Solvabilité 2 impose le calcul annuel d’un capital réglementaire appelé SCR
(Solvency Capital Requirement) à l’aide d’une formule standard ou d’un modèle interne.
Le SCR représente le capital immobilisé afin de faire face à une crise qui subviendrait avec
une probabilité 1/200. Le calcul du SCR en formule standard se fait selon une approche
dite « bottom-up » où l’on calcule les SCR intermédiaires que l’on agrège à l’aide de
matrices de corrélation pour obtenir le SCR global.

Chez AXA France, l’équivalent du SCR en modèle interne est le STEC (Short Term
Economic Capital).Il est donné pour un risque X par :

ST ECX = V aR99.5% (X) − E(X)

Il s’agit de la déviation bicentenaire par rapport à la moyenne.

Nous nous intéresserons dans cette étude seulement au STEC P&C étant celui déterminé
au sein de l’entité AXA France IARD. D’autres briques de risque viennent s’ajouter à ce
STEC P&C comme le risque opérationnel, le risque de marché, le risque de contrepartie
mais on ne prendra pas en compte ces modules dans la suite de l’étude. Il résulte de
l’agrégation de 3 sous-modules :
• Le STEC réserves
• Le STEC primes
• Le STEC Catastrophe

10
La matrice de corrélation est donnée par :
Réserves Primes CAT
 
Réserves 1 0.5 0
Primes  0.5 1 0 
CAT 0 0 1

Puis il vient la formule donnant le STEC P&C :


v
u 3
uX
STECP&C = t ρi,j × ST ECi × ST ECj
i=1

avec ρi,j le coefficient (i, j) de la matrice de corrélation.

Dans la suite, lorsque l’on parlera de STEC on fera référence au STEC P& C sauf contre
indication.

1.3 La réassurance

Les traités de réassurance se décomposent en deux parties : les traités proportionnels et


les traités non proportionnels.

1.3.1 Les traités proportionnels

Les traités proportionnels sont basés sur le principe que la prime de réassurance et le
montant des sinistres payés par le réassureur se calculent selon un même pourcentage.
Par exemple, si le réasssureur reçoit 50% de la prime d’un risque il paiera en contrepartie
50% de tous les sinistres affectant ce même risque.

Ces types de traités font apparaître des commissions versés par le réassureur à la cédante
pour couvrir les frais d’acquisition et de gestion sur le pourcentage de prime que la
cédante cède.

On distingue en réassurance proportionnelle 2 types de traités : les traités en Quote Part


et les traités en Excédent de Plein.

Le traité en Quote Part

Les traités en quote part sont des traités pour lesquels l’assureur verse un pourcentage
de sa prime et en contrepartie duquel le réassureur s’engage à payer la même part de

11
sinistres. Ce pourcentage est défini contractuellement.

Les traités en Quote Part améliorent la marge de solvabilité de la cédante car elle peut
pour un niveau de capital donné souscrire 2 fois plus de primes tout en gardant cette
marge de solvabilité intacte. Ce type de traité est très utilisé pour le lancement de nou-
velles branches ou pour les entreprises souhaitant se développer et possédant peu de
capital.

Figure 1.1 – Exemple d’un Quote Part avec une cession à 40%

Cependant, la réassurance en quote part ne permet pas d’améliorer le S/P et ne change


donc pas le profil du portefeuille.

Axa France possède notamment des traités en Quote Part dans le programme Catas-
trophes Naturelles de la CCR (cession à 50%).

Le traité en Excédent de Plein

Le traité en Excédent de Plein vient corriger les défauts du Quote Part dans le sens où la
cédante ne cédera des primes que sur les risques avec une somme assurée importante. Ainsi
elle conserve à 100% les "petits" risques et cède une part d’autant plus importante que
la somme assurée est grande dans une limite définie contractuellement (appelée capacité
de l’excédent)

12
On définit :
• Ki capital assuré du risque i
• C capacité de l’excédent de plein
• R plein de rétention
• xi taux de cession pour le risque i
Le calcul du taux de cession xi est donné par :
   
Ki − R C
xi = min max ,0 ,
Ki Ki

Cela permet à la cédante de conserver les risques dont la somme assurée est faible (in-
férieure à R). Ce procédé permet donc de conserver une grande partie de sa prime et de
céder proportionnellement les risques les plus importants. Cependant, ce genre de traités
est peu fréquent car le réassureur doit faire face a une sinistralité importante pour un
niveau de prime faible.

Axa France ne possède pas de traité en Excédent de Plein pour couvrir ses pertes issues
d’évènements catastrophiques.

1.3.2 Les traités non proportionnels

Contrairement aux traités précédents il n’y a aucune proportionnalité entre la prime


cédée et la sinistralité payée par le réassureur. Alors que les traités proportionnels visent
à protéger notamment contre un risque de fréquence d’une multitude de sinistres, les
traités proportionnels notamment l’Excess of Loss ont pour but de protéger la cédante
contre un risque de sévérité lors de l’apparition d’un évènement catastrophique.

On distingue en réassurance non proportionnelle 2 types de traités : les traités Excess of


Loss et les traités Stop Loss.

Le traité Excess of Loss

Pour les traités Excess of Loss, le réassureur intervient au-delà d’une franchise appelée
"priorité" et dans une certaine limite appelée "portée". On note couramment l XS d avec
la l la portée et d la priorité. On définit aussi la capacité comme l + d. Ainsi, pour un
sinistre de montant Xi la charge du réassureur (ou montant des récupérations) Zi est :

Zi = min(max(Xi − d, 0), l)

ou plus simplement :

13

 0 X≤d
Zi = X −d d≤X ≤d+l
l d+l ≤X

Il est très important de distinguer les traités XS par risque et les traités XS pas évène-
ment. Les traités par risque s’appliquent aux sinistres concernant un seul risque alors que
les traités par évènement s’appliquent au montant global de tous les sinistres affectant
différentes risques pour un même évènement. Par exemple, une tempête qui toucherait
plusieurs risques sera considérée comme un seul évènement (dans certaines limites de
durée souvent définies dans les traités).

Figure 1.2 – Exemple d’un 30 XS 20

14
La plupart des traités d’AXA France sont des traités en Excess of Loss. Ils sont inclus à
l’intérieur de programmes de réassurance au sein desquels se superposent plusieurs traités
XS que l’on appelle tranches.

Le traité Stop Loss

Les traités Stop Loss marchent de la même façon que les traités Excess of Loss sauf qu’ils
protègent le ratio Sinistres/Primes de l’année. On définit ainsi la priorité et la portée en
pourcentage et il suffit de multiplier par la prime pour obtenir un montant flat. Ainsi,
pour ce type de traité on agrège tous les montants de sinistres survenus dans l’année
et on peut calculer le S/P correspondant et ainsi appliquer la réassurance. Ainsi, pour
une priorité d et une portée l (exprimées en pourcentage) ainsi qu’une prime notée EPI
(Estimated Premium Income) le réasssureur verse à la cédante :

Zi = min (max (S − d × EP I, 0) , l × EP I)

Le Stop Loss permet donc de protéger la cédante contre une sur fréquence de sinistres ou
un évènement extrême qui entraînerait un mauvais résultat pour la cédante. Cependant,
ce genre de traité souffre d’aléa moral dans le sens où une fois que la priorité est dépassé
la cédante n’a pas d’intérêt à essayer de limiter sa sinistralité (dans la limite de la portée)
puisque le Stop Loss protège son résultat au dessus de cette priorité.

On peut définir un autre type de traité qui fonctionne comme un Stop Loss : l’XS Ag-
gregate (ou Stop Loss tous périls) qui agrègent tous les sinistres en rétention des autres
traités et est défini avec une priorité et une portée "flat".

15
Figure 1.3 – Exemple de fonctionnement d’un XS Aggregate

1.3.3 Les clauses particulières en réassurance non proportionnelle


AAD et AAL

Un AAD se définit comme une franchise annuelle sur la somme agrégée de tous les paie-
ments afférents à un traité. Le réassureur ne commence à payer que lorsque la sinistralité
agrégée dépasse la franchise.

Un AAL correspond à une limite à la charge annuelle du réassureur ; le réassureur ne


pourra payer plus que l’AAL au titre d’un traité.

16
Ainsi sur la durée du traité, le montant des récupérations au titre de ce traité s’élève à :

Xn
min(max( Zi − AAD, 0), AAL)
i=1

avec Zi la charge du réassureur sur le traité pour l’évènement i et n le nombre d’évène-


ments pendant la durée du traité.

Figure 1.4 – Exemple d’un 30 XS 20 avec un AAD de 10 et un AAL de 100

Ces clauses ont pour but de réduire le coût de la réassurance, elles limitent le montant
des récupérations perçues par la cédante.

Les reconstitutions

Dans un Excess of Loss classique, le réasssureur s’engage à payer une seule fois la por-
tée pendant la durée du traité. L’ajout de reconstitutions permet d’accorder un ou des
renouvellements (nombre qui peut être illimité) de la portée pendant cette même durée.
En contrepartie de l’utilisation de ces garanties supplémentaires, l’assureur doit verser
une prime de reconstitution calculée au prorata du capital reconstitué et fonction d’un
taux de prime de réassurance. La tarification d’un traité doit donc prendre en compte
les futures primes probables de reconstitutions que la cédante versera au réassureur.

La prime de reconstitution pour un évènement i se calcule comme suit :


Zi
Preci = c × ×P
l

17
avec c le prix de la reconstitution (exprimé en pourcentage) et P la prime du traité.

c=0 correspond à une reconstitution gratuite. En cas de reconstitution(s) payante(s), la


cédante verse une prime de reconstitution en proportion du montant de récupération par
rapport à la tranche dès que la tranche de l’XS est touchée pour la première fois, la prime
du traité servant à "reconstituer" la dernière portée (pour k reconstitutions le réassureur
paie au maximum k + 1 fois la portée). La majeure partie du temps, l’AAL correspond
à cette limite de reconstitutions de la portée et alors :
AAL = (k + 1) × Portée

Les traités Excess of Loss possèdent souvent pour chaque reconstitution des prix diffé-
rents. Il faut alors bien faire attention à calculer la prime de reconstitution selon son
coût. Prenons l’exemple d’un XS avec une portée de 50Me et une priorité de 100Me et
2 reconstitutions à 100% pour les évènements naturels et 1 à 25% pour les évènements
non naturels.
• Supposons une première tempête à 300Me : on reconstitue alors entièrement la
portée et on paye une prime de reconstitution égale à la prime du traité.
• Supposons ensuite une conflagration à 600Me(non naturel) : on reconstitue alors
entièrement la portée mais cette fois-ci pour un coût de 25%, on paie alors une
prime de reconstitution égale à 25% de la prime du traité.
• Pour un 3ème évènement quelconque, on ne paiera plus de prime de reconstitution
car son nombre est limité à 2 pour tous les évènements.
C’est ce genre de subtilités qu’il faudra prendre en compte dans le modèle et l’impact
pourra être déterminant lors de la comparaison entre 2 couvertures de réassurance.

Le ROL

Le Rate On Line (ou ROL) est un indicateur très utilisé en réassurance. Il mesure le coût
d’un euro de couverture supplémentaire et se définit comme :

Prime
ROL =
Portée

Un ROL élevé signifie donc que pour une portée donnée le traité est "cher". Les tranches
basses du programme général d’AXA France sont plus chères que les tranches hautes car
elles sont plus travaillantes.

Les OEP et AEP

L’OEP (Occurrence Exceedance Probability) est la probabilité qu’un événement dépasse


une perte donnée (caractérisé par sa période de retour). On dit que l’OEP bicentenaire

18
est un événement se produisant tous les 200 ans, soit que la probabilité de le dépasser
est de 1/200.

L’AEP (Aggregate Exceedance Probability) est la probabilité que l’agégation des pertes
annuelles dépasse un montant donné (caractérisé par sa période de retour). On dit que
l’AEP bicentenaire est une année se produisant tous les 200 ans, soit que la probabilité
d’obtenir une année pire en termes de pertes annuelles est de 1/200.

Le Risk Appetite

Le Risk Appetite est la définition du niveau de risque qu’une organisation est prête à
prendre au regard de sa stratégie. Chez AXA, on définit le Risk Appetite Groupe et le
Risk Appetite Local. Au niveau local, le Risk Appetite est défini par le Risk Management
qui impose des niveaux de risque maximals à prendre et au niveau Groupe, le Group Risk
Management impose des capacités de réassurance à acheter à chaque entité du Groupe
AXA.

19
Chapitre 2

Les catastrophes naturelles et la


CCR

2.1 Présentation du régime d’indemnisation des catastrophes


naturelles

Le régime d’indemnisation des catastrophes naturelles a été créé le 13 Juillet 1982 [2].
Il vise à indemniser les victimes d’évènements naturels selon un processus qui doit être
respecté. Il faut que :
— L’état de catastrophe naturelle soit déclaré par une commission interministérielle
après demande du maire et du préfet
— Les biens soient couverts par un contrat de dommage aux biens
— La catastrophe naturelle soit à l’origine du sinistre

Figure 2.1 – Mécanisme d’indemnisation des catastrophes naturelles

20
Le risque de catastrophe naturelle est couvert par les contrats dommages qui se traduit
par un taux de prime additionnel unique.

La réassurance est indispensable pour couvrir le risque de catastrophe naturelle du fait de


coûts énormes lors de la survenance d’événements. En 2017, les catastrophes naturelles
ont causé pour environ 3 milliards d’euros de dégâts en France et 337 milliards dans le
monde [3], et a pratiquement doublé entre 2016 et 2017.

Figure 2.2 – Coût historique des catastrophes naturelles en France pour la CCR (Source :
CCR)

Les périls entrants dans la loi de 1982 et couverts au titre de la garantie catastrophe
naturelle sont :
— Inondations et coulées de boue
— Phénomènes liés à l’action de la mer
— Mouvements de terrain
— Avalanches
— Séismes
— Sécheresse
— Éruption Volcanique

Les principaux périls exclus sont :


— Les tempêtes (hormis les vents cycloniques de grande ampleur dans les DROM)
— La grêle
— Le gel
— La neige
— Les évènements d’origine humaine

21
2.2 La couverture CCR actuelle
2.2.1 Présentation

La Caisse Centrale de Réassurance est une société anonyme détenue à 100% par l’Etat et
qui propose des couvertures de réassurance notamment pour les catastrophes naturelles.
Elle est le seul acteur sur le marché à pouvoir proposer des couvertures en illimité avec
garantie de l’Etat. Cette couverture en illimité offre donc une sécurité aux assureurs
notamment pour faire face à des évènements majeurs.

La couverture "catastrophes naturelles" proposée par la CCR offre un Quote Part et un


Stop Loss en illimité sur la rétention du Quote Part. En cas de catastrophe naturelle, la
CCR va donc verser un pourcentage du montant total de l’évènement au titre du Quote
Part et ce qu’il reste en rétention servira à alimenter le Stop Loss en illimité. Axa France
est couvert par un Quote Part à 50% sur tout le territoire français mais distingue les
évènements en France Métropolitaine et dans les DROM et les évènements Auto et Non
Auto (départements et régions d’outre mer) dans le cadre de la couverture Stop Loss. En
effet, AXA France possède un appétit au risque très faible sur les territoires outre mer
et un appétit bien plus important sur la France Métropolitaine. La priorité du Stop Loss
en métropole est fixée à 200% et celle pour les DROM à 3200% (le montant absolu n’est
pas calculé sur la même base de primes).

2.2.2 Limites de la couverture actuelle et intérêt d’une couverture al-


ternative

La couverture CCR actuelle est composé d’un Quote Part à 50% qui entraîne pour AXA
France une cession de 50% de sa prime sur le périmètre CAT NAT. En contrepartie de
cette prime cédée et pour couvrir les frais d’AXA France, la CCR cède une commission
chaque année. Cependant, cette commission possède une partie fixe et une partie variable :
• La partie fixe vaut 5% si le ratio entre la provision d’égalisation + la Réserve spéciale
Cat Nat de la CCR et les primes brutes acquises de la CCR pour la réassurance de
risques Cat Nat en France est supérieur à 400% à la clôture de l’exercice comptable
n et 0% sinon.
La provision pour égalisation est destinée à faire face aux fluctuations de sinistra-
lité ; lorsque le résultat est déficitaire, l’assureur utilise cette provision pour absorber
les pertes.
La Réserve spéciale Cat Nat est constituée par le bénéfice disponible après distri-
bution des dividendes et dotation aux réserves légales et réglementées.
• La partie variable est fixée selon que le ratio précédent est soit égal ou supérieur à
400% et inférieur à 500%, soit égal ou supérieur à 500% et inférieur à 600%, soit
égal ou supérieur à 600% et en fonction du Ratio Sinistres sur Primes (S/P) de la
CCR au titre de l’Exercice. Cette partie variable est comprise entre 0% et 37%.

22
Les commissions versées par la CCR jouent un rôle très important sur le résultat d’AXA
France.

En 2016, ce ratio était compris entre 500% et 600% ce qui entraînait théoriquement des
taux de commissions élevés pouvant aller jusqu’à 33% dans le cas de ratio S/C < 60%
mais l’exercice 2016 était marqué par les inondations du bassin de la Seine aboutissant
à un résultat courant CCR négatif ne donnant pas lieu au versement d’une commission
variable.
Pour l’année 2017, avec les évènements IRMA et MARIA qui ont lourdement impacté
le marché, ce ratio est attendu en deçà de 400% à 382%. Toutefois, il s’agit d’un niveau
exceptionnel ; 2016 et notamment 2017 sont très sinistrés avec les inondations de juin
2016 et les ouragans IRMA et Maria dont les coûts sont estimés à 2Mde pour la CCR
sur l’année 2017.
Ce ratio pourrait s’améliorer pour repasser au-dessus de 400% dans le cas où il n’y aurait
pas d’évènements CATNAT majeurs sur la période 2018-2019 et que la CCR puisse
doter ses réserves de prudences. Ainsi la combinaison d’une prime cédée élevée et des
commissions faibles sur les dernières années posent la question pour AXA France de
trouver une couverture alternative plus rentable sur le marché privé.

En contrepartie, cette couverture alternative ne pourra pas proposer une couverture en


illimité et ne pourra pas faire la séparation entre la France Métropolitaine et les DROM.
En effet, la rétention CCR en montant absolu sur les DROM est très basse pour AXA
France et on ne cherchera pas une couverture qui reproduira cela mais une couverture qui
combine tous les périls même si l’appétit au risque n’est pas entièrement vérifié. L’idée de
base est de chercher une couverture en Stop Loss tous périls CAT NAT confondus avec une
priorité qui correspond à l’appétit au risque d’AXA France sur la France Métropolitaine
et un plafond de traité qui correspond à une perte annuelle avec une période de retour
de 200 ans (cela signifie qu’il s’agit d’une perte qui se produirait tous les 200 ans).

23
Chapitre 3

Le modèle CAT AXA France

Le modèle CAT d’AXA France prend en inputs des "CAT Files" qui sont des tableaux
associés à chaque péril modélisé et qui contiennent des scénarios sur 10000 années. Dans
le cadre des évènements CAT NAT on modélise 6 périls dans notre modèle :
— Les inondations en France Métropolitaine
— Les tremblements de terre en France Métropolitaine
— La sécheresse en France Métropolitaine
— Les ouragans à la Réunion
— Les ouragans en Guadeloupe et Martinique
— Les tremblements de terre en Guadeloupe et Martinique

3.1 Modélisation coût/fréquence et charge annuelle

Les différents périls CATNAT sont modélisés par une approche fréquence/coût ou une
approche charge annuelle. C’est notamment le cas de la sécheresse où l’on agrège les
différents sinistres qui ont lieu car il est difficile de la rattacher à un seul événement
en particulier. Les CAT Files sont calibrés soit par une approche sur l’historique AXA
France soit par une approche sur l’exposition AXA France à l’aide de modèles CAT.

3.1.1 Calibrage du CAT File Sécheresse

Le péril sécheresse est le seul à être calibrer en utilisant les données historiques AXA
France, les autres périls étant modélisés à l’aide de modèles CAT qui utilisent les expo-
sitions AXA France. Comme indiqué précédemment, on modélise seulement la sévérité
pour ce péril à partir de la charge annuelle agrégée historique. On dispose d’un historique
de données depuis 1999 jusqu’en 2016 (les données utilisées dans le modèle ont été cali-
brées durant l’année 2017). Avant de commencer toute étude, il faut actualiser les données

24
afin qu’elles soient en cohérence avec l’environnement économique et le portefeuille de
l’année d’étude (2018).

Mise en "As If" des données

Les données historiques utilisées correspondent aux sinistres historiques des portefeuilles
Auto et Non Auto ayant donnés lieu à une indemnisation au titre de la garantie catas-
trophes naturelles. Le redressement des données consiste d’une part à prendre en compte
l’inflation économique qu’ont subi les montants de sinistres entre la date historique et
la date de notre modélisation et d’autre part à prendre en compte l’évolution du porte-
feuille global ; en effet si le portefeuille croît au cours des années, le montant des sinistres
historiques ne sera pas exprimé sur la même base.

Le choix retenu afin de redresser ces données est l’utilisation de l’indice FFB du coût de
la construction ainsi que de la valeur du portefeuille à travers la somme assurée totale.

En notant SIVn (Sum Insured Value) la somme assurée totale de l’année n du portefeuille
Auto et Non Auto indexée de l’indice FFB, on obtient :

SIV2018
Charge annuelle As Ifn = Charge annuellen ×
SIVannée survenance

On obtient ainsi des charges annuelles redressées qui sont les réalisations de la variable
aléatoire modélisant la sévérité annuelle de la sécheresse en France Métropolitaine. On
supposera les observations de la variable indépendantes et identiquement distribuées et
on va déterminer une loi qui s’ajuste le mieux à l’historique.

Les différentes lois de probabilité testées

Dans le cadre de cette étude, on va tester 3 lois de probabilité différentes :


• La loi log-normale
On dit que X suit une loi log-normale de paramètres µ et σ 2 si et seulement si
ln(X) ,→ N (µ, σ 2 )
• La loi Pareto Généralisée
On dit que X suit une loi Pareto Généralisée de paramètres ξ et σ si sa fonction de
répartition est de la forme
 !−1/ξ
 x
1− 1+ξ ξ 6= 0

Gξ,σ (x) = σ

1 − e−x/σ

ξ=0

25
• La loi de Weibull
On dit que X suit une loi de Weibull de paramètres k et λ si sa fonction de répar-
tition est de la forme
k
Hk,λ (x) = 1 − e(−x/λ)

Les 3 différentes lois proposées sont généralement utilisées pour modéliser des pertes
extrêmes ce qui nous conduit à faire un choix parmi celles-ci.

Les paramètres sont estimés par maximum de vraisemblance et par la méthode des
moindres carrés, ce qui nous donne 6 distributions différentes.

Choix de la distribution

Soit F (x) la fonction de répartition de la loi testée.

On définit Fn (x) la fonction de répartition empirique par :


n
1 X
Fn (x) = × 1{Xi ≤x}
n
i=1

avec Xi les charges annuelles historiques de l’année i.

Le choix de la meilleure distribution repose sur différents critères :


• La distance de Kolmogorov Smirnov qui se définit comme :
sup | Fn (x) − F (x) |
x∈R

Elle mesure la distance maximale entre la fonction de répartition empirique et la


fonction de répartition théorique.
• La distance de Cramer-Von Mises qui se définit comme :
Z +∞
(Fn (x) − F (x))2 dF (x)
−∞

Elle mesure la somme des écarts quadratiques entre la fonction de répartition em-
pirique et la fonction de répartition théorique.
Il faut chercher la loi qui minimise ses 2 distances.
• Les quantiles de la loi proches de ceux de la distribution empirique
• La convergence des quantiles inférieurs à 90% vers ceux de la distribution empirique
En effet, possédant relativement peu d’années d’historiques, il ne serait pas judi-
cieux de comparer des quantiles trop élevés.
• La moyenne et l’écart type proches de la distribution empirique

26
Résultats

Finalement, on retient la distribution Log-normale avec des paramètres estimés par maxi-
mum de vraisemblance avec une moyenne à 48 747 680 et un écart type à 81 908 506.
L’analyse des résultats est décrite en A.

3.1.2 Principe de calibrage des CAT Files par exposition

Les autres CAT Files Cat Nat sont calibrés à l’aide de "modèles CAT" par le groupe
AXA. Ces modèles sont soit développés en interne par le risk management Groupe ou
alors à partir de modèles marchés. Ils sont calibrés à l’aide des expositions AXA. Ils
s’appuient sur des modèles marchés tels que RMS, AIR et RQE. Cependant, ces modèles
sont calibrés afin de refléter le risque sur les expositions 2017 mais les Cat Files en sortie
sont utilisés dans le cadre du renouvellement 2018. Il faut donc prendre en compte des
facteurs de projection pour refléter la croissance des expositions en 2018 mais aussi un
facteur de Data Quality Risk (ou DQR) afin de prendre en compte les possibles erreurs
dans les données d’exposition. Les OEP calibrés résultent donc de la combinaison des
OEP des 3 modèles auxquels le GRM associe un poids en fonction d’un scoring et de
facteurs de DQR et de projection. Ainsi, on écrit
X
AXA = (ωm × OEPm ) × (1 + DQR) × (1 + PF)
model m

avec
• m le modèle CAT utilisé (RMS,AIR ou RQE)
• OEPm les OEP associés au modèle m
• ωm le poids associé au modèle m (peut être égal à 0% si un modèle n’est pas retenu
pour un certain péril)
• DQR le facteur de Data Quality Risk
• PF le facteur de projection

On obtient ainsi une courbe d’OEP utilisée pour la calibration des CAT Files.

Il est important de noter que les différents périls ne sont pas corrélés entre eux.

3.1.3 Les données CATNAT

Une fois que les CAT Files ont été calibrés par le Groupe en collaboration avec AXA
France, on peut déterminer à l’aide des données CATNAT les OEP et AEP centenaires
et bicentenaires qui déterminent la capacité de réassurance à acheter.

27
Figure 3.1 – Pertes centenaires et bicentenaires CATNAT

On observe que le péril inondation est le péril CATNAT le plus important pour AXA
France. Les pertes bicentenaires agrégées nous seront utiles dans la calibration du Stop
Loss alternatif tous périls CATNAT confondus. Les pertes bicentenaires par événement
nous permettront de déterminer la capacité CATNAT à acheter dans le cadre d’une
couverture en Excess of Loss.

3.2 Le modèle global

Le modèle CAT modélise l’ensemble des traités par évènement d’AXA France. AXA
France possède en majorité des traités en Excess of Loss (hors couverture CCR) et une
couverture en Stop Loss sur cumul de rétentions tous périls dommages (aussi nommé XS
Aggregate) qui agit sur les rétentions de certains périls notamment sur les CATNAT.

Le modèle est censé refléter au mieux la réalité des couvertures de réassurance par évè-
nement d’AXA France. Des contrôles ont été effectués sur le modèle avant de faire des
études dessus afin de vérifier de son exactitude sur un certain nombre de scénarios qui
présentent des cas particuliers (un scénario correspond à une année de simulation). Les
contrôles ont effectués au niveau des récupérations locales, des reconstitutions et primes
de reconstitutions correspondantes et au niveau de la sinistralité brute, nette et cédée.
Pour ce faire, on compare les résultats obtenus manuellement sur une année que l’on
compare aux sorties du modèle.

28
3.2.1 La structure globale du modèle
Le modèle possède 3 sous modèles principaux :
• La couverture CCR
• La réassurance catastrophe hors catastrophe naturelle
• Le Pool Property per Event

La couverture CCR

Comme présenté précédemment, la couverture CCR possède des traités en Quote Part
avec une cession à 50% et des traités en Stop Loss qui distinguent la France Métropolitaine
et les DROM et les évènements Auto et Non Auto.

Figure 3.2 – Structure de la couverture CCR AXA France IARD

29
Dans le modèle nous ne faisons pas la distinction Auto/Non Auto mais nous sommons
toutes les priorités pour le traité Stop Loss France Métropolitaine car les CAT Files ne
permettent pas de faire une distinction selon ces différents périmètres. Il faudrait donc
faire des hypothèses de répartition qui ne seront donc pas forcément plus justes que
l’approximation qui est faite en agrégeant les différents périmètres.

Les différentes rétentions servent à alimenter le traité XS Aggregate.

La réassurance catastrophe

La réassurance catastrophe se décompose en quatre programmes distincts : 2 programmes


qui couvrent les évènements naturels et non naturels (orage, grêle, tempête, terrorisme,
conflagration,...) avec des traités en Excess of Loss avec reconstitutions payantes (prix
différent selon la nature de l’évènement) et des traités Stop Loss, un traité XS Aggregate
qui agit sur les rétentions des périls couverts dans la réassurance catastrophe hors ter-
rorisme et la réassurance Cat Nat CCR et un traité Stop Loss CCR en illimité pour les
événements terrorisme Risque de masse. AXA France est aussi protégé via le pool GA-
REAT, qui est un pool de réassurance visant à protéger ses membres contre les risques
d’attentats et actes de terrorisme, pour le terrorisme risques lourds mais cette réassu-
rance n’est pas modélisée directement dans le modèle mais directement dans un CAT
File dont les pertes sont nettes de ce Pool.

30
Figure 3.3 – Structure de la réassurance CAT AXA France

Au sein du programme Multi-périls ainsi que du programme général, le terrorisme risque


de masse est couvert par des tranches Stop Loss donc avec des pertes agrégées annuelle-
ment contrairement aux autres périls qui sont couverts par événement dans des tranches
Excess of Loss classiques.

3.2.2 Le pool property per event

La majorité des traités par évènement couvrant les pertes catastrophiques ne sont pas
réassurés par des réassureurs externes mais à travers un pool de réassurance : le Pool
Property per Event. Il s’agit d’un groupement d’entités AXA qui mettent en commun
leurs traités de réassurance pour couvrir les événements CAT. Le principe du pool est que
lorsqu’une entité est touché par un évènement catastrophique, chaque entité participe à la
perte avec une part définie selon la "taille" de l’entité. Ce pool est alimenté par les primes
de réassurance et les primes de reconstitutions de chaque entité et est lui même réassuré à
l’aide d’une couverture groupe. Cette couverture groupe ne joue pas comme en local par
entité mais par évènement dans un bassin donné. Par exemple, si une tempête européenne
venait à toucher plusieurs entités AXA, chaque entité récupérera ou non selon sa part
de pertes et son traité local mais au niveau groupe la perte présentée sera la somme des

31
pertes de toutes les entités touchées par l’événement au premier euro. En contrepartie, à
la fin de l’année est calculé un résultat du pool qui est reversé à chaque entité en fonction
de sa part (ce résultat peut être positif ou négatif). Il dépend des récupérations et primes
des traités locaux "poolés" de chaque entité mais aussi des primes et récupérations de la
couverture groupe.

Ce résultat du pool est modélisé par le Group Risk Management par un CAT File qui
regroupe 10000 années de scénarios. Ces différents scénarios sont calibrés à l’aide des
différents CAT Files présents dans le modèle selon l’ordre défini dans ces derniers. Il est
donc primordial dans le modèle de garder le même ordre lors du tirage des scénarios afin
de se baser sur une même vision pour le calcul du STEC CAT.
De plus, le modèle est calibré de telle sorte qu’en cas de modification de programmes de
réassurance, le CAT File ne sera pas impacté malgré le fait que le résultat du pool le
serait.Il suffit juste de recalculer la contribution d’AXA France au pool chaque année et
de la sommer avec le CAT File du GRM afin de mesurer l’impact du résultat du Pool.
Seule la part d’AXA France IARD pourrait potentiellement varier mais l’impact est jugé
minime pour ne pas avoir à la recalculer.

Il existe un autre mécanisme qui a un impact important sur le STEC CAT d’AXA
France qui s’appelle la facilité. Ce mécanisme vise à redonner à l’entité directement des
récupérations dans le cas où sa perte locale dépasse la capacité de sa couverture locale
dans la limite de la capacité de la couverture groupe. Historiquement, ce mécanisme
n’a jamais joué mais en vision modélisé il joue dans les scénarios extrêmes (au delà du
centenaire ou bicentenaire par événement puisque le traité local couvre jusqu’à ce niveau)
et va donc réduire les pertes dans ces cas là ce qui aura un impact direct sur le calcul du
STEC notamment sur la VaR à 99,5%.

3.2.3 Les contrôles du modèle

Les nombreux contrôles effectués ont pour but de vérifier de l’exactitude du modèle à
plusieurs niveaux :
— Le nombre de reconstitutions
— L’agrégation des pertes cédées à l’XS Aggregate, notamment vérifier que les pertes
au dessus des capacités des traités en amont ne sont pas prises en compte
— Le prix des reconstitutions selon la nature de l’évènement
— Le résultat final, notamment vérifier que toutes les récupérations et les primes sont
prises en compte et qu’une seule fois.

Prenons l’exemple d’un scénario pour expliquer le fonctionnement du programme de


réassurance et calculer le résultat final. On a dans ce scénario 225Me de pertes CATNAT
et 430Me de pertes hors CATNAT dont une tempête à plus de 300Me. On calcule
successivement :

32
• Les récupérations de la couverture CCR égales à 112,5Me (= 225/2)
• Les récupérations du Multi-Périls et du Programme général, la tempête étant cou-
vertes dans le Programme Général on a 300M e − X2M e de récupérations et une
prime de reconstitution calculée au prorata de la prime des tranches touchées.
• Les pertes nettes en entrée de l’XS Aggregate qui combinent les pertes nettes CAT-
NAT de 112,5Me l’événement Tempête capé à la rétention du Programme général
de X2Me ainsi que l’agrégation des autres pertes brutes CAT qui n’ont pas générées
de récupérations.
• Les récupérations de l’XS Aggregate :
  X  
= min max 112, 5M + X2M + AutresP ertesCAT − d, 0 , l

• En parallèle, on calcule la contribution d’AXA France au Pool Property per Event


qui est la somme des primes et primes de reconstitutions des tranches poolées à leur
part dans le Pool moins les récupérations. On agrège ce résultat par scénario au
CAT File du Group Risk Management que l’on multiplie par la part d’AXA France
dans le pool pour obtenir le résultat du Pool (positif ou négatif). La couverture
CCR par définition n’est pas poolée car réassurée par la CCR.
• On agrège les récupérations, les primes de reconstitutions, les primes de réassurance
et le résultat du pool à la part AXA France pour obtenir un résultat global qui
servira de base au calcul du STEC CAT.

On vérifie donc à chaque étape présentée que le modèle nous donne les valeurs calculées
manuellement et cela pour plusieurs scénarios "particuliers" que l’on aura choisi à l’aide
des CAT Files.

33
Chapitre 4

Optimisation de la couverture de
réassurance alternative

La principale difficulté de l’optimisation de réassurance réside dans la définition des


variables, des objectifs à atteindre et des contraintes. Ici, les variables sont définies par
la réassurance : taux de cession pour un quote-part, rétention et capacité pour une
réassurance non proportionnelle. On pourrait aussi envisager d’optimiser le tranchage
d’une couverture. Il pourrait être intéressant d’étudier des programmes de réassurance
avec des paramètres quelconques mais cela ne correspondrait en aucun cas avec le profil
de risque souhaité par AXA France ; on a donc des contraintes au niveau de l’appétence
au risque et de la capacité à acheter sur les traités non proportionnels. La réassurance
devra répondre dans tous les cas à la double problématique de réduction du risque et de
coût du capital. On doit donc répondre à la question :
Peut-on trouver une couverture de réassurance alternative optimale pour
AXA France ? Quelle forme peut prendre cette couverture alternative ?

C’est donc cette notion d’optimalité que nous nous attacherons à définir avant de pré-
senter les résultats des différentes études.

4.1 Les différentes couvertures possibles

Les catastrophes naturelles présentent un risque d’intensité mais aussi un risque de fré-
quence. Par exemple, un tremblement de terre pourra engendrer des coûts énormes mais
avec une faible fréquence alors qu’une sécheresse engendra des dégâts moins importants
mais avec une fréquence élevée. Il faut donc pouvoir trouver une couverture qui prend en
compte la spécificité des catastrophes naturelles notamment la volatilité des évènements
ce qui élimine la réassurance proportionnelle qui comme on l’a vu n’est pas adaptée pour
réduire la volatilité du portefeuille et le cumul des évènements (les périls couverts sont

34
multiples).
La réassurance non proportionnelle semble donc la plus appropriée pour couvrir le risque
de catastrophes naturelles. Notre choix doit alors se porter entre :
— La couverture en Stop Loss
— La couverture Excess of Loss par évènement

On peut éliminer la couverture Excess of Loss par risque puisque les catastrophes natu-
relles lorsqu’elles surviennent touchent une multitude de polices et cette couverture ne
serait pas du tout adaptée.

Cependant, le péril sécheresse pose problème car il est difficile de rattacher une sécheresse
à un seul évènement (date de survenance et durée peu précises) et donc d’appliquer un
Excess of Loss peut s’avérer compliqué contractuellement ce qui oblige a réassurer le péril
Sécheresse avec un Stop Loss.

4.2 Tarification à l’aide du modèle et résultat de réassu-


rance

Afin de pouvoir étudier les différents programmes de réassurance, il faut pouvoir avoir ac-
cès aux prix des différentes couvertures testées afin de calculer un résultat de réassurance.
N’ayant pas d’informations sur les prix que le marché demanderait pour les différentes
couvertures, on va déterminer les prix à partir de notre modèle et des nos récupérations.
L’inconvénient principal de cette méthode est que les prix obtenus ne sont pas en lien
avec le marché et paraissent fortement élevés par rapport au prix de cette couverture
estimé en 2015 par nos courtiers. Le marché du risque catastrophique est bien en hausse
ces dernières années mais les prix obtenus ont plus que doublé par rapport à celui de
2015. Notamment, les prix des différentes couvertures pré existantes (comme la CCR)
seront modifiés par des prix obtenus par le modèle.

L’approche retenue pour déterminer le prix modèle est d’utiliser la mesure de risque :

R(X) = E(X) + ρσX

avec ρ le chargement de sécurité appliqué sur l’écart type. Il s’agit d’une méthode cou-
ramment utilisée en réassurance pour déterminer la prime d’un traité non proportionnel.

R est une mesure de risque cohérente. Le chargement appliqué sur l’écart type permet
au réassureur de prendre une marge sur le risque qu’il supporte. Dans la suite, nous
prendrons ρ = 15% ; une étude avait été réalisée par le groupe AXA en régressant les
prix modèles sur les prix de différents réassureurs.

35
Ainsi, on détermine notre prime de réassurance Pr par :
Pr = E(Z) + ρσ(Z)

avec Z = (Zi )1≤i≤10000 le vecteur des récupérations totales de la tranche ou du traité


concerné pour l’année i. Dans ce cas du Stop Loss, il n’y a pas de primes de reconstitutions
futures payées donc on ne les prend pas en compte dans notre tarification mais on devra
le faire pour des couvertures en Excess of Loss. Ainsi :
v
10000 u 1 10000
u
1 X X 2
Pr = Zi + ρt Zi − Z̄
10000 10000
i=1 i=1

avec
1 10000
X
Z̄ = Zi
10000
i=1

Figure 4.1 – ROL obtenus pour différentes priorités

La courbe de ROL décroît car l’impact de l’augmentation de la rétention joue plus que
la baisse de la portée du Stop Loss. A capacité constante, avec une rétention faible, la

36
tranche du Stop Loss est plus grande et même si le ROL est inversement proportionnel à
la portée, l’espérance des récupérations et la volatilité augmentent sur des tranches plus
grandes. D’un point de vue purement souscription, cela semble logique qu’une tranche
plus petite et qui attache plus haut possède un ROL moins important qu’une grande
tranche qui attache plus bas. La quasi linéarité provient du fait que par pas de priorité
de 1%, le ROL évolue très peu et de la même manière car les récupérations ainsi que la
portée n’évoluent pas beaucoup.

Maintenant que l’on a défini le calcul de la prime de réassurance on peut définir un


résultat de réassurance qui sera utilisé dans les études d’optimisation. Pour la couverture
alternative, on a le résultat Ri d’AXA France pour l’année i donné par :

Ri = Zi − Pr − Xi

avec Xi le montant total des évènements sur l’année i.

Pour un Stop Loss de priorité d et de capacité l (exprimés en pourcentage), on aura :


   
Xi
Ri = min max − d, 0 , l × P − Pr − Xi
P

avec P la prime du portefeuille relatif aux CatNat.

On peut aussi définir le résultat RCCRi pour la couverture CCR actuelle pour l’année i
par :

0.5XiF R
 
RCCRi = 0.5Xi − 0.5(P F R + P DR ) + max − 200%, 0 0.5P F R
0.5P F R
0.5XiDR
 
+ max − 3200%, 0 0.5P DR + Ci − P SL − Xi
0.5P DR

avec :
• Ci les commissions potentielles pour l’année i décomposées en une partie fixe et une
partie variable. Le taux de commission fixe est appliqué à la prime cédée par AXA
France. Le taux de commission variable est appliqué au résultat technique de la
CCR et on suppose qu’il est égal à la prime cédée par AXA France - la sinistralité
cédée d’AXA France - la partie fixe.
On fait donc l’hypothèse forte dans nos simulations que le S/C de la CCR est égal
au S/C d’AXA France. L’hypothèse est contestable au vu des années précédentes
où la CCR a été fortement impacté par les catastrophes naturelles contrairement à
AXA France.

37
Elles se calculent donc de la façon suivante :

Ci = (tauxf ixe + max(1 − tauxf ixe − S/C, 0) × tauxvariable ) × Pcédée

• P F R (respectivement P DR ) la prime relative aux CatNat sur le périmètre France


Métropolitaine (respectivement les DROM) P = P F R + P DR

3
X
XiF R = FR
Xi,j
j=1

Xi, j F R représente la charge agrégée sur l’année i pour le péril j (3 différents périls
modélisés sur la France Métropolitaine : Inondations, Sécheresse, Tremblements de
terre)
• De même pour XiDR
• P SL la prime relative au Stop Loss CCR recalculée à l’aide du modèle afin d’obtenir
un prix homogène à celui de la couverture alternative

4.3 Optimisation de la couverture alternative


4.3.1 Objectifs et contraintes

Maintenant que l’on a mis en avant que la réassurance non proportionnelle pour une cou-
verture alternative est la mieux adaptée il faut définir un ensemble de critères permettant
de comparer dans un premier temps les différentes structures alternatives en Stop Loss
entre elles. Le risk management nous impose d’acheter une capacité qui permet de couvrir
le bicentenaire des pertes CATNAT agrégées. Il correspond pour AXA France en 2018 à
une capacité de 830%. La rétention doit permettre de respecter le risk appetite d’AXA
France. Pour la couverture CCR actuelle, l’appétit au risque est fixé à 100% de la prime.
En effet, on a une priorité du Stop Loss CCR à 200% sur la base d’une prime nette du
quote part (50% de la prime initiale).

On est face ici à un problème d’optimisation stochastique où les contraintes et les objectifs
à atteindre dépendent de lois de variables aléatoires.

Afin de respecter le risk appetite d’AXA France, on va étudier des priorités entre 80%
et 140% (valeurs situées dans un intervalle autour de la valeur de référence 100%). La
capacité étant fixée, la portée sera aussi fixée par la valeur de la priorité (Portée =
Capacité − Priorité). Nos programmes d’optimisation ne dépendront donc qu’un seul
paramètre : la priorité d.

L’objectif principal de la réassurance est de réduire le risque auquel est soumis AXA
France mais doit aussi permettre de rentabiliser ses affaires en réduisant le coût des

38
évènements exceptionnels. La réassurance doit donc permettre d’atteindre des objectifs
de :
• gain STEC
• réduction du risque
• augmentation de la rentabilité

Pour cela, la réassurance devra répondre à certaines contraintes notamment au niveau


du coût de la réassurance qui ne pourra pas dépasser un seuil maximal.

4.3.2 Définition de la mesure du risque et des objectifs


Maximisation de la rentabilité

On définit la rentabilité Rtot d’un traité de réassurance comme étant le résultat global
moyen sur 10000 années soit :
Rtot = E(R + CA)
Rtot = E(R) + CA

avec R = (Ri )1≤i≤10000 et CA le chiffre d’affaires sur le périmètre CatNat.

En utilisant les notations précédentes, on a :

Rtot = E(CA + Z − Pr − X)

avec X = (Xi )1≤i≤10000

Puis on a dans notre modèle de cotation,

Pr = E(Z) + ρσ(Z)

Donc,
Rtot = CA + E(Z) − E(Z) − ρσ(Z) − E(X)
Rtot = CA − ρσ(Z) − E(X)

La capacité du traité étant fixée, σ(Z) est une fonction décroissante de d. En effet, en
augmentant la priorité d, on réduit la volatilité des récupérations avec une capacité de
traité constante (le résultat serait faux si la capacité varie). Ainsi, Rtot est une fonction
croissante de d dans ce modèle de cotation utilisée. La priorité qui maximise la rentabilité
se situera donc à la frontière supérieure des valeurs admissibles pour d.

39
Minimisation du risque

Comme nous l’avons vu dans le premier chapitre, le risque peut être évalué à l’aide
de différentes mesures et nous allons dans cette étude nous intéresser à la volatilité du
résultat, sa VaR et sa TVaR en fonction de la priorité.

Si l’on s’intéresse à la volatilité du résultat et que l’on note σtot la volatilité globale sur
nos 10000 scénarios on a : p
σtot = Var(R + CA)
p
σtot = Var(Z − Pr − X)
p
σtot = Var(Z − X)
p
σtot = Var(X − Z)
σtot = σ(X − Z)

X-Z représente la perte nette de réassurance et donc si d augmente la perte nette aug-
mente aussi à capacité constante (la rétention est plus haute) et donc la volatilité de la
perte nette est plus importante. Ainsi, comme pour la rentabilité, la volatilité est une
fonction croissante de d. Le d qui minimise la volatilité se situe donc à la borne inférieure
des valeurs admissibles pour d.

Ainsi, sur des critères de rentabilité-volatilité il est impossible de définir un ou plusieurs


traités optimaux au sens de la frontière efficiente de Markowitz [4].

On va s’intéresser aux 2 autres mesures de risque que sont la VaR à 99,5% et la TVaR
à 99%. La TVaR nous donnera dans notre cas une meilleure vision du risque car nous
avons affaire dans nos CAT Files à des scénarios qui peuvent atteindre quelques milliards
d’euro. On est donc en présence d’une distribution globale avec une queue lourde et la
VaR peut ne pas évaluer assez suffisamment le risque afférent.

Minimisation du STEC

Le STEC représente un capital à immobiliser et donc un coût pour les investisseurs qui
attendent un retour sur capital. On a déjà vu que la réassurance permet de réduire le
montant du STEC en réduisant le risque du portefeuille et on peut alors définir un traité
de réassurance optimal comme le traité qui minimise le STEC et donc qui maximise
le gain en coût en capital. Le montant du STEC P&C dépend du reste du modèle et
notamment des récupérations au niveau du traité en excédent de perte annuelle sur cumul
de rétentions tous périls dommages et donc cela aura un impact sur le pool property

40
per event. Pour déterminer ce STEC, on utilisera le modèle sous Remetrica qui permet
d’obtenir en sortie un montant de STECCAT défini par :

STECCAT = E(Résultatglobal ) − VaR0,5% (Résultatglobal )

Les scénarios extrêmes se situent ici lorsque le résultat CAT AXA France est négatif d’où
l’utilisation de la VaR à 0,5%.

Minimiser le STECP&C revient à s’intéresser seulement au STECCAT en sortie du modèle


à STECprimes et STECréserves identiques.

4.3.3 Résultats

Maintenant que l’on a défini les différents critères à regarder pour choisir une ou plusieurs
couvertures optimales, on va analyser les différents résultats obtenus.

Tout d’abord, on observe que la courbe volatilité-rentabilité est parfaitement linéaire et


croissante ce qui rend toutes les couvertures alternatives efficientes au sens de Markowitz.
La rentabilité moyenne est négative du fait de prix modèles très élevés comme expliqué
en 4.2.

41
Figure 4.2 – Courbe volatilité-rentabilité pour la couverture alternative

On va alors préférer analyser le risque en terme de Tail Value at Risk et on observe qu’une
courbe efficiente se dessine sur la partie haute du graphique 4.3. En effet, les points sur
la partie basse présentent un risque plus élevé et une rentabilité plus faible, ils ne ne sont
donc pas efficients au sens de Markowitz.

Cependant, on observe que la TVaR à 99% du résultat net de réassurance est assez volatile
puisque modifier la priorité de 1% peut modifier la TVaR à 99% de plusieurs dizaines de
millions d’euros. Le même graphique en utilisant la VaR à 99.5% est quasiment linéaire
et croissant et ne permet donc pas de définir des priorités optimales.

42
Figure 4.3 – Courbe risque-rentabilité pour la couverture alternative

On va maintenant s’intéresser au STEC CAT et sa variation en fonction de la priorité.


Avant de calculer le STEC CAT total pour chaque priorité, il faut modifier la priorité du
traité XS Aggregate pour chaque priorité afin d’être sur une même base de calcul. En
effet, en modifiant la priorité de la couverture alternative, on obtient plus ou moins de
pertes en entrée de ce traité. Cependant, il n’est pas nécessaire de recalculer une prime
de réassurance pour ce traité mais de pouvoir estimer la bonne couverture associée au
prix actuel. Le STEC total ne dépend pas des primes de réassurance des traités qui ne
rentrent pas dans le pool(hors primes de reconstitutions) par différence entre la VaR et
l’espérance et sachant que si c est une constante et X une variable aléatoire,

E(X + c) − V aRα (X + c) = E(X) + c − (V aRα (X) + c) = E(X) − V aRα (X)

La prime est constante pour chaque année de simulation donc elle n’influe pas sur le
STEC.

Pour cela, on va noter XN etCCRi les pertes nettes des différents traités qui rentrent
dans l’XS Aggregate avec le traité CCR actuel pour l’année de simulation i, Xalti,j les

43
pertes nettes des différents traités qui rentrent dans l’XS Aggregate avec la couverture
alternative de priorité j pour l’année de simulation i et dCCR la priorité actuelle.

On définit alors la variable NCCR = 10000


P
i=1 1XN etCCRi >dCCR comme le nombre de dé-
passement de la priorité actuelle parmi les 10000 années de simulation et τCCR =
10000/NCCR la période de retour. On va alors définir la priorité dj pour chaque priorité
j de la couverture alternative telle que :

10000
τaltj = 10000/Naltj = P10000 = τCCR
i=1 1Xalti >dj

On modifie alors dans chaque modèle la priorité de l’XS Aggregate pour chaque priorité
testée. Le modèle n’étant pas récursif on va tester des priorités entre 80% et 140% avec
un pas de 10% dans un premier temps pour regarder les cas qui minimisent le STEC.

On obtient les résultats suivants :


Priorité 80% 90% 100% 110% 120% 130% 140%
STECCAT (Me) 494 492 498 509 511 509 509

On observe une variation importante du STEC autour d’une priorité à 100% et que
le STEC est minimal pour les priorités basses. Pour les priorités hautes, le STEC est
quasiment constant. On va alors s’intéresser de plus près au domaine compris entre 80%
et 110%. On a :

Priorité 80% 85% 90% 95% 100% 105% 110%


STECCAT (Me) 494 493 492 494 498 504 509

Les valeurs de d ∈ [80%, 100%] sont donc optimales au niveau de la minimisation du


STEC.

On a dans cette partie comparé les différentes priorités de couvertures alternatives entre
elles sans s’intéresser à la comparaison avec la couverture CCR.

4.3.4 Comparaison de la couverture CCR et de la couverture alterna-


tive

On va maintenant comparer les différentes couvertures alternatives à la couverture CCR


actuelle en terme de probabilité de rentabilité et de gain moyen. Pour les différentes
études, on prendra comme hypothèse que le ratio défini en 2.2.2 est compris entre 400%

44
et 500% ce qui signifie que l’on aura des commissions fixes et potentiellement des com-
missions variables.

Intéressons nous tout d’abord à la probabilité de rentabilité des différentes couvertures


alternatives par rapport à la couverture CCR. Il s’agit de la variable Prentaj définie par :
P10000
i=1 1Ri,j >RCCRi
Prentaj =
10000

avec Ri,j etRCCRi définis en 4.2, j représentant les différentes priorités pour la couverture
alternative.

On obtient le graphique suivant :

Figure 4.4 – Probabilité de rentabilité de la couverture alternative par rapport à la


couverture CCR

45
On observe une cassure après 120% mais globalement les valeurs hautes de priorité
semblent être les plus rentables avec un maxima à d=140%. Cela s’explique par la plus
faible prime payée avec des priorités hautes pour la couverture alternative ce qui rend
la couverture alternative plus rentable dans des scénarios avec une sinistralité faible (les
récupérations du Quote Part ne rattrapent pas l’écart entre la prime payée à la CCR
et la prime de la couverture alternative).Globalement, on observe sur cette courbe deux
effets : un effet prime et un effet récupérations. La croissance de la courbe s’explique par
l’effet prime, une priorité plus haute entraîne une prime plus basse alors que les cassures
observées s’expliquent par un effet récupération, on paie moins de primes mais on ne
récupère pas assez avec le Stop Loss. La probabilité de rentabilité est assez faible du fait
de prix modèles très élevés ce qui détériore le résultat de réassurance de la couverture al-
ternative. Globalement, on observe que pour des priorités faibles le prix de la couverture
alternative est trop élevée et le sera probablement avec un prix marché. La couverture
CCR possède un quote part qui détériore le résultat en donnant 50% de la prime au
réasssureur mais en contrepartie le prix modèle du Stop Loss est assez faible et couvre
les événements en illimité contrairement à la couverture alternative.

On peut aussi s’intéresser au gain moyen sachant rentabilité Grentaj (si on s’intéresse au
gain moyen sans condition celui ci sera négatif) de la couverture alternative j défini par :

Grentaj = E(Ri,j − RCCRi /Ri,j ≥ RCCRi )

46
Figure 4.5 – Gain moyen de la couverture alternative par rapport à la couverture CCR

On observe cette fois que le gain moyen sachant rentabilité est plus élevé pour des valeurs
basses de la priorité avec un maxima atteint pour d=80%. Cela s’explique par le fait que
les scénarios où la couverture alternative est plus rentable sont moins nombreux comme
vu en figure 4.4 et sur ces scénarios là AXA France gagne plus. En effet, avec cette
méthode de tarification, pour des priorités faibles le prix de la couverture alternative
est proche de celui de la couverture CCR et donc pour tous les scénarios où on ne
récupère rien le résultat sera moins bon du fait de l’existence du Quote Part à 50% qui
récupère systématiquement. Les scénarios avec un delta de résultat positif sont ceux où
l’on récupère avec le Stop Loss de la couverture alternative mais pas le Stop Loss de
la CCR. Outre la différence dans les primes modélisés entre les deux couvertures, les
sinistres cédés au Stop Loss CCR sont nets de Quote Part et donc le Stop Loss joue
moins souvent.

Imaginons un scénario où le S/P vaut 200%.


— Dans le cas de la couverture CCR, on ramène le S/P net à 100% mais le Stop Loss
ne joue pas car il attache à 200%.

47
— Dans le cas de la couverture alternative avec une priorité à 80%, on ramène le S/P
net à 80% ce qui crée un gain important. Avec un S/P à 100%, on a égalité.

Ceci explique le gain plus important sur des priorités faibles mais avec des probabilités de
scénarios plus faibles. Le gain moyen remonte pour des priorités hautes car la différence
entre les primes modélisés vient compenser les récupérations du Quote Part de la CCR
sur les scénarios avec peu de pertes.

4.3.5 Conclusion de nos études

Globalement, on retient que les différentes études n’apportent pas les mêmes conclusions.
En effet, selon les critères que l’on privilégie, les priorités optimales ne se situent pas
dans le même intervalle. Le critère qui paraît le plus judicieux notamment au vu des
prix obtenus à l’aide du modèle est de minimiser le STEC et donc de s’orienter vers une
couverture avec une priorité entre 80% et 100%. En effet, on a vu que le montant du
STEC ne dépendaient pas des primes de réassurance de la couverture alternative (hors
primes de reconstitutions) ce qui permet de comparer vraiment les couvertures entre elles
au niveau des récupérations et ainsi du résultat global.

Cependant, chercher une couverture alternative revient à ne plus se couvrir avec la cou-
verture CCR qui reste fortement intéressante au niveau du risque Cat Nat. En effet, cette
couverture couvre en illimité les événements catastrophes naturelles qui peuvent générer
des pertes énormes de l’ordre de plusieurs milliards d’euros. Le prix du Stop Loss CCR
est relativement bas. De plus le Quote Part à 50% est responsable d’une importante fuite
de primes mais il permet de récupérer en contrepartie 50% du montant des évènements
ce qui n’est pas négligeable.

Retenons aussi que le STEC CAT obtenu avec la couverture CCR actuelle diminue d’en-
viron 50Me ce qui représente après diversification un gain d’environ 10Me ce qui n’est
pas négligeable.

Il serait intéressant d’étudier une couverture CCR modifiée avec un taux de cession plus
faible et de modifier en conséquent la couverture en Stop Loss pour respecter l’appétit
au risque d’AXA France IARD. Cette étude sera menée à la suite de ce mémoire.

Ainsi, il n’apparaît pas forcément judicieux pour AXA France de sortir de la couverture
CCR notamment au regard du fait que les années 2016 et 2017 ont été particulièrement
touché. En cas de volonté pour AXA France de trouver une couverture alternative, les
différentes études permettent d’évaluer le risque relatif aux différentes priorités et de
décider de la couverture à choisir.

48
Chapitre 5

Modification de la couverture CCR

5.1 Enjeux et objectifs

On a identifié dans les parties précédentes que le principal problème que rencontre AXA
France au niveau de la couverture CCR est dû à une fuite importante de primes avec le
quote part à 50% ainsi que les faibles commissions sur les dernières années. Afin de palier
à ce manque à gagner en primes et commissions, il pourrait être intéressant d’envisager
une couverture CCR différente avec un taux de cession plus bas afin de conserver une
majeure partie de la prime sur le périmètre CATNAT. En contrepartie, la priorité du
Stop Loss en illimité pourra être modifiée afin de respecter l’appétit au risque. En effet,
un taux de cession plus bas entraînera des primes nettes de quote part plus élevées pour
AXA France et donc la rétention en valeur relative sera modifiée à la baisse (la rétention
en valeur relative est inversement proportionnelle à la prime nette de quote part). Afin
de déterminer la nouvelle priorité du Stop Loss CCR pour un taux de cession c, on va
considérer que la rétention du Stop Loss CCR doit être identique en montant absolue
dans les deux cas. Ainsi, en notant CA le chiffre d’affaires sur le périmètres CATNAT
et d’ la rétention de la nouvelle couverture CCR (exprimée en pourcentage de la prime
nette du quote part) on doit avoir l’égalité :

(1 − c) × CA × d0 = 50% × CA × 200%

Soit,

1
d0 =
1−c

Par exemple, pour un taux de cession à 30% on aura d0 ' 143%

On pourra aussi envisager de garder la priorité de 200% pour le Stop Loss (priorité en

49
montant absolu plus élevé) afin de payer moins de primes mais en contrepartie de prendre
plus de risques.

La cotation du Stop Loss de la CCR est basée sur un taux appliqué aux primes nettes
de Quote Part. Lors de la modification du Quote Part de la CCR, on va appliquer cette
même méthode en estimant un taux en faisant quelques hypothèses.

Cependant, même si AXA France conserve une part de primes plus importante avec un
taux de cession plus bas, elle va récupérer moins au titre du traité en quote part et cette
différence ne sera pas pas compensée par les récupérations du Stop Loss de la nouvelle
couverture. Il est alors intéressant de mesurer l’impact sur la rentabilité et sur le risque de
cette nouvelle couverture CCR. Il ne suffit pas de comparer la rentabilité de la nouvelle
couverture CCR à celle de la couverture actuelle mais de mesurer aussi l’impact sur le
traité XS Aggregate ainsi que sur le résultat du pool qui dépend du résultat de ce traité
XS Aggregate.

5.2 Etude d’un taux de Quote Part à 25%

On étudiera dans cette partie un taux de Quote Part diminué de moitié à 25% et on
étudiera un Stop Loss avec une priorité à 133% pour respecter le Risk Appetite actuel
ainsi qu’une priorité à 200%. Au niveau des commissions, il n’est pas certain qu’un taux
de commission fixe à 5% soit accepté avec un tel niveau de Quote Part donc il faudra
mesurer l’impact sur la rentabilité de ce changement de commissions.

Au niveau de la cotation, AXA France n’est pas certain de pouvoir obtenir le même taux
de prime pour le Stop Loss avec un Quote Part à 25% et on testera alors l’utilisation de
deux taux différents. Ces taux s’appliquent sur des Stop Loss avec des priorités à 200%.
Pour le Stop Loss avec une priorité à 133%, on déterminera un taux de prime au prorata
200%
des priorités, soit pour un taux de prime actuel de t, on prendra t0 = t × . Pour des
133%
soucis de confidentialité, on ne donnera aucune information sur les taux de prime utilisés
dans la modélisation. Les traités CATNAT actuels n’étant pas poolés et ne comportant
pas de primes de reconstitutions le changement de primes pour une couverture avec un
même quote part n’aura aucun impact sur le STEC CAT. L’impact en changeant le taux
de Quote Part ou le taux de commissions fixes viendra des commissions en elles mêmes
ou des récupérations de l’XS Aggregate qui verra ses pertes en entrée modifiées. En effet,
avec un Quote Part à 25%, les rétentions nettes augmentent en moyenne puisque l’on
récupère moins sur le CATNAT.

On considère d’abord une priorité à 200% qui ne respecte donc pas le Risk Appetite

50
actuel. On peut définir un nouveau résultat de le couverture CCR par :

0, 75XiF R
 
FR DR
RCCRi = 0, 25Xi − 0, 25(P + P ) + max − 200%, 0 0, 75P F R
0, 75P F R
0, 75XiDR
 
+ max − 3200%, 0 0, 75P DR + Ci − P SL − Xi
0, 75P DR

avec PSL = 0, 75t0 (P F R + P DR ) où le terme 0, 75(P F R + P DR ) traduit les primes sur le


périmètre CATNAT nettes de Quote Part et t’ le taux de prime dans le cas d’une cession
à 25%, ce qui nous donne :

0, 75XiF R
 
0 FR DR
RCCRi = 0, 25Xi − (0, 25 + 0.75t )(P + P ) + max − 200%, 0 0, 75P F R
0, 75P F R
0, 75XiDR
 
+ max − 3200%, 0 0, 75P DR + Ci − Xi
0, 75P DR

Le but est de déterminer le S/C annuel tel que le résultat net avec la nouvelle couverture
couverture est égal au résultat de la couverture CCR actuelle défini en 4.2. On va déter-
miner ce résultat graphiquement à l’aide du modèle notamment du fait des commissions
qui compliquent le calcul numérique (les commissions dépendent du S/C) ainsi que le
split entre entre les événements France Métropolitaine et DROM.

Pour un Stop Loss avec 0% de taux de commissions fixes et un taux de prime t’ plus
élevé on obtient en considérant le bénéfice net de réassurance (on exclue les pertes brutes
qui n’apportent rien dans la comparaison entre 2 couvertures) :

51
Figure 5.1 – Comparaison des bénéfices de réassurances

Ainsi, la nouvelle couverture CCR dans le scénario le moins avantageux pour AXA France
est rentable jusqu’à un S/C annuel de 78%. La probabilité d’être en dessous de ce seuil est
de 57% avec une perte moyenne par rapport à la couverture CCR actuelle de 7Meenviron.
Le gain sachant la rentabilité de la couverture CCR avec un Quote Part à 25% est lui
beaucoup plus important et s’élève à 15Me. On voit ainsi que la fuite des primes avec
le Quote Part à 50% est majoritairement responsable au niveau du modèle du bénéfice
moins important pour AXA France mais dans ce scénario en moyenne la couverture CCR
actuelle est plus rentable du fait d’un taux de prime de Stop Loss plus important et de
l’annulation des commissions fixes. On mesure l’impact de ces commissions sur le bénéfice
net à 2,5Meen moyenne.

Les résultats sont plus criants avec un taux de prime moins élevé puisqu’on obtient :

52
Figure 5.2 – Comparaison des bénéfices de réassurances

Le seuil de S/C s’élève dans le meilleur des cas pour AXA France à 93% avec une
probabilité d’être en dessous du seuil de 63%. On obtient un gain moyen par rapport à la
couverture actuelle de 2Meet un gain moyen sachant rentabilité de la nouvelle couverture
CCR de 22Me.

Globalement, la couverture CCR alternative est très intéressante d’un point de vue ren-
tabilité et permet de comparer contrairement à la partie précédente avec des prix pour le
Stop Loss CCR que l’on trouve sur le marché. Cependant, la modification de la couver-
ture CCR entraîne des modifications de l’XS Aggregate qui doit être revu afin d’avoir un
tarif cohérent avec le risque cédé. En effet, avec un Quote Part à 25% et une rétention
qui est maintenue à 200%, les rétentions nettes de couvertures CCR sont plus impor-
tantes et les pertes agrégées de l’XS Aggregate augmentent en moyenne toutes choses
égales par ailleurs. On va appliquer la même méthode que lors de la structuration de la
couverture alternative en Stop Loss décrite en 4.3.3 et mesurer l’impact sur le STEC.
On s’attend ici à ce que l’impact sur le STEC ne soit pas très important car on couvre
toujours les événements CATNAT en illimité ce qui protège grandement notre résultat
annuel bicentenaire.

On observe avec le modèle que l’impact sur le STEC avec une rétention de l’XS Aggregate

53
augmentée est nul car en effet on récupère moins sur l’XS Aggregate ce qui dégrade notre
résultat annuel bicentenaire mais en contrepartie on récupère moins en moyenne donc on
protège notre STEC.

Ainsi, la couverture CCR modifiée présente beaucoup d’avantages dans le sens où elle
protège toujours aussi bien le STEC CAT avec cette couverture en illimité et permet
de réduire grandement la prime cédée au titre du Quote Part. Selon les conditions de
négociations sur le taux de prime du Stop Loss et les commissions sur le Quote Part, la
rentabilité est plus ou moins intéressante. En effet dans le scénario le moins bien pour
AXA France, le gain moyen modélisé est négatif mais est positif en dessous d’un S/C
annuel de 79%. Historiquement, sur les 18 dernières années, 15 années possèdent un S/C
annuel inférieur à 79% ce qui nous donne un bon indicatif sur la probabilité d’être en
dessous du seuil.

5.3 Etude d’un taux de Quote Part quelconque

Dans cette partie, on va s’intéresser à la rentabilité de la couverture CCR si l’on choisit


un Quote Part avec un taux quelconque et un Stop Loss avec une priorité à 200%. Pour
le Quote Part, on se limitera à des taux de cession compris entre 25% et 75% pour avoir
un intervalle assez large autour de la valeur actuelle de 50%.

Pour cela, on va régresser un taux de prime du Stop Loss en utilisant la valeur actuelle
pour le Quote Part à 50% ainsi qu’une valeur cible pour le Quote Part à 25%. On
choisit une régression linéaire et on obtient avec cette méthode une équation de la forme
f (c) = ac + b avec c le taux de cession et a négatif. Cela signifie que plus on cède de
primes au titre du Quote Part plus le prix du Stop Loss sera avantageux. Avec cette
formule le taux de prime n’est pas minoré et on pourrait envisager que l’on puisse avoir
des taux de primes négatif. On va donc mettre une borne inférieure afin de prendre en
compte cet effet de 1%. On obtient alors

f (c) = max(ac + b, 1%)

puis :
P SL = (1 − c)f (c)(P F R + P DR )

On va donc chercher à maximiser la rentabilité de la couverture CCR par rapport à la


couverture CCR actuelle et on écrit le programme d’optimisation suivant :

max E(RCCRc − RCCR50% )


c∈[25%,75%]

54
ce qui nous donne :

XiF R
 
FR DR
max E(cXi − (c + (1 − c)f (c))(P + P ) + max − 200%, 0 (1 − c)P F R
c∈[25%,75%] PFR
 DR 
Xi
+ max − 3200%, 0 (1 − c)P DR + Cic − 0, 5Xi + (0, 5 + 0, 5f (0, 5))(P F R + P DR )
P DR
 FR   DR 
Xi FR Xi
− max − 200%, 0 0, 5P − max − 3200%, 0 0, 5P DR − Ci50% )
PFR P DR

avec Cic = τ ×max(1−tauxf ixe −S/C, 0)(P F R +P DR )×c où τ est le taux de commission
variable associé au S/C défini contractuellement.
En regroupant les termes, on a :

max E((c − 0, 5)Xi − (c − 0, 5 + (1 − c)f (c) − 0, 5f (0, 5))(P F R + P DR )


c∈[25%,75%]

XiF R
   DR 
FR Xi
+ max − 200%, 0 (1 − c − 0, 5)P + max − 3200%, 0 (1 − c − 0, 5)P DR
PFR P DR
+Cic − Ci50% )

On ne pourra pas résoudre numériquement ce problème d’optimisation notamment à


cause de la fonction f que l’on a défini qui n’est pas dérivable.

Dans le cas général, il est difficile de prédire le comportement de l’espérance notamment


du fait de la présence des commissions qui dépendent de la prime cédée et donc du
taux de cession c. On s’attend tout de même à ce que les commissions jouent un rôle
important dans la rentabilité des couvertures avec des taux de cession importants. En
effet, les commissions sont proportionnelles à la prime cédée et donc au taux de cession.
Il sera alors intéressant de regarder l’impact de l’annulation des commissions comme cela
est le cas actuellement avec le ratio de réserves de la CCR attendu en dessous de 400%.

Dans le cas général, on obtient,

55
Figure 5.3 – Delta de résultat par rapport au taux de cession actuel

On observe que la rentabilité globale est minimale pour un taux de cession de 25% et
maximale pour un taux de cession de 63%. La cassure que l’on observe est due au fait qu’à
partir de c = 65% le taux de prime du Stop Loss ne décroît plus et reste constant égal à
1% ce qui dégrade la rentabilité car on cède plus de primes avec un taux de cession plus
élevé mais la prime du Stop Loss ne décroît plus dans les mêmes proportions qu’avant ce
seuil de 65%. Cependant, pour des Quote Part avec des taux de cession élevés, on récupère
beaucoup au titre du Quote Part ainsi qu’en commissions ce qui augmente la rentabilité
de ces cas là ce que montre le graphique. Si on enlève les commissions, on s’attend à
ce que les taux de cessions élevés soient beaucoup moins rentables du fait d’une grosse
prime cédée en Quote Part sans recevoir aucune commission proportionnelle à celle-ci.

56
Figure 5.4 – Delta de résultat par rapport au taux de cession actuel sans commissions

Comme attendu, les commissions jouent un rôle important dans la vision de la rentabilité
de notre résultat modélisé puisqu’on voit que maintenant, le taux de cession optimal est
autour de 35% et les taux de cessions élevés ne sont plus du tout intéressants.

Enfin, le modèle présente un nombre important de scénarios avec des S/C élevés bien
historiquement le Stop Loss CCR n’a jamais joué pour AXA France car la plupart des S/C
ne dépassent pas 100%. On peut alors limiter le programme d’optimisation au dessous
d’un seuil de S/C brut de réassurance de 200% qui implique que le Stop Loss ne jouera
pas pour aucun taux de Quote Part. Dans ce cas-là, on doit trouver en supposant les
commissions nulles :

E (c − 0, 5)Xi − (c − 0, 5 + (1 − c)f (c) − 0, 5f (0, 5))(P F R + P DR )



max
c∈[25%,75%]

Si l’on fait l’hypothèse que f (c) = ac + b ce qui est une hypothèse conservatrice dans
le sens où on améliore le résultat des couvertures avec un Quote Part élevé avec cette

57
formule, on peut dériver la formule précédente et on obtient

E(Xi ) − (P F R + P DR )(1 + (1 − c)f 0 (c) − f (c)) = E(Xi ) − (P F R + P DR )(1 + (1 − c)a − ac − b)


= E(Xi ) − (P F R + P DR )(1 + a − 2ac − b)

Puis :

E(Xi ) − (P F R + P DR )(1 + a − 2ac − b) ≥ 0


E(Xi )
↔ 2ac + b ≥ 1 + a −
PFR + P DR
E(Xi )
1+a− −b
↔ c≤ P F R + P DR (a négatif)
2a

Numériquement, on trouve que c doit être négatif pour que la fonction soit croissante
donc sur notre intervalle [25%,75%], la fonction est décroissante ce qui signifie que le max
est atteint à la frontière en c=25%.

58
Figure 5.5 – Delta de résultat par rapport au taux de cession actuel pour des S/C
inférieurs à 200%

Graphiquement, on confirme notre analyse en observant une décroissance quasi linéaire


de notre delta de résultat et un optimum pour c=25%. L’ajout des commissions lisse
la courbe sur les taux de Quote Part élevés mais ne modifie pas la conclusion quand à
l’optimum recherché.

5.4 Respect du Risk Appetite actuel

Maintenant, dans l’optique où l’on peut modifier la structure du Stop Loss en modifiant
la priorité, on va étudier le cas où l’on respecte le Risk Appetite avec une priorité égale
1
à 1−c comme défini en 5.1. Dans cette partie, la priorité du Stop Loss sur le périmètre
France Métropolitaine se définit par d0 = 1−c 1
et la fonction de taux de prime par g(c) =
f (c) × 200% × (1 − c). On va seulement s’intéresser ici à la rentabilité dans le cas où le

59
S/C ne dépasse pas 200% et sans commissions. Il s’agit de résoudre :

E (c − 0, 5)Xi − (c − 0, 5 + 2(1 − c)2 f (c) − 0, 5f (0, 5))(P F R + P DR )



max
c∈[25%,75%]

En dérivant le terme ci-dessus sous les mêmes hypothèses sur la fonction g que la fonction
f,on suppose g(c)=2(ac+b)(1-c)) on obtient :

E(Xi ) − (P F R + P DR )(1 + 2(1 − c)2 f 0 (c) − 4(1 − c)f (c))


= E(Xi ) − (P F R + P DR ) 1 + 2(1 − 2c + c2 )a − 4(1 − c)(ac + b)


= E(Xi ) − (P F R + P DR )((1 + 2a) + c(−8a + 4b) + 6ac2 )

On se retrouve à résoudre une équation du second degré en c afin de trouver les optimum
sur notre intervalle. On trouve en résolvant l’équation une racine sur notre intervalle
autour de 35% ce que l’on confirme graphiquement.

Figure 5.6 – Delta de résultat par rapport au taux de cession actuel pour des S/C
inférieurs à 200%

60
On observe que l’on réduit la rentabilité par rapport à la couverture actuelle avec un
optimum à 35% contrairement au résultat précédent où l’on trouvait un optimum à la
frontière inférieure soit 25%. Le respect du Risk appetite réduit la rentabilité ce qui pose
la question de savoir si l’on doit à tout prix garder le même risk appetite qu’actuellement
ou si l’on peut augmenter celui-ci afin de gagner en rentabilité.

61
Chapitre 6

Structuration d’une couverture de


réassurance

Maintenant que l’on a testé une couverture alternative en Stop Loss ainsi qu’une amélio-
ration de la couverture CCR actuelle, il peut être intéressant d’intégrer les évènements
Cat Nat dans le programme général d’AXA France afin de simplifier la réassurance et
d’essayer d’optimiser différents critères. Cependant, on ne pourra pas couvrir la séche-
resse dans un traité par événement comme vu en 4.1, donc on structurera un Stop Loss
(priorité et portée) pour ce péril que l’on n’incluera pas dans le Pool Property per Event.

Cependant, l’intégration des catastrophes naturelles dans le programme général amène


potentiellement à modifier sa structure notamment au niveau du nombre et du prix
des reconstitutions présentes, du tranchage actuel et du prix d’équilibre des différents
tranches qui est calibré sur les prix du renouvellement 2018 avec exclusion des Cat Nat.

Il faudra aussi s’attacher à vérifier l’appétit au risque sur les évènements Cat Nat no-
tamment avec la rétention actuelle du programme général et s’intéresser à l’impact sur
le pool ainsi que sur le traité XS Aggregate qui verra ses rétentions agrégées en "entrée"
du traité modifiées.

Tout d’abord, avant de présenter les différentes études il sera utile de présenter les données
utilisées et rappeler des concepts de théorie des valeurs extrêmes et d’analyse de données
notamment pour réaliser le tranchage de la nouvelle couverture.

6.1 Présentation des données

62
Figure 6.1 – Répartition de la charge des événements

On observe que la plupart des données entrantes dans le programme général sont concen-
trés jusqu’à 500Me et deviennent plus disparates ensuite. On s’attend alors à devoir avoir
plusieurs tranches jusqu’à 500M-600Me et des tranches plus larges ensuite afin de pou-
voir optimiser le prix payé par tranche. Quelques statistiques descriptives nous indiquent
que la moitié des pertes entrantes dans le Programme Général incluant les CATNAT
se situent en dessous de 180Me ce qui signifie idéalement que notre première tranche
doit être en dessous de ce seuil afin de ne pas inclure trop de pertes et de payer cher la
première tranche. La moyenne des pertes est quand à elle située autour de 270Me du
fait de l’existence de plusieurs pertes extrêmes entrantes dans le Programme Général qui
remontent cette moyenne.

63
Figure 6.2 – Répartition de la charge de l’événement par ordre croissant

6.2 La théorie des valeurs extrêmes

La théorie des valeurs extrêmes permet d’étudier le risque des événements inhabituels
notamment des données qui se trouvent au dessus d’un seuil et donnent des méthodes afin
de le déterminer. Le seuil en question est une limite au-delà de laquelle les estimateurs
TVE mettent en évidence un comportement différent de nos données de perte. Il faut
pour cela pouvoir interpréter graphiquement les estimateurs que l’on définira par la suite.
Dans notre situation , on peut envisager étudier des seuils itératifs afin de déterminer
plusieurs tranches de réassurance pour notre programme. La méthode consistera à :
• Déterminer un seuil à partir des différents estimateurs considérés (Hill et DEdH)
• Sélectionner les données qui se situent au dessus de ce seuil
• Déterminer un nouveau seuil sur le nouveau jeu de données.

64
L’estimateur de Hill

L’estimateur de Hill est l’estimateur le plus utilisé dans la détermination d’un seuil. Il se
définit de la façon suivante :
k
Hill 1X
γ
bX,k,n = log Xn−i+1,n − log Xn−k,n
k
i=1

avec X1,n , ..., Xn,n les statistiques d’ordre associées à notre échantillon de données de
pertes CAT.

Il est possible d’interpréter graphiquement cet estimateur en considérant le graphe de


coordonnées !
n+1
log , log Xn−i+1,n
i
Ce graphe sera approximativement linéaire pour les valeurs situées au dessus de notre
premier seuil, avec une pente γ [5].

65
Figure 6.3 – Estimateur de Hill

On constate sur la figure 6.3 que l’estimateur se stabilise autour de 350Me. En choisissant
ce montant, la première tranche de notre programme est beaucoup trop grande et le prix
payé sera trop élevé pour que l’on retienne ce choix.

L’estimateur de Dekkers-Einmalh-de Haan

L’estimateur de Dekkers-Einmalh-de Haan (ou DEdH) est défini par [5][6] :


 −1
Hill(1) 2
 
1 γ
bX,k,n
DEdH Hill(1)
γ bX,k,n + 1 − 1 −


bX,k,n Hill(2)
2

γ
bX,k,n

Hill(l) 1 Pk−1
avec γ
bX,k,n = (log Xn−i,n − log Xn−k,n )l
k i=1

66
Graphiquement, on trace l’estimateur en fonction de k pour k variant de 1 à n avec
n notre nombre de données. On regarde ensuite à partir de quel seuil l’estimateur se
stabilise et on détermine notre premier seuil ainsi.

Figure 6.4 – Estimateur DEdH

67
On observe que l’estimateur se stabilise à partir de la 2000ème statistique d’ordre ce qui
correspond à un seuil de 270Me. Le seuil est plus faible que celui estimé avec l’estimateur
de Hill mais il reste élevé pour la première tranche de notre programme.

On va alors tester pour trancher notre programme général une méthode basée sur l’ana-
lyse de données et sur la classification des données.

6.3 La théorie de l’analyse des données

Dans cette partie, on présentera les différents concepts d’analyse de données et notam-
ment les méthodes de classification afin de pouvoir regrouper nos données dans différentes
"classes" et ainsi structurer notre programme de réassurance. Il conviendra évidemment
de vérifier que les résultats sont cohérents notamment au niveau de la taille des tranches
et du ROL de chaque tranche obtenu.

6.3.1 La méthode des k-means


Principe de l’algorithme

Pour la méthode des K-means, on cherche à partitionner nos points en K ensembles en


minimisant la distance entre les points à l’intérieur de chaque classe.

En notant, xj , j ∈ [1, n] avec n le nombre de données, nos différentes valeurs de pertes


,µi i ∈ [1, K], k ≤ n le centre de classe i et Cµi la partition de centre µi , on cherche à
minimiser [7] :
XK X
d(xj , µi )
i=1 xj ∈Cµi

On utilisera pour cette algorithme afin de calculer la distance entre un point et un centre
de classe la distance euclidienne d définie par
q
d(xj , µi ) = (xj − µi )2

Choix du nombre de classes K

Notre jeu de données étant de taille significative, il est n’est pas évident de choisir le
nombre de classes K. En effet, on ne peut pas avoir K trop grand car cela reviendrait à
devoir acheter une multitude de tranches de réassurance ce qui n’est pas envisageable ni
K trop petit car on souhaite pouvoir décomposer notre programme en plusieurs tranches
afin de payer moins cher les tranches hautes qui sont moins travaillantes (ROL plus

68
faible). En effet, si l’on achète par exemple 2 ou 3 tranches de réassurance pour notre
programme entier, on va payer ces tranches avec des ROL élevés alors que la partie haute
de la tranche est moins touchée que la partie basse. On envisage alors d’obtenir K entre
4 et 12 tranches, le programme actuel étant décomposé en 9 tranches et on s’attend à ce
que les tranches basses soient plus petites que celles du haut car elles concentrent plus
de pertes.

La méthode classique pour déterminer le nombre de classes est de prendre K tel que celui-
ci minimise l’inertie intra-classe. Il s’agit de déterminer K afin que les clusters retenus
minimisent la distance entre nos valeurs de pertes et leurs centres de classe. En d’autres
termes, on cherche à minimiser la variance globale V définie par :
K
X X
V = d(xj , µi )2
j=1 xj ∈Cµi

Avec nos données, on obtient pour différentes valeurs de K :

Figure 6.5 – Variance globale en fonction du nombre de classes K

69
On observe que la variance ne se réduit plus significativement à partir de K=7. On va
donc retenir cette valeur et calibrer un nouveau tranchage constitué de 7 tranches.

6.3.2 La classification ascendante hiérarchique

La classification ascendante hiérarchique (CAH) est une méthode de classification itéra-


tive qui vise à regrouper une population en différentes classes ; la population représentant
dans notre étude les données des CAT Files rentrant dans le programme général. Les in-
dividus regroupés au sein d’une même classe doivent être le plus semblable possible et les
différentes classes créées doivent être le plus différentes entre elles. Dans la CAH, on dé-
finit un critère de ressemblance à l’aide d’une matrice de distance (distance euclidienne)
définie pour chaque couple de points. Par itération, la CAH va regrouper les individus les
plus proches entre eux et produire un arbre de classification à l’aide d’un critère de re-
groupement appelé aussi stratégie d’agrégation. Plusieurs méthodes permettent d’agréger
les données dont les principales [8] [9] :
— Le saut minimum qui consiste à regrouper les 2 éléments qui présentent la plus
petite distance entre éléments des deux classes. Si on note C1 et C2 2 classes déjà
crées, on a :
d(C1 , C2 ) = min d(a, b)
a∈C1 ,b∈C2

— Le saut maximum qui consiste à regrouper les 2 éléments qui présentent la plus
grande distance entre éléments des deux classes. On note :

d(C1 , C2 ) = max d(a, b)


a∈C1 ,b∈C2

— La méthode de Ward qui consiste à regrouper les données de telle sorte que l’aug-
mentation de l’inertie intraclasse soit maximale ou par équivalence que l’inertie
interclasse soit minimale. Avec la méthode de Ward, on agrège a chaque itération
les classes dont l’agrégation fait perdre le moins d’inertie interclasse, il s’agit donc
d’une optimisation pas-a-pas. On note :

n1 × n2 2
d2 (C1 , C2 ) = d (G1 , G2 )
n1 + n2
avec n1 , n2 le nombre d’éléments de la classe 1 et 2 et G1 , G2 les barycentres des
classes 1 et 2.

Avec la méthode de Ward, on obtient l’arbre en annexe C

Pour obtenir une partition, il faut découper l’arbre de classification (ou dendogramme)
à une certaine hauteur donnée. L’arbre étant peu interprétable graphiquement, on va
s’aider comme pour la méthode des K-means de l’inertie selon le nombre de classes.

70
Figure 6.6 – Inertie en fonction du nombre de classes avec la méthode de Ward

On observe que l’inertie est minimale à partir de 7 ou 8 classes.

6.4 Comparaison des différentes méthodes

71
Figure 6.7 – Tranchage du nouveau programme général avec la méthode des K-Means

On observe que la méthode des K-means est particulièrement efficace dans le sens où elle
capte le fait que les tranches du bas doivent être plus petites en taille et les tranches
hautes plus grandes. On retiendra donc cette méthode et ce tranchage dans la suite de
nos études.

72
Figure 6.8 – Tranchage du nouveau programme général avec la méthode CAH

On voit que la classification ascendante hiérarchique marche moins bien que la méthode
des K-means car la taille des tranches n’est pas croissante notamment pour les tranches
2 et 3 qui sont assez larges (plus larges que les tranches 4 et 7) alors qu’elles captent
beaucoup de pertes ainsi que la dernière tranche qui est très petite au regard du nombre
de pertes présentes. On retiendra alors pour la suite le tranchage obtenu avec la méthode
des K-means qui semble plus cohérent globalement avec notre étude.

Le tranchage obtenu avec les estimateurs des valeurs extrêmes ne comporte que 4 tranches
ce qui n’apparaît pas efficient au premier abord de part la taille de chaque tranche.

Maintenant que l’on a défini un nouveau programme général envisageable pour AXA
France, il faut répondre dans la suite de ce mémoire à trois questions :
• Quels sont les avantages et inconvénients de supprimer la couverture CCR et couvrir
les CATNAT dans le Programme Général ?
• Est-ce que le nouveau tranchage du programme général est plus efficace que l’ancien
avec et sans les CAT NAT ?
• Est ce que les catastrophes naturelles doivent être incluses dans le Pool Property
Per Event ? En d’autres termes, est ce que les catastrophes naturelles doivent être

73
intégrées au programme poolé à 100% ou est-il préférable d’acheter une couverture
différente ?

Il sera difficile de répondre à la 3ème question car les décisions de pooler les traités ou
non et à quelle part ne dépendent pas que d’AXA France mais il s’agit d’une décision au
niveau Groupe. De plus, comme cela a été mentionné en 3.2.2, on fait l’hypothèse dans
nos études que la modification de structure de réassurance ne modifie pas la part dans le
Pool d’AXA France car les impacts sont jugés mineurs. Cependant, intégrer l’ensemble
des catastrophes naturelles dans le programme poolé aura un impact significatif de part
l’importance de ces dernières. En effet, la part dans le pool est calculé au prorata des
primes et pertes modélisées du pool de chaque entité participante.

De plus, intégrer le Programme général dans le Pool Property et acheter une couverture
CATNAT en Excess of Loss sur le marché externe n’est pas très optimal dans le sens où
on ne bénéficie pas de la diversification de couvrir tous les périls dans la même tranche.

On fera donc dans la suite quelques hypothèses afin de pouvoir mener à bien les études.

6.5 Analyse des couvertures de réassurance


6.5.1 Définitions

On va s’attacher dans cette partie à comparer les différentes structures de réassurance


au niveau du traité en lui même sans rentrer dans des considérations d’optimisation de
STEC ou de résultat.

Pour cela, on va étudier :


• La probabilité d’attachement

Il s’agit de la probabilité que la tranche soit "touchée", soit en d’autres termes la


probabilité que les récupérations annuelles soient strictement positives. On note :
P10000
i=1 1Zi >0
Pattachement =
10000
• La probabilité d’épuisement

Il s’agit de la probabilité que la tranche soit "epuisée", soit en d’autres termes le


nombre de fois ou les récupérations annuelles sont égales à la capacité maximale
de la tranche. La probabilité d’épuisement permet de s’assurer que le nombre de
reconstitutions n’est pas insuffisant pour chaque tranche. En effet, si la tranche est

74
trop vite épuisée (période de retour inférieure à 10 ans), il sera judicieux d’aug-
menter le nombre de reconstitutions. Sachant que la capacité maximale annuelle
dépend du nombre de reconstitutions, on écrit :
P10000
i=1 1Zi =(Nrec +1)×l
Pépuisement =
10000
• La moyenne et les quantiles de nos pertes annuelles

Cela permettra d’avoir un avis sur le prix à payer pour telle ou telle couverture en
comparaison de la couverture actuelle ainsi que de pouvoir comparer en terme de
mesure de risque les tranches entre elles.
• Le résultat de réassurance de chaque tranche/traité.

Cependant, afin de pouvoir comparer le résultat de réassurance, il faut pouvoir


définir un indicateur de prix sur la même base pour chaque couverture comparée. En
effet, on ne peut pas comparer le résultat de réassurance de la nouvelle couverture
pour laquelle on aura estimé un prix interne à la couverture actuelle qui possède
un prix "marché". Pour cela, on va introduire une tarification prenant en compte
les récupérations moyennes qui reste un indicateur fort ainsi que le gain en coût du
capital que procure chaque tranche.

Tarification interne des couvertures de réassurance

Acheter de la réassurance permet de réduire le capital (ou STEC) à immobiliser. Or, ce


capital immobilisé a un coût puisque les investisseurs attendent un retour sur investisse-
ment défini par un taux. On peut donc très bien imaginer tarifer un traité de réassurance
en prenant en compte ce gain en coût du capital que représente l’achat de la réassurance
pour AXA France en plus de l’utilisation de la moyenne des récupérations. On définit
alors le prix technique par :

E(Z)
Ptech = + ρ × (STECsans réassurance − STECavec réassurance )
1 + fr

avec
— fr le facteur de reconstitution
— ρ le coût du capital (exprimé en %)
— le STEC sans réassurance, le STEC obtenu avec le modèle lorsque l’on supprime
la tranche de réassurance considérée.
— le STEC avec réassurance, le STEC obtenu avec le modèle considéré global

75
Le facteur de reconstitution fr permet de prendre en compte les futures primes de re-
constitution payées et vise donc à réduire la prime technique. Ces futures primes de
reconstitutions dépendent des pertes entrantes dans le traité et sont donc stochastiques.
On note :
E(Primesrec )
fr =
Prime

Ici, la prime désigne une prime "fictive" qui permet dans un premier temps de déterminer
l’espérance des récupérations et des primes de reconstitutions pour calculer le coefficient
fr .Le dénominateur 1 + fr représente en fait le pourcentage moyen de reconstitution de
la tranche considérée.

On a donc :
E(Z)
Ptech = + ρ × (STECsans réassurance − STECavec réassurance )
E(Primesrec )
1+
Prime

Le STEC considéré pour la tarification est le STEC Primes&CAT diversifié. Comme vu


en 1.2.2, il y a une diversification totale entre le STEC Primes et le STEC CAT (coefficient
dans la matrice de corrélation égal à 0). Donc notre STECPrimes&CAT est donné par :
q
STECPrimes&CAT = STEC2Primes + STEC2CAT

On ne prend pas en compte le risque de réserves dans nos calculs car un coût d’immo-
bilisation du capital a été estimé par le Risk Management sur le risque Primes+CAT
uniquement. Il existe aussi un coût du capital sur le STEC total qui est plus faible à
cause de la diversification avec le STEC réserves et marché mais on prendra directement
par souci de simplicité le coût du capital sur le STECPrimes&CAT . On suppose aussi que le
changement de couverture de réassurance n’influe pas sur le risque opérationnel et donc
que la différence vaut 0.

Maintenant que l’on a défini la tarification utilisée dans la suite de ce mémoire, il faut
pouvoir justifier de son utilisation et qu’elle n’est pas trop éloignée des prix marchés que
l’on a actuellement. Pour cela, on peut comparer les ROL obtenus avec notre tarification
interne et ceux du marché. Cette méthode de tarification n’a pas pour but de concurrencer
les prix obtenus par AXA France mais de pouvoir se donner une indication du prix qu’on
pourrait attendre ainsi que de comparer les différents programmes entre eux.

76
Figure 6.9 – Comparaison des ROL modèle et marché

On observe que les ROL sont assez proches, ceux obtenus avec le modèle sont plus hauts
pour les tranches du bas et redeviennent plus bas sur les tranches hautes. Cela paraît
assez plausible car AXA possède une vision du risque plus importante que celle du marché
donc sur les tranches basses avec un gain STEC important les prix sont plus élevés. Sur les
tranches hautes, le gain STEC est très faible donc le chargement appliqué à la prime pure
est faible en comparaison du marché. Globalement, le choix d’appliquer cette méthode
de cotation est justifiée.

6.5.2 Comparaison de la couverture actuelle avec et sans Cat Nat


Calibration de la couverture Stop Loss sécheresse

La capacité du Stop Loss Sécheresse à acheter nous est donné d’après le graphique 3.1
et les recommandations du Groupe de couvrir un péril jusqu’à sa perte bicentenaire. En
ce qui concerne la priorité on ne va pas chercher à définir une priorité optimale car cela
ne correspond pas au coeur du sujet. On va définir une priorité en fonction du poids de
la sinistralité brute Sécheresse dans les périls CATNAT et ce pourcentage définira notre
priorité du Stop Loss. On utilise comme indicateur la charge moyenne annuelle et on
obtient une priorité de 22%. Pour obtenir un montant absolue, il faut multiplier cette

77
priorité par la prime de tout le périmètre CATNAT.

On considère que ce Stop Loss ne rentre pas dans le Pool Property mais qu’il sera placé
sur le marché "externe" de la réassurance.

Comparaison des couvertures

On va d’abord s’attacher à comparer la couverture de réassurance actuelle avec la cou-


verture de réassurance sans le traité de la CCR où l’on inclue les CATNAT dans le même
programme général qu’actuellement. Dans un premier temps on n’incluera pas le résultat
du pool dans nos résultats pour mesurer son impact en terme de résultat ensuite.

Figure 6.10 – Analyse de la couverture de réassurance actuelle

78
Figure 6.11 – Analyse de la nouvelle couverture de réassurance

Sur le graphique 6.11, les récupérations CATNAT représentent les récupérations qui
viennent du Stop Loss Sécheresse.

Ces deux graphiques représentent les pertes nettes moyennes associées à des pertes brutes
annuelles par intervalle autour d’une valeur définie (avec un pas de 200Me dans notre
cas).Les pertes incluent les primes de reconstitutions payées par AXA France car on
peut considérer cela comme une perte dans le sens où elle sera payée à chaque fois qu’une
récupération se produit. Dans la comparaison de nos deux programmes, les primes de re-
constitutions seront bien plus importantes avec les CATNAT couverts dans le programme
général à cause de primes plus élevées. Il est donc judicieux de rajouter cet élément dans
les pertes nettes mais il n’est pas représenté sur le diagramme des récupérations, seule-
ment dans les pertes nettes. On sélectionne autour de ces valeurs plusieurs scénarios et
on détermine sur ces scénarios certains indicateurs :
— La perte nette moyenne
— Les 1er et 9ème déciles de la perte nette
— Les récupérations moyennes par couverture
— La période de retour de la perte brute centrale de l’intervalle (en blanc sur le
graphique)

Sur le graphique 6.11, les récupérations CATNAT représentent les récupérations qui
viennent du Stop Loss Sécheresse.

79
Figure 6.12 – Comparaison des couvertures de réassurance

Ce graphe reprend les pertes nettes moyennes et les déciles en fonction des pertes brutes
pour mesurer l’écart entre les 2 couvertures. On observe globalement que la perte nette
moyenne est plus basse avec la couverture CCR actuelle. L’effet du Quote Part à 50% est
non négligeable car il permet de récupérer chaque année 50% des pertes brutes CATNAT
même si le Stop Loss de la CCR ne fonctionne pas.

De plus, on observe que les déciles et les écarts par rapport à la moyenne sont bien
plus importants avec la nouvelle couverture de réassurance ce qui pose le problème de
l’incertitude sur les pertes nettes. En effet, on observe pour la couverture de réassurance
actuelle qu’à des périodes de retour faibles (donc les scénarios les plus probables) que
l’écart entre le 1er et le 9ème décile est faible alors que pour la nouvelle couverture celui-
ci est bien plus important. Cet effet est dû à l’existence du Quote-Part qui génère des
récupérations sans limite annuelle. La couverture en XS ne permet pas de couvrir aussi
bien que le Quote Part et amène plus d’incertitude sur les pertes nettes qui pourraient
se produire.

On observe pour les deux couvertures qu’à des périodes de retour élevées l’incertitude sur
les pertes nettes est grande. En effet, à partir d’une période de retour autour de 30ans,

80
l’écart entre nos déciles croît fortement et l’augmentation de capacité sur le programme
général pour couvrir l’inondation jusqu’à son bicentenaire "rattrape" un peu le manque
de récupérations de la couverture CCR.

Globalement, l’écart entre la moyenne de pertes nettes entre la couverture actuelle et la


nouvelle couverture reste stable mais la nouvelle couverture n’arrive jamais à rattraper
l’actuelle. Dans la suite du mémoire, on s’intéressera aussi à l’impact sur le STEC CAT
et le STEC global mais celui devrait augmenter fortement notamment à cause de la
couverture en illimité qui disparaît.

Indicateurs de risque avec la couverture actuelle

Probabilité d’attachement Probabilité d’épuisement


T1 25% 0,5%
T2 15% 0,2%
T3 10% 0,8%
T4 8% 0,4%
T5 6% 0,2%
T6 4% 0,08%
T7 2% 2%
T8 1% 1%
T9 1% 1%

Indicateurs de risque avec la nouvelle couverture

Probabilité d’attachement Probabilité d’épuisement


T1 49% 1%
T2 33% 0,5%
T3 22% 2%
T4 15% 1%
T5 11% 0,4%
T6 7% 0,1%
T7 5% 3%
T8 3% 2%
T9 2% 2%

On observe que les probabilités d’attachement augmentent largement notamment sur


les premières tranches mais que les probabilités d’épuisement restent assez basses pour
justifier de garder le même nombre de reconstitutions par tranche. Par exemple, une
probabilité d’épuisement de 1% correspond à une période de retour de 100 ans ce qui
est suffisamment élevé pour ne pas rajouter de reconstitutions. Le seul cas qui poserait

81
discussion est la tranche 7 qui ne possède aucune reconstitution pour le moment mais
avec une période de retour de 33 ans environ il pourrait être envisagé d’en mettre une
payante.

Figure 6.13 – Comparaison des résultats de réassurance par tranche

Globalement, le résultat de réassurance modélisé par tranche est meilleur avec la cou-
verture actuelle ce qui est notamment du au fait que le STEC en enlevant une tranche
augmente plus qu’en enlevant une tranche de la couverture actuelle. En effet, dans la
couverture actuelle les CATNAT sont toujours couverts par leur traité CCR lorsque l’on
enlève une tranche pour obtenir l’impact STEC. Le graphique 6.13 est calibré sur la
tarification en vision interne pour être sur la même base.

Impact du Pool Property per Event

On s’attend à ce que le résultat du Pool ait un impact significatif sur la nouvelle cou-
verture car AXA France contribue avec beaucoup plus de primes et de primes de recons-
titution dans le Pool. Même si les récupérations locales augmentent (donc les pertes du
pool), on a vu dans le graphe 6.13 que le résultat de réassurance modélisé est plus faible
sur quasiment toutes les tranches donc l’impact sur le résultat du Pool sera positif. En
effet, le pool agit comme un réassureur pour l’entité locale donc un résultat modélisé
négatif pour l’entité revient à un résultat positif pour le pool. De plus, on suppose ici

82
que la part d’AXA France dans le Pool n’est pas modifiée mais on s’attachera à regarder
l’impact si on augmente la part de 5%.

Figure 6.14 – Comparaison des couvertures de réassurance avec l’effet du Pool

On voir à travers la figure 6.14 que le pool a un impact important sur la perte annuelle
moyenne. Globalement, sur les deux options de couverture testées le résultat du pool
permet de lisser les pertes nettes moyennes notamment sur des périodes de retour élevées
où la facilité peut jouer. On observe même que la perte nette moyenne est très proche sur
des périodes de retour élevées pour la nouvelle couverture mais l’écart entre les déciles
reste toujours plus élevé ce qui ne réduit pas l’incertitude sur les pertes nettes. Mais le
résultat du pool impacte aussi l’incertitude autour des pertes nettes pour le programme
actuel car on observe que l’écart entre les deux déciles à des périodes de retour basses
augmente.

L’impact d’une augmentation de la part dans le Pool de 5% est présentée en Annexe D.

83
6.5.3 Le Risk Appetite

Le Risk Appetite sur le CATNAT n’a pas encore été verifié mais il reste une donnée très
importante en vigueur du risque que l’on est prêt à prendre dans des situations de stress.
Il s’agit de répondre à la question de savoir jusqu’où l’on souhaite prendre du risque et
de définir la métrique de mesure et le scénario de stress. Dans la couverture actuelle, le
Risk Appetite est défini par la priorité du Stop Loss à 200% des primes CATNAT. Ce
Stop Loss étant net d’une couverture Quote Part de 50%, on est donc prêt à prendre un
risque correspondant à 100% des primes brutes CATNAT. La couverture étant illimitée,
le risque réside entièrement dans la rétention de ce Stop Loss.

Pour la nouvelle couverture, cependant, on couvre notre risque jusqu’à l’OEP bicente-
naire inondation et donc notre risque restant réside dans la rétention du Programme
Général mais aussi dans dans ce qui dépasse ce programme. Les scénarios extrêmes vont
dépasser la couverture et il faut donc s’assurer que les rétentions ne dérivent pas trop
de la valeur cible de 100% des primes brutes CATNAT. L’XS Aggregate couvre cepen-
dant les rétentions nettes du programme général mais ne couvrent pas les dépassements.
Il permet ainsi de couvrir le surplus de rétention nette qui pourrait apparaître avec la
nouvelle couverture.

Afin de comparer les deux couvertures de réassurance, on va considérer des quantiles des
rétentions nettes à différentes périodes de retour et s’assurer qu’on reste dans des valeurs
proches de celles de la couverture CCR actuelle. Il paraît difficile d’envisager que l’on
pourra obtenir des valeurs très proches sans une couverture en illimité et considérant
que l’on a une couverture pas évènement et non agrégée comme un Stop Loss. Tous les
évènements n’atteignant pas la rétention ne récupéreront rien et se cumuleront dans la
rétention nette.
Evolution des rétentions
10 ans +3%
15 ans +16%
20 ans +26%
25 ans +31%
33 ans +38%
50 ans +48%
100 ans +67%
200 ans +90%

Le tableau ci-dessus montre que l’évolution des rétentions nettes par rapport à la couver-
ture actuelle est très importante notamment sur des périodes de retour élevées et malgré
le fait que l’XS Aggregate couvre les rétentions en dessous du programme général, cela
pose la question de l’achat d’une tranche plus basse afin de mieux respecter le Risk

84
Appetite. Cependant, une tranche en dessous du programme général qui couvrirait les
CATNAT coûterait sûrement très cher au vu de la probabilité d’attachement très im-
portante et de la rétention très basse pour ces périls fréquents historiquement. On peut
envisager dans ce cas-là 2 options :
• L’achat d’une tranche pour tous les périls CATNAT confondus en dessous du Pro-
gramme Général.
• L’achat d’une tranche pour les périls CATNAT DROM qui attacherait très bas
afin de respecter le Risk Appetite sur les DROM. Dans ce cas-là, on prend peu de
risques sur la sinistralité DROM mais on prend plus de risque sur les CATNAT en
France Métropolitaine qu’avec la couverture CCR.
• L’achat des 2 tranches en simultanée

On obtient les impacts suivants sur les rétentions :

Sous tranche CATNAT Sous tranche CATNAT DROM Deux sous tranches
10 ans -28% +6M -30%
15 ans -20% +7M -22%
20 ans -15% +9M -17%
25 ans -11% +10M -13%
33 ans -6% +12M -8%
50 ans +1% +15M -2%
100 ans +14% +21M +11%
200 ans +33% +23M +30%

La première et troisième colonne mesurent la variation des rétentions nettes cumulées


France Métropolitaine et DROM par rapport aux rétentions avec la couverture CATNAT
CCR actuelle alors que sur la deuxième colonne on mesure juste l’écart entre les rétentions
nettes des DROM. On exprime les résultats en Me car les montants étant faibles, les
variations en pourcentage ne sont pas parlantes contrairement au Risk Appetite global.

Cependant l’achat de ces couvertures de réassurance à un coût et il faut le prendre en


compte dans l’optique de respecter le Risk Appetite si celui-ci ne venait pas à changer
en cas de sortie de la CCR.

6.5.4 Impact sur le STEC CAT et P&C

On s’attend à ce que l’impact sur le STEC CAT et le STEC P&C soit non négligeable
entre la couverture CCR actuelle et la couverture alternative en Excess of Loss. En
effet, cela revient à comparer une couverture en Stop Loss illimité à une couverture en
Excess of Loss avec une rétention et une portée par événement. La moyenne du résultat
annuel ne devrait pas trop évoluer car on ne récupère plus rien avec le Quote Part

85
à 50% mais en contrepartie, on récupère plus avec le programme en Excess of Loss
et l’XS Aggregate ainsi que via le Pool Property Per Event. Cependant, au niveau du
résultat annuel bicentenaire on s’attend à une évolution très importante. En effet, le Stop
Loss illimité de la CCR protège principalement notre résultat bicentenaire en limitant
les pertes CATNAT à une rétention de 200% sans trop améliorer notre moyenne car
les récupérations moyennes de ce Stop Loss sont assez faibles. Cela signifie qu’avec la
couverture actuelle, le résultat bicentenaire se produit avec une tempête qui dépasse
la capacité du Programme Général puisque actuellement on ne couvre la tempête que
jusqu’à son OEP centenaire.

En rajoutant les CATNAT dans le Programme Général, on rajoute des scénarios avec
des pertes CATNAT où la rétention maximale n’est plus capée à 200% avec une portée
illimitée mais dépend de la capacité achetée sur le Programme Général. Cependant, il
faut prendre en compte le fait que l’on ne récupère pas de facilité via le Pool Property
pour les événements CATNAT alors qu’en réalité si les CATNAT étaient inclus dans
le Programme Général en cas de dépassement de capacité on pourra bénéficier de ce
mécanisme. Ce mécanisme vise aussi à réduire le STEC de chaque entité car il joue sur
les pertes extrêmes mais ne modifie pas trop la moyenne car jouant sur peu de scénarios
modélisés. On pourra faire l’hypothèse de rajouter une tranche fictive gratuite en haut
du Programme Général pour mesurer l’impact de la facilité. En effet, ce mécanisme se
comporte comme un tranche de réassurance dans le sens où pour une perte qui dépasse
la capacité du Programme Général, on récupère directement de la couverture Groupe la
partie qui dépasse. Cela impacte en fait le résultat du Pool Property mais cette perte
supplémentaire est mutualisée entre les membres du Pool (ou entités AXA).

Numériquement, on retrouve les arguments avancés au-dessus dans le sens où le STEC


CAT augmente de 140Me en rajoutant les CATNAT dans le Programme Général. Le
changement de l’XS Aggregate afin de respecter le prix de celui-ci en accord avec les
rétentions entrant dans ce traité n’a pas un impact significatif sur le STEC. Il a un effet
assez linéaire sur la moyenne et le résultat bicentenaire ce qui rend le delta de STEC
nul. Cependant, en simulant le mécanisme de la facilité, on observe une augmentation
modérée du STEC CAT de 70Me, ce qui après diversification augmente le STEC P&C
de 15Me. On retrouve environ les montants de la couverture alternative en Stop Loss.

6.6 Etude du nouveau tranchage


6.6.1 Structuration du programme

Avant de procéder à la tarification de nouveau programme, on va d’abord le structurer en


termes de reconstitutions et prix des reconstitutions. Pour le prix des reconstitutions, on
va garder le même principe qu’actuellement en introduisant des prix différents selon la
nature de l’événement. En terme de nombre de reconstitutions, sachant que le programme

86
ne varie pas beaucoup par rapport à l’actuel peu de changements devraient s’imposer
hormis de réduire le nombre de reconstitutions sur les tranches hautes qui possédaient
des reconstitutions sur le programme actuel. La capacité modélisée est déterminée par
les OEP bicentenaires et le tranchage à l’aide de la méthode des K-means déterminé en
6.3.1. On étudiera aussi un tranchage obtenu avec les estimateurs des valeurs extrêmes
pour montrer que ce n’est pas efficient.

Nombre de reconstitutions Probabilité d’attachement Probabilité d’épuisement


T1 2 49% 1%
T2 2 31% 0,3%
T3 1 18% 1%
T4 1 11% 0,3%
T5 0 5% 3%
T6 0 3% 2%
T7 0 1% 0,2%

Dans l’ensemble, le programme est bien structuré avec ce nombre de reconstitutions,


on pourrait mettre une reconstitution sur la tranche 5 car la probabilité d’épuisement
est un peu élevé. Au niveau des tranches 1 et 2 on retrouve toujours des probabilités
d’attachement très élevés du à l’ajout des CATNAT dans le programme de réassurance.
Cependant, on ne peut pas monter la rétention à cause du Risk Appetite et une tranche
qui attache en moyenne tous les 2 ans coûtera cher sur le marché de la réassurance.

6.6.2 Tarification des tranches de réassurance

On va maintenant s’attacher à comparer les tarifications internes des deux programmes.


Si l’on considère une tarification avec la mesure de risque définie en 4.2, on s’aperçoit que
le programme avec 7 tranches est moins cher qu’un programme avec 10 tranches mais
l’impact est très faible (autour d’1Me). En effet, de part la sous additivité de la mesure
de risque, notamment celle de l’écart type, plus le programme comporte de tranches plus
la volatilité de toutes les tranches augmente. On a σX+Y ≤ σX + σY ce qui signifie que la
tarification optimale est obtenue avec une seule tranche sur notre Programme Général.
Cependant, le facteur de reconstitution fr est beaucoup moins important avec une seule
tranche car le ratio de la prime totale sur la prime de la tranche diminue fortement, ce qui
signifie qu’on récupère peu en comparaison de la taille de tranche. De plus, dans la réalité,
il est impossible de pouvoir souscrire à une tranche de cette taille car peu de réassureurs
sont prêts à prendre de risque sur une capacité aussi grande et on ne peut pas gérer le
nombre de reconstitutions ainsi des éventuelles sous limites selon les périls. Si l’on met
une reconstitution, cela signifie que le réassureur s’engage théoriquement à payer 2 fois
la capacité ce qui est inenvisageable. C’est justement pour ces raisons qu’actuellement le
nombre de reconstitutions est plus élevé sur les tranches du bas que sur celles du haut.

87
Par contre, la taille des tranches peut avoir une influence sur la prime d’équilibre et
E(Z)
sur le STEC. La prime d’équilibre Peq est donnée par Peq = . Dans ce terme,
1 + fr
l’espérance des récupérations et fr peuvent varier du fait d’une capacité totale (incluant
les reconstitutions) différente impactant les récupérations moyennes et sur la capacité
totale de chaque tranche impactant fr .

Du fait d’une capacité totale plus importante dans le programme à 7 tranches, les récupé-
rations moyennes augmentent légèrement. De plus, des tranches plus petites récupèrent
moins en moyenne mais le facteur de reconstitution augmente car il est proportionnel à
l’espérance des primes de reconstitution qui est elle même proportionnelle au ratio des
récupérations moyennes sur la portée. Ce ratio que l’on peut appeler Loss on line (ou
E(Z)
LOL) défini par LOL = est décroissant. En effet si l’on augmente la portée d’une
Portée
unité, l’espérance des récupérations augmente de moins qu’une unité. Il est donc plus
efficient au niveau de la prime d’équilibre de considérer des tranches de réassurance plus
petites.

On peut alors se demander pourquoi on ne subdivise pas plus de tranches basses du


Programme Général si des petites tranches sont plus efficientes. Tout d’abord, parce qu’à
nombre de reconstitutions identiques on épuise beaucoup plus rapidement la tranche ce
qui oblige à acheter des reconstitutions en plus et augmenter le prix en conséquence et
parce qu’on préfère acheter plus de capacité pour couvrir notre perte annuelle moyenne.

Avec la prise en compte du coût du capital dans notre tarification, la conclusion est
la même car l’impact STEC est moins important en supprimant une petite tranche de
notre programme actuel qu’une grande tranche de notre nouveau tranchage. En effet, en
supprimant une tranche tarifée à la prime d’équilibre l’impact sur la moyenne est nul
mais l’impact sur notre bicentenaire sera différent. En supprimant une tranche de taille
plus importante on détériore plus notre perte nette des pertes extrêmes et cette différence
n’est pas compensée par l’XS Aggregate puisque les pertes sont capées à la rétention du
programme de réassurance. Ainsi, le coût du risque est plus important avec des tranches
plus grandes qu’avec des tranches plus petites.

A titre de comparaison, la prime du Programme Général avec un tranchage obtenu avec


la méthode des K-means est estimée à 10Me de plus et celle avec les estimateurs des
valeurs extrêmes, pour lesquels on obtient 4 tranches successives, à 20Mece qui justifie
notre analyse.

88
Conclusion

Finalement, on a mis en évidence dans ce mémoire qu’il n’est pas évident d’optimiser une
couverture de réassurance aussi importante au regard de l’ensemble des critères possibles
à optimiser et des contraintes rencontrées. Le fait d’avoir construit un modèle juste et clair
permet, cependant, de pouvoir mener des études précises et qui pourront être renouvelées
facilement chaque année. Le principal challenge se se situe dans la tarification et dans la
connaissance précise du risque auquel est soumis chaque traité. Le prix d’un traité est
une information primordiale dans un programme d’optimisation car il permet de mesurer
la rentabilité de la réassurance, élément important pour AXA France dans l’hypothèse
d’une sortie de la couverture CCR. De plus, sans l’aide de courtiers ou de réassureurs,
on a donné différentes méthodes permettant de structurer et de tarifer des traités de
réassurance CAT en interne. La première méthode de tarification qui prend en compte
l’espérance et la volatilité des récupérations est une méthode simple mais contestable
dans le sens où elle est éloignée des prix rencontrées sur le marché de la réassurance et
des prix actuels d’AXA France. La deuxième méthode qui s’appuie sur le coût du gain
en capital est plus difficile et plus longue à appliquer car non itérative (il faut modifier
le modèle pour chaque tranche que l’on veut tarifer).

On retient sur les différentes études que pour palier à la fuite de prime importante et la
couverture CCR, AXA France doit faire des concessions nécessaires pour augmenter sa
rentabilité.

La couverture en Stop Loss alternative augmente le STEC CAT d’un montant acceptable
(autour de 50Me pour des priorités basses) qui se diversifie bien dans le portefeuille P&C.
Cependant, l’incertitude sur son prix et son placement sur le marché de la réassurance
en dehors du Pool Property posent des questions. En effet, le Pool Property acceptent
des traités en Excess of Loss pour les autres entités et il n’y aucune raison qu’il accepte
un traité en Stop Loss pour AXA France. AXA France ne bénéficiera donc pas de l’effet
du Pool Property avec ce traité notamment de l’utilisation de la facilité qui a un impact
positif sur la perte nette moyenne et le STEC CAT même si historiquement elle n’a jamais
joué. Cependant, à un prix "attractif" elle présente l’intérêt d’augmenter la rentabilité
d’AXA France en vision stochastique sans dégrader considérablement le STEC P&C.

89
La négociation avec la CCR dans l’optique de baisser le taux de Quote Part pour céder
moins de primes présente le gros avantage de garder cette couverture en illimité et même
si le taux de prime du Stop Loss doit augmenter et le taux de commissions fixe diminuer,
la nouvelle couverture CCR reste très avantageuse pour des ratios S/C assez bas (infé-
rieurs à 80%) qui historiquement représentent une majeure partie des années considérées.
Cependant, il faudra revoir le Risk Appetite à la hausse sur le périmètre CATNAT et
revoir la structure de l’XS Aggregate pour obtenir le même prix surtout que celui-ci est
placé en partie sur le marché.

Enfin, on a essayé de structurer une nouvelle couverture de réassurance qui voit son
risque largement augmenter avec l’ajout de CATNAT. On a mis en évidence que la
structure actuelle est efficiente d’un point de vue du nombre de reconstitutions et qu’il
ne serait pas utile d’augmenter ou de diminuer le nombre de tranches d’un point de vue
souscription. La tarification n’est qu’un indicateur interne de ce qu’on pourrait attendre
et on remarque que la couverture actuelle présente un prix moins important et surtout
une prime d’équilibre optimale. Il s’agit d’un équilibre entre ce qu’il est possible d’acheter
et ce qui apparaît trop cher avec une capacité identique. Cependant, cette couverture par
événement dégrade fortement le STEC CAT (+150Me environ) qui après diversification
augmente le STEC P&C mais cet effet sera compensé par le mécanisme de la facilité
même si le STEC CAT augmentera quand même. Elle présente quand même l’avantage
de rentrer dans le Pool Property ce qui augmentera la part théorique d’AXA France
et donc sa participation aux résultats qui historiquement sont positifs. AXA France
bénéficiera aussi en vision modélisée de plus de facilité avec les nouveaux périls entrants
dans le Programme Général mais l’impact est difficilement quantifiable au niveau de
l’entité. Cela aura un effet bénéfique sur le STEC CAT car on protège avec ce mécanisme
les pertes extrêmes au delà du bicentenaire. Cette couverture possède comme principal
inconvénient de présenter une incertitude entre nos déciles de pertes annuelles bien plus
importante que la couverture actuelle. Il faudra en plus de cette couverture acheter un
ou plusieurs Stop Loss pour couvrir le risque sécheresse et diminuer la rétention sur les
périls DROM du fait d’un appétit au risque très faible. Cela rajoute en plus de couvrir
les CATNAT dans le Programme Général une prime non négligeable qui joue sur la
rentabilité globale.

Finalement, on retient que le choix en cas de décision de changer la couverture CCR


actuelle d’opter pour un Stop Loss alternatif avec une priorité comprise autour de 100%
est un bon choix afin d’optimiser la rentabilité le plus possible sans trop augmenter le
STEC CAT. Il faudra voir quels sont les prix sur le marché et l’appétence des réassureurs
aux CATNAT pour placer un Stop Loss avec une aussi grande capacité. Selon les condi-
tions de renouvellement de la couverture CCR possibles, un taux de Quote Part plus
faible peut être la meilleure option même si le Risk Appetite devra être modifié pour
obtenir le Stop Loss avec une priorité de 200%. Enfin, la couverture en Excess of Loss
sera peut être la moins coûteuse au niveau local mais comme vu lors de ce mémoire, elle
protège moins bien AXA France qu’actuellement au niveau du capital à immobiliser et

90
du résultat net moyen. Cependant, la sécheresse devra être placé dans un traité Stop Loss
indépendant dont il est difficile d’estimer le prix et de savoir s’il est possible de placer un
tel programme sur le marché de la réassurance. Enfin, pour réduire le risque pris sur les
DROM, une tranche supplémentaire sera nécessaire en dessous de Programme général
même s’il est compliqué de garder le même risque qu’aujourd’hui. Le Groupe pourrait
inciter AXA France d’acheter une couverture en Excess of Loss à inclure dans le Pool
car il pourra bénéficier aussi pour les couvertures groupes d’une meilleure diversification
avec l’ajout notamment du péril Inondation France et du Tremblement de Terre. En
contrepartie, AXA France verra sa part augmenter ce qui historiquement est une bonne
chose.

91
Bibliographie

[1] Artzner et al. Coherent measures of risk. 1999.


[2] CCR. L’indemnisation des catastrophes naturelles en france. (Source).
[3] Danièle Guinot. Le coût des catastrophes naturelles a atteint de nouveaux sommets
en 2017. Le Figaro, 2018. (Source).
[4] Luyang Fu and C. K. “Stan” Khury. Optimal layers for catastrophe reinsurance.
Variance Journal, pages 191–208, 2010.
[5] Gwladys Toulemonde. Estimation et tests en théorie des valeurs extrêmes. 2008.
[6] Anaïs Belabed. Modélisation de la sinistralité atypique en RC automobile avec prise
en compte des spécificités d’un versement en rente. 2016.
[7] Younes Benzaki. Tout ce que vous voulez savoir sur l’algorithme k-means. 2018.
(Source).
[8] Joseph Larmarange. Classification ascendante hiérarchique (CAH). (Source).
[9] J. Thioulouse A.B. Dufour D. Chessel. Introduction à la classification hiérarchique.
2004.
[10] Pierre Jal. Réassurance Non Vie - Cours ISFA 3ème Année, 2016-2017.
[11] Laetitia Andrieu. Optimisation sous contrainte en probabilité. PhD thesis, Ecole
Nationale des Ponts et Chaussées, 2004.
[12] Andreas Kull. Sharing risk - an economic perspective. Astin Bulletin, 2009.
[13] Imane Hamny. Définition des principales options de couverture de réassurance 2014
pour AXA France dans un objectif d’optimisation des besoins en capital. 2014.
[14] Pauline Barrieu and Nicole Karoui. Pricing, hedging and optimally designing deri-
vatives via minimization of risk measures. 2005.
[15] Pauline Barrieu and Nicole Karoui. Pricing, hedging and optimally designing deri-
vatives via minimization of risk measures. 2005.
[16] Maxence Saunier. Modélisation et détermination de structures optimales en réassu-
rance vie. 2013.

92
Table des figures

1.1 Exemple d’un Quote Part avec une cession à 40% . . . . . . . . . . . . . . 12


1.2 Exemple d’un 30 XS 20 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.3 Exemple de fonctionnement d’un XS Aggregate . . . . . . . . . . . . . . . 16
1.4 Exemple d’un 30 XS 20 avec un AAD de 10 et un AAL de 100 . . . . . . 17

2.1 Mécanisme d’indemnisation des catastrophes naturelles . . . . . . . . . . 20


2.2 Coût historique des catastrophes naturelles en France pour la CCR (Source :
CCR) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

3.1 Pertes centenaires et bicentenaires CATNAT . . . . . . . . . . . . . . . . . 28


3.2 Structure de la couverture CCR AXA France IARD . . . . . . . . . . . . 29
3.3 Structure de la réassurance CAT AXA France . . . . . . . . . . . . . . . . 31

4.1 ROL obtenus pour différentes priorités . . . . . . . . . . . . . . . . . . . . 36


4.2 Courbe volatilité-rentabilité pour la couverture alternative . . . . . . . . . 42
4.3 Courbe risque-rentabilité pour la couverture alternative . . . . . . . . . . 43
4.4 Probabilité de rentabilité de la couverture alternative par rapport à la
couverture CCR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.5 Gain moyen de la couverture alternative par rapport à la couverture CCR 47

5.1 Comparaison des bénéfices de réassurances . . . . . . . . . . . . . . . . . . 52


5.2 Comparaison des bénéfices de réassurances . . . . . . . . . . . . . . . . . . 53
5.3 Delta de résultat par rapport au taux de cession actuel . . . . . . . . . . . 56
5.4 Delta de résultat par rapport au taux de cession actuel sans commissions . 57
5.5 Delta de résultat par rapport au taux de cession actuel pour des S/C
inférieurs à 200% . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
5.6 Delta de résultat par rapport au taux de cession actuel pour des S/C
inférieurs à 200% . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60

6.1 Répartition de la charge des événements . . . . . . . . . . . . . . . . . . . 63


6.2 Répartition de la charge de l’événement par ordre croissant . . . . . . . . 64
6.3 Estimateur de Hill . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
6.4 Estimateur DEdH . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
6.5 Variance globale en fonction du nombre de classes K . . . . . . . . . . . . 69
6.6 Inertie en fonction du nombre de classes avec la méthode de Ward . . . . 71

93
6.7 Tranchage du nouveau programme général avec la méthode des K-Means . 72
6.8 Tranchage du nouveau programme général avec la méthode CAH . . . . . 73
6.9 Comparaison des ROL modèle et marché . . . . . . . . . . . . . . . . . . . 77
6.10 Analyse de la couverture de réassurance actuelle . . . . . . . . . . . . . . 78
6.11 Analyse de la nouvelle couverture de réassurance . . . . . . . . . . . . . . 79
6.12 Comparaison des couvertures de réassurance . . . . . . . . . . . . . . . . . 80
6.13 Comparaison des résultats de réassurance par tranche . . . . . . . . . . . 82
6.14 Comparaison des couvertures de réassurance avec l’effet du Pool . . . . . . 83

A.1 Distances de Kolmogorov Smirnov et Cramer-Von Mises . . . . . . . . . . 95


A.2 Adéquation moyenne/écart type . . . . . . . . . . . . . . . . . . . . . . . . 96
A.3 Adéquation quantiles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96

B.1 Courbe risque rentabilité pour la couverture alternative en utilisant la VaR


à 99.5% . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97

C.1 Arbre de classification avec la méthode de Ward . . . . . . . . . . . . . . . 98

D.1 Impact de l’augmentation d’une part du Pool de 5% . . . . . . . . . . . . 99

94
Annexe A

Choix de la loi pour le CAT File


Sécheresse

Les premiers critères que l’on va regarder sont relatifs aux deux distances définies précé-
demment et on obtient les résultats suivant pour nos 6 distributions.

Figure A.1 – Distances de Kolmogorov Smirnov et Cramer-Von Mises

Au vu des valeurs, la distribution Log-Normale avec des paramètres estimés par maxi-
mum de vraisemblance semble être la mieux adaptée mais les distributions de Pareto et
la distribution Log-Normale MME pourraient aussi convenir. Cependant, on peut élimi-
ner les distributions de Weibull. On va maintenant s’intéresser à l’adéquation entre la
distribution empirique et la distribution théorique notamment l’AIC, la moyenne, l’écart
type et les quantiles. Le critère AIC (critère d’information d’Akaike) permet de mesurer
la qualité d’adéquation et se définit comme AIC = 2k − 2 ln(L) avec k le nombre de
paramètres à estimer et L le maximum de la fonction de vraisemblance. La meilleure dis-
tribution sera celle qui présente un AIC le plus faible. Ce critère permet donc de classer
seulement les distributions "MLE" entre elles.

Au vu des résultats, il a été décidé de ne pas garder les distributions de Pareto généralisée

95
Figure A.2 – Adéquation moyenne/écart type

Figure A.3 – Adéquation quantiles

du fait de quantiles < 90% assez éloignés de la distribution empirique. Cependant, le


choix entre la distribution Log-normale MLE et la Log-normale MME n’est pas évident
au vu des différents critères et on va donc comparer les résultats avec la calibrage effectué
en 2017 et choisir la distribution qui se rapproche le plus de celle-ci. Concrètement, on
utilise deux scénarios dont on connaît le montant en as if 2018 (sécheresse 2003 et 2011)
et on compare les périodes de retour de ces 2 scénarios pour la distribution 2017 et la loi
log-normale à tester.

96
Annexe B

Courbe risque-rentabilité avec la


VaR à 99.5%

Figure B.1 – Courbe risque rentabilité pour la couverture alternative en utilisant la


VaR à 99.5%

97
Annexe C

Arbre de classification avec la


méthode de Ward

Figure C.1 – Arbre de classification avec la méthode de Ward

98
Annexe D

Impact d’une augmentation de la


part dans le Pool de 5%

Figure D.1 – Impact de l’augmentation d’une part du Pool de 5%

On voit que la part du pool a un impact faible et elle améliore la perte nette pour des
périodes de retour élevées. En termes de quantile, elle augmente aussi l’écart entre le 1er
et 9ème décile pour des périodes de retour élevées.

99

Vous aimerez peut-être aussi