Académique Documents
Professionnel Documents
Culture Documents
Signature du candidat
Note : Par soucis de confidentialité, tous les montants en valeur absolue et les échelles
de graphiques ont été modifiés mais les proportions ont été conservés.
1
Résumé
L’assurance des catastrophes naturelles est une assurance obligatoire incluse dans le mon-
tant de la prime payée par les assurés. Face à l’importance du risque rencontré par AXA
France, la réassurance apparaît comme une évidence pour se protéger des inondations,
des tremblements de terre ou des ouragans cycloniques dans les départements et régions
d’outre-mer. La France possède un dispositif garantissant à chacun de ses citoyens une
indemnisation en cas de sinistre dit CATNAT. Pour cela, la Caisse Centrale de Réas-
surance propose une couverture de réassurance non-obligatoire au marché français avec
garantie de l’Etat.
Cette couverture de réassurance se compose d’un Quote Part avec un taux de cession à
50% avec des commissions fixes et variables en contrepartie et d’un Stop Loss illimité.
Le Quote Part à 50% représente une importante fuite de primes pour AXA France qui
devrait être compensée par le paiement de commissions. Cependant, en 2017 avec notam-
ment l’ouragan IRMA qui a fortement impacté la CCR, les commissions payées furent
nulles et la question de la rentabilité se pose pour AXA France. Nous proposerons dans
ce mémoire l’étude d’une couverture alternative à la couverture CCR actuelle à savoir
une couverture en Stop Loss tous périls agrégés, une couverture CCR modifiée avec un
taux de Quote Part plus faible ainsi qu’une couverture classique en Excess of Loss. Pour
cela, on cherchera à optimiser les couvertures proposées en terme de risque et de rentabi-
lité. Il conviendra alors de définir plusieurs méthodes de tarification pour nos différents
traités, une première méthode avec un chargement sur l’écart type de nos récupérations
et une deuxième avec un chargement sur le coût du risque pour AXA France. On verra
rapidement que la première méthode est éloignée des prix du marché notamment du fait
d’un risque brut assez conservateur et il sera important de s’intéresser au changement de
risque net de réassurance pour optimiser la priorité du Stop Loss. On envisagera aussi
une modification de la couverture CCR actuelle avec des primes correspondantes aux
primes payées par AXA France pour cette couverture ce qui nous permettra d’analyser
particulièrement la rentabilité et l’impact des commissions payées par la CCR.
AXA France possède actuellement un programme de réassurance qui couvre les catas-
trophes naturelles et non naturelles hors CATNAT couverts par la CCR et on étudiera
l’ajout des périls CATNAT dans cette couverture ce qui modifie profondément la réas-
surance d’AXA France et surtout le Risk Appetite qui est un indicateur très important
pour le Groupe AXA. On proposera des méthodes pour essayer de refondre cette cou-
verture et notamment le tranchage actuel. On utilisera des méthodes de classification
comme la méthode des K-means et la classification ascendante hiérarchique ainsi que des
estimateurs de théorie des valeurs extrêmes pour définir des seuils qui correspondent aux
rétentions de chaque tranche successive. Il s’agira de comparer le tranchage actuel avec
l’ajout des CATNAT au programme de réassurance actuel notamment en terme de risque
ainsi que de comparer les deux tranchages différents de notre programme.
2
Abstract
Natural catastrophe insurance is a compulsory insurance included in the amount of the
premium paid by the insured. Given the importance of the risk faced by AXA France,
reinsurance seems natural to protect the company against floods, earthquakes or cyclonic
hurricanes in the overseas departments and regions. France has a system guaranteeing
each of its citizens a compensation in case of an event called NATCAT. For this reason,
the "Caisse Centrale de Réassurance" offers a non-compulsory reinsurance cover to the
French market with State guarantee.
This reinsurance cover is composed with a Quote Part with a 50% cession rate with
fixed and variable commissions in return and an unlimited Stop Loss. The 50% Quote
Share represents a major premium leak for AXA France, which should be offset by the
payment of commissions. However, in 2017, with Hurricane IRMA, which had a major
impact on the CCR, commissions paid were nil and the question of profitability arose
for AXA France. We will propose the study of an alternative cover to the current CCR
cover, namely an all perils stop loss cover, a modified CCR cover with a lower Quote Part
cession rate and a classical Excess of loss cover. For this, we will seek to optimize the
different covers proposed in terms of risk and profitability. It will then be necessary to
define several methods of pricing for our various treaties, a first method with a loading
on the standard deviation of our recoveries and a second one with a loading on the cost of
the risk for AXA France. It will be seen quickly that the first method is far from market
prices in particular because of a fairly conservative gross risk and it will be important to
look at the modification of the net reinsurance risk to optimize the priority of the Stop
Loss. We will also consider a modification of the current CCR coverage with premiums
corresponding to the premiums paid by AXA France for this cover, which will enable us
to analyze in particular the profitability and the impact of the commissions paid by the
CCR.
AXA France currently has a reinsurance program that covers natural and non-natural
events outside NATCAT covered by the CCR and we will study the addition of NAT-
CAT perils in this cover which profoundly modifies the reinsurance of AXA France and
especially the Risk Appetite which is a very important indicator for the AXA Group.
Methods will be proposed to try to modify this cover and especially the current layering.
Classification methods such as the K-means method and hierarchical ascending classifi-
cation, as well as extreme value theory estimators, will be used to define thresholds that
correspond to the retentions of each successive layer. It will be a question of comparing
the current layering with the addition of NATCAT to the current reinsurance program in
particular in terms of risk as well as to compare the two different layering of our program.
3
Remerciements
Je tiens à remercier particulièrement pour ce mémoire ma tutrice Anne Suchel pour son
écoute, ses conseils et sa disponibilité tout au long de cette alternance. Son suivi et ses
compétences m’ont permis de réaliser ce mémoire dans les meilleurs conditions.
Enfin, je remercie ma famille et mes amis qui m’ont soutenu tout au long de la réalisation
de ce mémoire et particulièrement sur la fin qui fut intense.
4
Table des matières
Introduction 7
1 Réassurance et Solvabilité 2 8
1.1 Solvabilité 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2 Mesures de risques et STEC . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.1 Les mesures de risque . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.2 Le calcul du STEC P&C . . . . . . . . . . . . . . . . . . . . . . . . 10
1.3 La réassurance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.3.1 Les traités proportionnels . . . . . . . . . . . . . . . . . . . . . . . 11
1.3.2 Les traités non proportionnels . . . . . . . . . . . . . . . . . . . . . 13
1.3.3 Les clauses particulières en réassurance non proportionnelle . . . . 16
5
4.3.2 Définition de la mesure du risque et des objectifs . . . . . . . . . . 39
4.3.3 Résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.3.4 Comparaison de la couverture CCR et de la couverture alternative 44
4.3.5 Conclusion de nos études . . . . . . . . . . . . . . . . . . . . . . . 48
Conclusion 89
Bibliographie 92
6
Introduction
Le travail présenté dans ce mémoire a été effectué dans le cadre de mon alternance chez
AXA France dans le service Actuariat Réassurance et Modèle Interne. Le rôle principal
de mon travail consiste en la mise en place d’un modèle permettant de modéliser la
réassurance d’AXA France IARD et de l’utiliser afin de renouveler et d’optimiser les
différents traités.
La réassurance qui se définit comme "l’assurance des assurances" est un outil majeur
pour réduire le risque auquel est soumis une compagnie d’assurance. Un risque majeur
auquel est soumis AXA France IARD de part l’importance de ses expositions dans le
monde et du changement climatique est le risque de catastrophes naturelles. Malgré
leur fréquence relativement faible, elles engendrent des coûts énormes pour les assureurs
pouvant atteindre le milliard d’euro. L’année 2017 a été particulièrement compliqué pour
le marché français de l’assurance et de la réassurance avec les ouragans IRMA et MARIA.
Dans un premier temps nous présenterons les concepts clés de réassurance mis en jeu
dans cette étude puis nous détaillerons le modèle construit et la modélisation actuelle des
événements catastrophes naturelles et enfin nous essayerons de trouver une ou plusieurs
couvertures alternatives qui apparaissent plus optimales selon des concepts que nous
définirons.
7
Chapitre 1
Réassurance et Solvabilité 2
1.1 Solvabilité 2
Solvabilité 2 est une directive européenne votée en 2009 avec pour date d’effet le 1er
Janvier 2016. Elle a pour objectif de mieux adapter les fonds propres des compagnies
d’assurance et de réassurance face aux risques auxquelles elles sont soumises. Elle fait
suite à la directive Solvabilité 1 qui ne prenait pas bien en compte le risque, notamment
le risque systémique que l’on a pu observer durant la crise des subprimes.
Chaque assureur ou réassureur doit identifier les risques inhérents à son activité et déter-
miner un montant de capital suffisant pour les couvrir. Ce calcul peut s’effectuer à l’aide
d’une formule standard définie par l’EIOPA (autorité de contrôle au niveau européen)
ou bien avec l’utilisation d’un modèle interne, option choisie par AXA France IARD. La
directive Solvabilité 2 repose sur 3 piliers :
• Le pilier 1 qui regroupe un ensemble de règles en matière d’exigences quantitatives
et de façons de calculer
• Le pilier 2 qui regroupe les exigences qualitatives relatives à la supervision et à la
gestion des risques
• Le pilier 3 qui regroupe les exigences en matière de communications aux autorités
Avant de décrire le calcul du SCR d’AXA France IARD, on va s’attacher à définir une
mesure de risque.
Une mesure de risque est une fonction définie sur l’ensemble des variables aléatoires et
8
prenant ses valeurs dans R, c’est donc une fonction ρ qui à X une variable aléatoire lui
associe ρ(X) un réel.
Une mesure de risque ρ est dite cohérente d’après Artzner et al (1999) [1] si elle vérifie
les 4 axiomes suivant :
• Invariance par translation :
∀c ∈ R, ρ(X + c) = ρ(X) + c
• Homogénéité :
∀λ ∈ R+ , ρ(λX) = λρ(X)
X ≤ Y =⇒ ρ(X) ≤ ρ(Y )
Selon Artzner et al, une mesure de risque appropriée doit respecter les propriétés de cohé-
rence. Cependant, cette notion est remise en question avec Solvabilité 2 avec l’utilisation
d’une mesure de risque qui ne respecte pas la notion de sous additivité : la Value at Risk.
La Value at Risk
La Value at Risk (ou VaR) de niveau α d’une variable aléatoire X se définit comme :
La VaR n’est pas sous additive au sens d’Artzner et al donc elle n’est pas cohérente.
Cependant, cette mesure de risque présente un risque de queue important car elle ne
s’intéresse pas à ce qui se passe après le quantile de niveau alpha. Par exemple sur une
distribution avec 10000 scénarios la VaR de niveau 99,5% est le 50ème pire scénario mais
cela ne nous donne aucune indication sur le montant des pertes des 49 pires scénarios.
C’est pourquoi il peut être judicieux d’analyser le risque en utilisant la Tail Value at
Risk.
9
La Tail Value at Risk
La Tail Value at Risk (ou TVaR) de niveau α d’une variable aléatoire X se définit comme :
La TVaR permet de mieux capter l’information qui se trouve « après » la VaR. Cepen-
dant, elle est plus complexe à mettre en œuvre et augmente les temps de calculs ce qui
la rend moins populaire.
En revanche, la TVaR est une mesure de risque cohérente.
Une autre mesure de risque classique que nous utiliserons par la suite est la volatilité
(racine carrée de la variance) qui est aussi une mesure de risque cohérente (la variance
ne l’est pas).
La directive Solvabilité 2 impose le calcul annuel d’un capital réglementaire appelé SCR
(Solvency Capital Requirement) à l’aide d’une formule standard ou d’un modèle interne.
Le SCR représente le capital immobilisé afin de faire face à une crise qui subviendrait avec
une probabilité 1/200. Le calcul du SCR en formule standard se fait selon une approche
dite « bottom-up » où l’on calcule les SCR intermédiaires que l’on agrège à l’aide de
matrices de corrélation pour obtenir le SCR global.
Chez AXA France, l’équivalent du SCR en modèle interne est le STEC (Short Term
Economic Capital).Il est donné pour un risque X par :
Nous nous intéresserons dans cette étude seulement au STEC P&C étant celui déterminé
au sein de l’entité AXA France IARD. D’autres briques de risque viennent s’ajouter à ce
STEC P&C comme le risque opérationnel, le risque de marché, le risque de contrepartie
mais on ne prendra pas en compte ces modules dans la suite de l’étude. Il résulte de
l’agrégation de 3 sous-modules :
• Le STEC réserves
• Le STEC primes
• Le STEC Catastrophe
10
La matrice de corrélation est donnée par :
Réserves Primes CAT
Réserves 1 0.5 0
Primes 0.5 1 0
CAT 0 0 1
Dans la suite, lorsque l’on parlera de STEC on fera référence au STEC P& C sauf contre
indication.
1.3 La réassurance
Les traités proportionnels sont basés sur le principe que la prime de réassurance et le
montant des sinistres payés par le réassureur se calculent selon un même pourcentage.
Par exemple, si le réasssureur reçoit 50% de la prime d’un risque il paiera en contrepartie
50% de tous les sinistres affectant ce même risque.
Ces types de traités font apparaître des commissions versés par le réassureur à la cédante
pour couvrir les frais d’acquisition et de gestion sur le pourcentage de prime que la
cédante cède.
Les traités en quote part sont des traités pour lesquels l’assureur verse un pourcentage
de sa prime et en contrepartie duquel le réassureur s’engage à payer la même part de
11
sinistres. Ce pourcentage est défini contractuellement.
Les traités en Quote Part améliorent la marge de solvabilité de la cédante car elle peut
pour un niveau de capital donné souscrire 2 fois plus de primes tout en gardant cette
marge de solvabilité intacte. Ce type de traité est très utilisé pour le lancement de nou-
velles branches ou pour les entreprises souhaitant se développer et possédant peu de
capital.
Figure 1.1 – Exemple d’un Quote Part avec une cession à 40%
Axa France possède notamment des traités en Quote Part dans le programme Catas-
trophes Naturelles de la CCR (cession à 50%).
Le traité en Excédent de Plein vient corriger les défauts du Quote Part dans le sens où la
cédante ne cédera des primes que sur les risques avec une somme assurée importante. Ainsi
elle conserve à 100% les "petits" risques et cède une part d’autant plus importante que
la somme assurée est grande dans une limite définie contractuellement (appelée capacité
de l’excédent)
12
On définit :
• Ki capital assuré du risque i
• C capacité de l’excédent de plein
• R plein de rétention
• xi taux de cession pour le risque i
Le calcul du taux de cession xi est donné par :
Ki − R C
xi = min max ,0 ,
Ki Ki
Cela permet à la cédante de conserver les risques dont la somme assurée est faible (in-
férieure à R). Ce procédé permet donc de conserver une grande partie de sa prime et de
céder proportionnellement les risques les plus importants. Cependant, ce genre de traités
est peu fréquent car le réassureur doit faire face a une sinistralité importante pour un
niveau de prime faible.
Axa France ne possède pas de traité en Excédent de Plein pour couvrir ses pertes issues
d’évènements catastrophiques.
Pour les traités Excess of Loss, le réassureur intervient au-delà d’une franchise appelée
"priorité" et dans une certaine limite appelée "portée". On note couramment l XS d avec
la l la portée et d la priorité. On définit aussi la capacité comme l + d. Ainsi, pour un
sinistre de montant Xi la charge du réassureur (ou montant des récupérations) Zi est :
Zi = min(max(Xi − d, 0), l)
ou plus simplement :
13
0 X≤d
Zi = X −d d≤X ≤d+l
l d+l ≤X
Il est très important de distinguer les traités XS par risque et les traités XS pas évène-
ment. Les traités par risque s’appliquent aux sinistres concernant un seul risque alors que
les traités par évènement s’appliquent au montant global de tous les sinistres affectant
différentes risques pour un même évènement. Par exemple, une tempête qui toucherait
plusieurs risques sera considérée comme un seul évènement (dans certaines limites de
durée souvent définies dans les traités).
14
La plupart des traités d’AXA France sont des traités en Excess of Loss. Ils sont inclus à
l’intérieur de programmes de réassurance au sein desquels se superposent plusieurs traités
XS que l’on appelle tranches.
Les traités Stop Loss marchent de la même façon que les traités Excess of Loss sauf qu’ils
protègent le ratio Sinistres/Primes de l’année. On définit ainsi la priorité et la portée en
pourcentage et il suffit de multiplier par la prime pour obtenir un montant flat. Ainsi,
pour ce type de traité on agrège tous les montants de sinistres survenus dans l’année
et on peut calculer le S/P correspondant et ainsi appliquer la réassurance. Ainsi, pour
une priorité d et une portée l (exprimées en pourcentage) ainsi qu’une prime notée EPI
(Estimated Premium Income) le réasssureur verse à la cédante :
Zi = min (max (S − d × EP I, 0) , l × EP I)
Le Stop Loss permet donc de protéger la cédante contre une sur fréquence de sinistres ou
un évènement extrême qui entraînerait un mauvais résultat pour la cédante. Cependant,
ce genre de traité souffre d’aléa moral dans le sens où une fois que la priorité est dépassé
la cédante n’a pas d’intérêt à essayer de limiter sa sinistralité (dans la limite de la portée)
puisque le Stop Loss protège son résultat au dessus de cette priorité.
On peut définir un autre type de traité qui fonctionne comme un Stop Loss : l’XS Ag-
gregate (ou Stop Loss tous périls) qui agrègent tous les sinistres en rétention des autres
traités et est défini avec une priorité et une portée "flat".
15
Figure 1.3 – Exemple de fonctionnement d’un XS Aggregate
Un AAD se définit comme une franchise annuelle sur la somme agrégée de tous les paie-
ments afférents à un traité. Le réassureur ne commence à payer que lorsque la sinistralité
agrégée dépasse la franchise.
16
Ainsi sur la durée du traité, le montant des récupérations au titre de ce traité s’élève à :
Xn
min(max( Zi − AAD, 0), AAL)
i=1
Ces clauses ont pour but de réduire le coût de la réassurance, elles limitent le montant
des récupérations perçues par la cédante.
Les reconstitutions
Dans un Excess of Loss classique, le réasssureur s’engage à payer une seule fois la por-
tée pendant la durée du traité. L’ajout de reconstitutions permet d’accorder un ou des
renouvellements (nombre qui peut être illimité) de la portée pendant cette même durée.
En contrepartie de l’utilisation de ces garanties supplémentaires, l’assureur doit verser
une prime de reconstitution calculée au prorata du capital reconstitué et fonction d’un
taux de prime de réassurance. La tarification d’un traité doit donc prendre en compte
les futures primes probables de reconstitutions que la cédante versera au réassureur.
17
avec c le prix de la reconstitution (exprimé en pourcentage) et P la prime du traité.
Les traités Excess of Loss possèdent souvent pour chaque reconstitution des prix diffé-
rents. Il faut alors bien faire attention à calculer la prime de reconstitution selon son
coût. Prenons l’exemple d’un XS avec une portée de 50Me et une priorité de 100Me et
2 reconstitutions à 100% pour les évènements naturels et 1 à 25% pour les évènements
non naturels.
• Supposons une première tempête à 300Me : on reconstitue alors entièrement la
portée et on paye une prime de reconstitution égale à la prime du traité.
• Supposons ensuite une conflagration à 600Me(non naturel) : on reconstitue alors
entièrement la portée mais cette fois-ci pour un coût de 25%, on paie alors une
prime de reconstitution égale à 25% de la prime du traité.
• Pour un 3ème évènement quelconque, on ne paiera plus de prime de reconstitution
car son nombre est limité à 2 pour tous les évènements.
C’est ce genre de subtilités qu’il faudra prendre en compte dans le modèle et l’impact
pourra être déterminant lors de la comparaison entre 2 couvertures de réassurance.
Le ROL
Le Rate On Line (ou ROL) est un indicateur très utilisé en réassurance. Il mesure le coût
d’un euro de couverture supplémentaire et se définit comme :
Prime
ROL =
Portée
Un ROL élevé signifie donc que pour une portée donnée le traité est "cher". Les tranches
basses du programme général d’AXA France sont plus chères que les tranches hautes car
elles sont plus travaillantes.
18
est un événement se produisant tous les 200 ans, soit que la probabilité de le dépasser
est de 1/200.
L’AEP (Aggregate Exceedance Probability) est la probabilité que l’agégation des pertes
annuelles dépasse un montant donné (caractérisé par sa période de retour). On dit que
l’AEP bicentenaire est une année se produisant tous les 200 ans, soit que la probabilité
d’obtenir une année pire en termes de pertes annuelles est de 1/200.
Le Risk Appetite
Le Risk Appetite est la définition du niveau de risque qu’une organisation est prête à
prendre au regard de sa stratégie. Chez AXA, on définit le Risk Appetite Groupe et le
Risk Appetite Local. Au niveau local, le Risk Appetite est défini par le Risk Management
qui impose des niveaux de risque maximals à prendre et au niveau Groupe, le Group Risk
Management impose des capacités de réassurance à acheter à chaque entité du Groupe
AXA.
19
Chapitre 2
Le régime d’indemnisation des catastrophes naturelles a été créé le 13 Juillet 1982 [2].
Il vise à indemniser les victimes d’évènements naturels selon un processus qui doit être
respecté. Il faut que :
— L’état de catastrophe naturelle soit déclaré par une commission interministérielle
après demande du maire et du préfet
— Les biens soient couverts par un contrat de dommage aux biens
— La catastrophe naturelle soit à l’origine du sinistre
20
Le risque de catastrophe naturelle est couvert par les contrats dommages qui se traduit
par un taux de prime additionnel unique.
Figure 2.2 – Coût historique des catastrophes naturelles en France pour la CCR (Source :
CCR)
Les périls entrants dans la loi de 1982 et couverts au titre de la garantie catastrophe
naturelle sont :
— Inondations et coulées de boue
— Phénomènes liés à l’action de la mer
— Mouvements de terrain
— Avalanches
— Séismes
— Sécheresse
— Éruption Volcanique
21
2.2 La couverture CCR actuelle
2.2.1 Présentation
La Caisse Centrale de Réassurance est une société anonyme détenue à 100% par l’Etat et
qui propose des couvertures de réassurance notamment pour les catastrophes naturelles.
Elle est le seul acteur sur le marché à pouvoir proposer des couvertures en illimité avec
garantie de l’Etat. Cette couverture en illimité offre donc une sécurité aux assureurs
notamment pour faire face à des évènements majeurs.
La couverture CCR actuelle est composé d’un Quote Part à 50% qui entraîne pour AXA
France une cession de 50% de sa prime sur le périmètre CAT NAT. En contrepartie de
cette prime cédée et pour couvrir les frais d’AXA France, la CCR cède une commission
chaque année. Cependant, cette commission possède une partie fixe et une partie variable :
• La partie fixe vaut 5% si le ratio entre la provision d’égalisation + la Réserve spéciale
Cat Nat de la CCR et les primes brutes acquises de la CCR pour la réassurance de
risques Cat Nat en France est supérieur à 400% à la clôture de l’exercice comptable
n et 0% sinon.
La provision pour égalisation est destinée à faire face aux fluctuations de sinistra-
lité ; lorsque le résultat est déficitaire, l’assureur utilise cette provision pour absorber
les pertes.
La Réserve spéciale Cat Nat est constituée par le bénéfice disponible après distri-
bution des dividendes et dotation aux réserves légales et réglementées.
• La partie variable est fixée selon que le ratio précédent est soit égal ou supérieur à
400% et inférieur à 500%, soit égal ou supérieur à 500% et inférieur à 600%, soit
égal ou supérieur à 600% et en fonction du Ratio Sinistres sur Primes (S/P) de la
CCR au titre de l’Exercice. Cette partie variable est comprise entre 0% et 37%.
22
Les commissions versées par la CCR jouent un rôle très important sur le résultat d’AXA
France.
En 2016, ce ratio était compris entre 500% et 600% ce qui entraînait théoriquement des
taux de commissions élevés pouvant aller jusqu’à 33% dans le cas de ratio S/C < 60%
mais l’exercice 2016 était marqué par les inondations du bassin de la Seine aboutissant
à un résultat courant CCR négatif ne donnant pas lieu au versement d’une commission
variable.
Pour l’année 2017, avec les évènements IRMA et MARIA qui ont lourdement impacté
le marché, ce ratio est attendu en deçà de 400% à 382%. Toutefois, il s’agit d’un niveau
exceptionnel ; 2016 et notamment 2017 sont très sinistrés avec les inondations de juin
2016 et les ouragans IRMA et Maria dont les coûts sont estimés à 2Mde pour la CCR
sur l’année 2017.
Ce ratio pourrait s’améliorer pour repasser au-dessus de 400% dans le cas où il n’y aurait
pas d’évènements CATNAT majeurs sur la période 2018-2019 et que la CCR puisse
doter ses réserves de prudences. Ainsi la combinaison d’une prime cédée élevée et des
commissions faibles sur les dernières années posent la question pour AXA France de
trouver une couverture alternative plus rentable sur le marché privé.
23
Chapitre 3
Le modèle CAT d’AXA France prend en inputs des "CAT Files" qui sont des tableaux
associés à chaque péril modélisé et qui contiennent des scénarios sur 10000 années. Dans
le cadre des évènements CAT NAT on modélise 6 périls dans notre modèle :
— Les inondations en France Métropolitaine
— Les tremblements de terre en France Métropolitaine
— La sécheresse en France Métropolitaine
— Les ouragans à la Réunion
— Les ouragans en Guadeloupe et Martinique
— Les tremblements de terre en Guadeloupe et Martinique
Les différents périls CATNAT sont modélisés par une approche fréquence/coût ou une
approche charge annuelle. C’est notamment le cas de la sécheresse où l’on agrège les
différents sinistres qui ont lieu car il est difficile de la rattacher à un seul événement
en particulier. Les CAT Files sont calibrés soit par une approche sur l’historique AXA
France soit par une approche sur l’exposition AXA France à l’aide de modèles CAT.
Le péril sécheresse est le seul à être calibrer en utilisant les données historiques AXA
France, les autres périls étant modélisés à l’aide de modèles CAT qui utilisent les expo-
sitions AXA France. Comme indiqué précédemment, on modélise seulement la sévérité
pour ce péril à partir de la charge annuelle agrégée historique. On dispose d’un historique
de données depuis 1999 jusqu’en 2016 (les données utilisées dans le modèle ont été cali-
brées durant l’année 2017). Avant de commencer toute étude, il faut actualiser les données
24
afin qu’elles soient en cohérence avec l’environnement économique et le portefeuille de
l’année d’étude (2018).
Les données historiques utilisées correspondent aux sinistres historiques des portefeuilles
Auto et Non Auto ayant donnés lieu à une indemnisation au titre de la garantie catas-
trophes naturelles. Le redressement des données consiste d’une part à prendre en compte
l’inflation économique qu’ont subi les montants de sinistres entre la date historique et
la date de notre modélisation et d’autre part à prendre en compte l’évolution du porte-
feuille global ; en effet si le portefeuille croît au cours des années, le montant des sinistres
historiques ne sera pas exprimé sur la même base.
Le choix retenu afin de redresser ces données est l’utilisation de l’indice FFB du coût de
la construction ainsi que de la valeur du portefeuille à travers la somme assurée totale.
En notant SIVn (Sum Insured Value) la somme assurée totale de l’année n du portefeuille
Auto et Non Auto indexée de l’indice FFB, on obtient :
SIV2018
Charge annuelle As Ifn = Charge annuellen ×
SIVannée survenance
On obtient ainsi des charges annuelles redressées qui sont les réalisations de la variable
aléatoire modélisant la sévérité annuelle de la sécheresse en France Métropolitaine. On
supposera les observations de la variable indépendantes et identiquement distribuées et
on va déterminer une loi qui s’ajuste le mieux à l’historique.
25
• La loi de Weibull
On dit que X suit une loi de Weibull de paramètres k et λ si sa fonction de répar-
tition est de la forme
k
Hk,λ (x) = 1 − e(−x/λ)
Les 3 différentes lois proposées sont généralement utilisées pour modéliser des pertes
extrêmes ce qui nous conduit à faire un choix parmi celles-ci.
Les paramètres sont estimés par maximum de vraisemblance et par la méthode des
moindres carrés, ce qui nous donne 6 distributions différentes.
Choix de la distribution
Elle mesure la somme des écarts quadratiques entre la fonction de répartition em-
pirique et la fonction de répartition théorique.
Il faut chercher la loi qui minimise ses 2 distances.
• Les quantiles de la loi proches de ceux de la distribution empirique
• La convergence des quantiles inférieurs à 90% vers ceux de la distribution empirique
En effet, possédant relativement peu d’années d’historiques, il ne serait pas judi-
cieux de comparer des quantiles trop élevés.
• La moyenne et l’écart type proches de la distribution empirique
26
Résultats
Finalement, on retient la distribution Log-normale avec des paramètres estimés par maxi-
mum de vraisemblance avec une moyenne à 48 747 680 et un écart type à 81 908 506.
L’analyse des résultats est décrite en A.
Les autres CAT Files Cat Nat sont calibrés à l’aide de "modèles CAT" par le groupe
AXA. Ces modèles sont soit développés en interne par le risk management Groupe ou
alors à partir de modèles marchés. Ils sont calibrés à l’aide des expositions AXA. Ils
s’appuient sur des modèles marchés tels que RMS, AIR et RQE. Cependant, ces modèles
sont calibrés afin de refléter le risque sur les expositions 2017 mais les Cat Files en sortie
sont utilisés dans le cadre du renouvellement 2018. Il faut donc prendre en compte des
facteurs de projection pour refléter la croissance des expositions en 2018 mais aussi un
facteur de Data Quality Risk (ou DQR) afin de prendre en compte les possibles erreurs
dans les données d’exposition. Les OEP calibrés résultent donc de la combinaison des
OEP des 3 modèles auxquels le GRM associe un poids en fonction d’un scoring et de
facteurs de DQR et de projection. Ainsi, on écrit
X
AXA = (ωm × OEPm ) × (1 + DQR) × (1 + PF)
model m
avec
• m le modèle CAT utilisé (RMS,AIR ou RQE)
• OEPm les OEP associés au modèle m
• ωm le poids associé au modèle m (peut être égal à 0% si un modèle n’est pas retenu
pour un certain péril)
• DQR le facteur de Data Quality Risk
• PF le facteur de projection
On obtient ainsi une courbe d’OEP utilisée pour la calibration des CAT Files.
Il est important de noter que les différents périls ne sont pas corrélés entre eux.
Une fois que les CAT Files ont été calibrés par le Groupe en collaboration avec AXA
France, on peut déterminer à l’aide des données CATNAT les OEP et AEP centenaires
et bicentenaires qui déterminent la capacité de réassurance à acheter.
27
Figure 3.1 – Pertes centenaires et bicentenaires CATNAT
On observe que le péril inondation est le péril CATNAT le plus important pour AXA
France. Les pertes bicentenaires agrégées nous seront utiles dans la calibration du Stop
Loss alternatif tous périls CATNAT confondus. Les pertes bicentenaires par événement
nous permettront de déterminer la capacité CATNAT à acheter dans le cadre d’une
couverture en Excess of Loss.
Le modèle CAT modélise l’ensemble des traités par évènement d’AXA France. AXA
France possède en majorité des traités en Excess of Loss (hors couverture CCR) et une
couverture en Stop Loss sur cumul de rétentions tous périls dommages (aussi nommé XS
Aggregate) qui agit sur les rétentions de certains périls notamment sur les CATNAT.
Le modèle est censé refléter au mieux la réalité des couvertures de réassurance par évè-
nement d’AXA France. Des contrôles ont été effectués sur le modèle avant de faire des
études dessus afin de vérifier de son exactitude sur un certain nombre de scénarios qui
présentent des cas particuliers (un scénario correspond à une année de simulation). Les
contrôles ont effectués au niveau des récupérations locales, des reconstitutions et primes
de reconstitutions correspondantes et au niveau de la sinistralité brute, nette et cédée.
Pour ce faire, on compare les résultats obtenus manuellement sur une année que l’on
compare aux sorties du modèle.
28
3.2.1 La structure globale du modèle
Le modèle possède 3 sous modèles principaux :
• La couverture CCR
• La réassurance catastrophe hors catastrophe naturelle
• Le Pool Property per Event
La couverture CCR
Comme présenté précédemment, la couverture CCR possède des traités en Quote Part
avec une cession à 50% et des traités en Stop Loss qui distinguent la France Métropolitaine
et les DROM et les évènements Auto et Non Auto.
29
Dans le modèle nous ne faisons pas la distinction Auto/Non Auto mais nous sommons
toutes les priorités pour le traité Stop Loss France Métropolitaine car les CAT Files ne
permettent pas de faire une distinction selon ces différents périmètres. Il faudrait donc
faire des hypothèses de répartition qui ne seront donc pas forcément plus justes que
l’approximation qui est faite en agrégeant les différents périmètres.
La réassurance catastrophe
30
Figure 3.3 – Structure de la réassurance CAT AXA France
La majorité des traités par évènement couvrant les pertes catastrophiques ne sont pas
réassurés par des réassureurs externes mais à travers un pool de réassurance : le Pool
Property per Event. Il s’agit d’un groupement d’entités AXA qui mettent en commun
leurs traités de réassurance pour couvrir les événements CAT. Le principe du pool est que
lorsqu’une entité est touché par un évènement catastrophique, chaque entité participe à la
perte avec une part définie selon la "taille" de l’entité. Ce pool est alimenté par les primes
de réassurance et les primes de reconstitutions de chaque entité et est lui même réassuré à
l’aide d’une couverture groupe. Cette couverture groupe ne joue pas comme en local par
entité mais par évènement dans un bassin donné. Par exemple, si une tempête européenne
venait à toucher plusieurs entités AXA, chaque entité récupérera ou non selon sa part
de pertes et son traité local mais au niveau groupe la perte présentée sera la somme des
31
pertes de toutes les entités touchées par l’événement au premier euro. En contrepartie, à
la fin de l’année est calculé un résultat du pool qui est reversé à chaque entité en fonction
de sa part (ce résultat peut être positif ou négatif). Il dépend des récupérations et primes
des traités locaux "poolés" de chaque entité mais aussi des primes et récupérations de la
couverture groupe.
Ce résultat du pool est modélisé par le Group Risk Management par un CAT File qui
regroupe 10000 années de scénarios. Ces différents scénarios sont calibrés à l’aide des
différents CAT Files présents dans le modèle selon l’ordre défini dans ces derniers. Il est
donc primordial dans le modèle de garder le même ordre lors du tirage des scénarios afin
de se baser sur une même vision pour le calcul du STEC CAT.
De plus, le modèle est calibré de telle sorte qu’en cas de modification de programmes de
réassurance, le CAT File ne sera pas impacté malgré le fait que le résultat du pool le
serait.Il suffit juste de recalculer la contribution d’AXA France au pool chaque année et
de la sommer avec le CAT File du GRM afin de mesurer l’impact du résultat du Pool.
Seule la part d’AXA France IARD pourrait potentiellement varier mais l’impact est jugé
minime pour ne pas avoir à la recalculer.
Il existe un autre mécanisme qui a un impact important sur le STEC CAT d’AXA
France qui s’appelle la facilité. Ce mécanisme vise à redonner à l’entité directement des
récupérations dans le cas où sa perte locale dépasse la capacité de sa couverture locale
dans la limite de la capacité de la couverture groupe. Historiquement, ce mécanisme
n’a jamais joué mais en vision modélisé il joue dans les scénarios extrêmes (au delà du
centenaire ou bicentenaire par événement puisque le traité local couvre jusqu’à ce niveau)
et va donc réduire les pertes dans ces cas là ce qui aura un impact direct sur le calcul du
STEC notamment sur la VaR à 99,5%.
Les nombreux contrôles effectués ont pour but de vérifier de l’exactitude du modèle à
plusieurs niveaux :
— Le nombre de reconstitutions
— L’agrégation des pertes cédées à l’XS Aggregate, notamment vérifier que les pertes
au dessus des capacités des traités en amont ne sont pas prises en compte
— Le prix des reconstitutions selon la nature de l’évènement
— Le résultat final, notamment vérifier que toutes les récupérations et les primes sont
prises en compte et qu’une seule fois.
32
• Les récupérations de la couverture CCR égales à 112,5Me (= 225/2)
• Les récupérations du Multi-Périls et du Programme général, la tempête étant cou-
vertes dans le Programme Général on a 300M e − X2M e de récupérations et une
prime de reconstitution calculée au prorata de la prime des tranches touchées.
• Les pertes nettes en entrée de l’XS Aggregate qui combinent les pertes nettes CAT-
NAT de 112,5Me l’événement Tempête capé à la rétention du Programme général
de X2Me ainsi que l’agrégation des autres pertes brutes CAT qui n’ont pas générées
de récupérations.
• Les récupérations de l’XS Aggregate :
X
= min max 112, 5M + X2M + AutresP ertesCAT − d, 0 , l
On vérifie donc à chaque étape présentée que le modèle nous donne les valeurs calculées
manuellement et cela pour plusieurs scénarios "particuliers" que l’on aura choisi à l’aide
des CAT Files.
33
Chapitre 4
Optimisation de la couverture de
réassurance alternative
C’est donc cette notion d’optimalité que nous nous attacherons à définir avant de pré-
senter les résultats des différentes études.
Les catastrophes naturelles présentent un risque d’intensité mais aussi un risque de fré-
quence. Par exemple, un tremblement de terre pourra engendrer des coûts énormes mais
avec une faible fréquence alors qu’une sécheresse engendra des dégâts moins importants
mais avec une fréquence élevée. Il faut donc pouvoir trouver une couverture qui prend en
compte la spécificité des catastrophes naturelles notamment la volatilité des évènements
ce qui élimine la réassurance proportionnelle qui comme on l’a vu n’est pas adaptée pour
réduire la volatilité du portefeuille et le cumul des évènements (les périls couverts sont
34
multiples).
La réassurance non proportionnelle semble donc la plus appropriée pour couvrir le risque
de catastrophes naturelles. Notre choix doit alors se porter entre :
— La couverture en Stop Loss
— La couverture Excess of Loss par évènement
On peut éliminer la couverture Excess of Loss par risque puisque les catastrophes natu-
relles lorsqu’elles surviennent touchent une multitude de polices et cette couverture ne
serait pas du tout adaptée.
Cependant, le péril sécheresse pose problème car il est difficile de rattacher une sécheresse
à un seul évènement (date de survenance et durée peu précises) et donc d’appliquer un
Excess of Loss peut s’avérer compliqué contractuellement ce qui oblige a réassurer le péril
Sécheresse avec un Stop Loss.
Afin de pouvoir étudier les différents programmes de réassurance, il faut pouvoir avoir ac-
cès aux prix des différentes couvertures testées afin de calculer un résultat de réassurance.
N’ayant pas d’informations sur les prix que le marché demanderait pour les différentes
couvertures, on va déterminer les prix à partir de notre modèle et des nos récupérations.
L’inconvénient principal de cette méthode est que les prix obtenus ne sont pas en lien
avec le marché et paraissent fortement élevés par rapport au prix de cette couverture
estimé en 2015 par nos courtiers. Le marché du risque catastrophique est bien en hausse
ces dernières années mais les prix obtenus ont plus que doublé par rapport à celui de
2015. Notamment, les prix des différentes couvertures pré existantes (comme la CCR)
seront modifiés par des prix obtenus par le modèle.
L’approche retenue pour déterminer le prix modèle est d’utiliser la mesure de risque :
avec ρ le chargement de sécurité appliqué sur l’écart type. Il s’agit d’une méthode cou-
ramment utilisée en réassurance pour déterminer la prime d’un traité non proportionnel.
R est une mesure de risque cohérente. Le chargement appliqué sur l’écart type permet
au réassureur de prendre une marge sur le risque qu’il supporte. Dans la suite, nous
prendrons ρ = 15% ; une étude avait été réalisée par le groupe AXA en régressant les
prix modèles sur les prix de différents réassureurs.
35
Ainsi, on détermine notre prime de réassurance Pr par :
Pr = E(Z) + ρσ(Z)
avec
1 10000
X
Z̄ = Zi
10000
i=1
La courbe de ROL décroît car l’impact de l’augmentation de la rétention joue plus que
la baisse de la portée du Stop Loss. A capacité constante, avec une rétention faible, la
36
tranche du Stop Loss est plus grande et même si le ROL est inversement proportionnel à
la portée, l’espérance des récupérations et la volatilité augmentent sur des tranches plus
grandes. D’un point de vue purement souscription, cela semble logique qu’une tranche
plus petite et qui attache plus haut possède un ROL moins important qu’une grande
tranche qui attache plus bas. La quasi linéarité provient du fait que par pas de priorité
de 1%, le ROL évolue très peu et de la même manière car les récupérations ainsi que la
portée n’évoluent pas beaucoup.
Ri = Zi − Pr − Xi
On peut aussi définir le résultat RCCRi pour la couverture CCR actuelle pour l’année i
par :
0.5XiF R
RCCRi = 0.5Xi − 0.5(P F R + P DR ) + max − 200%, 0 0.5P F R
0.5P F R
0.5XiDR
+ max − 3200%, 0 0.5P DR + Ci − P SL − Xi
0.5P DR
avec :
• Ci les commissions potentielles pour l’année i décomposées en une partie fixe et une
partie variable. Le taux de commission fixe est appliqué à la prime cédée par AXA
France. Le taux de commission variable est appliqué au résultat technique de la
CCR et on suppose qu’il est égal à la prime cédée par AXA France - la sinistralité
cédée d’AXA France - la partie fixe.
On fait donc l’hypothèse forte dans nos simulations que le S/C de la CCR est égal
au S/C d’AXA France. L’hypothèse est contestable au vu des années précédentes
où la CCR a été fortement impacté par les catastrophes naturelles contrairement à
AXA France.
37
Elles se calculent donc de la façon suivante :
Xi, j F R représente la charge agrégée sur l’année i pour le péril j (3 différents périls
modélisés sur la France Métropolitaine : Inondations, Sécheresse, Tremblements de
terre)
• De même pour XiDR
• P SL la prime relative au Stop Loss CCR recalculée à l’aide du modèle afin d’obtenir
un prix homogène à celui de la couverture alternative
Maintenant que l’on a mis en avant que la réassurance non proportionnelle pour une cou-
verture alternative est la mieux adaptée il faut définir un ensemble de critères permettant
de comparer dans un premier temps les différentes structures alternatives en Stop Loss
entre elles. Le risk management nous impose d’acheter une capacité qui permet de couvrir
le bicentenaire des pertes CATNAT agrégées. Il correspond pour AXA France en 2018 à
une capacité de 830%. La rétention doit permettre de respecter le risk appetite d’AXA
France. Pour la couverture CCR actuelle, l’appétit au risque est fixé à 100% de la prime.
En effet, on a une priorité du Stop Loss CCR à 200% sur la base d’une prime nette du
quote part (50% de la prime initiale).
On est face ici à un problème d’optimisation stochastique où les contraintes et les objectifs
à atteindre dépendent de lois de variables aléatoires.
Afin de respecter le risk appetite d’AXA France, on va étudier des priorités entre 80%
et 140% (valeurs situées dans un intervalle autour de la valeur de référence 100%). La
capacité étant fixée, la portée sera aussi fixée par la valeur de la priorité (Portée =
Capacité − Priorité). Nos programmes d’optimisation ne dépendront donc qu’un seul
paramètre : la priorité d.
L’objectif principal de la réassurance est de réduire le risque auquel est soumis AXA
France mais doit aussi permettre de rentabiliser ses affaires en réduisant le coût des
38
évènements exceptionnels. La réassurance doit donc permettre d’atteindre des objectifs
de :
• gain STEC
• réduction du risque
• augmentation de la rentabilité
On définit la rentabilité Rtot d’un traité de réassurance comme étant le résultat global
moyen sur 10000 années soit :
Rtot = E(R + CA)
Rtot = E(R) + CA
Rtot = E(CA + Z − Pr − X)
Pr = E(Z) + ρσ(Z)
Donc,
Rtot = CA + E(Z) − E(Z) − ρσ(Z) − E(X)
Rtot = CA − ρσ(Z) − E(X)
La capacité du traité étant fixée, σ(Z) est une fonction décroissante de d. En effet, en
augmentant la priorité d, on réduit la volatilité des récupérations avec une capacité de
traité constante (le résultat serait faux si la capacité varie). Ainsi, Rtot est une fonction
croissante de d dans ce modèle de cotation utilisée. La priorité qui maximise la rentabilité
se situera donc à la frontière supérieure des valeurs admissibles pour d.
39
Minimisation du risque
Comme nous l’avons vu dans le premier chapitre, le risque peut être évalué à l’aide
de différentes mesures et nous allons dans cette étude nous intéresser à la volatilité du
résultat, sa VaR et sa TVaR en fonction de la priorité.
Si l’on s’intéresse à la volatilité du résultat et que l’on note σtot la volatilité globale sur
nos 10000 scénarios on a : p
σtot = Var(R + CA)
p
σtot = Var(Z − Pr − X)
p
σtot = Var(Z − X)
p
σtot = Var(X − Z)
σtot = σ(X − Z)
X-Z représente la perte nette de réassurance et donc si d augmente la perte nette aug-
mente aussi à capacité constante (la rétention est plus haute) et donc la volatilité de la
perte nette est plus importante. Ainsi, comme pour la rentabilité, la volatilité est une
fonction croissante de d. Le d qui minimise la volatilité se situe donc à la borne inférieure
des valeurs admissibles pour d.
On va s’intéresser aux 2 autres mesures de risque que sont la VaR à 99,5% et la TVaR
à 99%. La TVaR nous donnera dans notre cas une meilleure vision du risque car nous
avons affaire dans nos CAT Files à des scénarios qui peuvent atteindre quelques milliards
d’euro. On est donc en présence d’une distribution globale avec une queue lourde et la
VaR peut ne pas évaluer assez suffisamment le risque afférent.
Minimisation du STEC
Le STEC représente un capital à immobiliser et donc un coût pour les investisseurs qui
attendent un retour sur capital. On a déjà vu que la réassurance permet de réduire le
montant du STEC en réduisant le risque du portefeuille et on peut alors définir un traité
de réassurance optimal comme le traité qui minimise le STEC et donc qui maximise
le gain en coût en capital. Le montant du STEC P&C dépend du reste du modèle et
notamment des récupérations au niveau du traité en excédent de perte annuelle sur cumul
de rétentions tous périls dommages et donc cela aura un impact sur le pool property
40
per event. Pour déterminer ce STEC, on utilisera le modèle sous Remetrica qui permet
d’obtenir en sortie un montant de STECCAT défini par :
Les scénarios extrêmes se situent ici lorsque le résultat CAT AXA France est négatif d’où
l’utilisation de la VaR à 0,5%.
4.3.3 Résultats
Maintenant que l’on a défini les différents critères à regarder pour choisir une ou plusieurs
couvertures optimales, on va analyser les différents résultats obtenus.
41
Figure 4.2 – Courbe volatilité-rentabilité pour la couverture alternative
On va alors préférer analyser le risque en terme de Tail Value at Risk et on observe qu’une
courbe efficiente se dessine sur la partie haute du graphique 4.3. En effet, les points sur
la partie basse présentent un risque plus élevé et une rentabilité plus faible, ils ne ne sont
donc pas efficients au sens de Markowitz.
Cependant, on observe que la TVaR à 99% du résultat net de réassurance est assez volatile
puisque modifier la priorité de 1% peut modifier la TVaR à 99% de plusieurs dizaines de
millions d’euros. Le même graphique en utilisant la VaR à 99.5% est quasiment linéaire
et croissant et ne permet donc pas de définir des priorités optimales.
42
Figure 4.3 – Courbe risque-rentabilité pour la couverture alternative
La prime est constante pour chaque année de simulation donc elle n’influe pas sur le
STEC.
Pour cela, on va noter XN etCCRi les pertes nettes des différents traités qui rentrent
dans l’XS Aggregate avec le traité CCR actuel pour l’année de simulation i, Xalti,j les
43
pertes nettes des différents traités qui rentrent dans l’XS Aggregate avec la couverture
alternative de priorité j pour l’année de simulation i et dCCR la priorité actuelle.
10000
τaltj = 10000/Naltj = P10000 = τCCR
i=1 1Xalti >dj
On modifie alors dans chaque modèle la priorité de l’XS Aggregate pour chaque priorité
testée. Le modèle n’étant pas récursif on va tester des priorités entre 80% et 140% avec
un pas de 10% dans un premier temps pour regarder les cas qui minimisent le STEC.
On observe une variation importante du STEC autour d’une priorité à 100% et que
le STEC est minimal pour les priorités basses. Pour les priorités hautes, le STEC est
quasiment constant. On va alors s’intéresser de plus près au domaine compris entre 80%
et 110%. On a :
On a dans cette partie comparé les différentes priorités de couvertures alternatives entre
elles sans s’intéresser à la comparaison avec la couverture CCR.
44
et 500% ce qui signifie que l’on aura des commissions fixes et potentiellement des com-
missions variables.
avec Ri,j etRCCRi définis en 4.2, j représentant les différentes priorités pour la couverture
alternative.
45
On observe une cassure après 120% mais globalement les valeurs hautes de priorité
semblent être les plus rentables avec un maxima à d=140%. Cela s’explique par la plus
faible prime payée avec des priorités hautes pour la couverture alternative ce qui rend
la couverture alternative plus rentable dans des scénarios avec une sinistralité faible (les
récupérations du Quote Part ne rattrapent pas l’écart entre la prime payée à la CCR
et la prime de la couverture alternative).Globalement, on observe sur cette courbe deux
effets : un effet prime et un effet récupérations. La croissance de la courbe s’explique par
l’effet prime, une priorité plus haute entraîne une prime plus basse alors que les cassures
observées s’expliquent par un effet récupération, on paie moins de primes mais on ne
récupère pas assez avec le Stop Loss. La probabilité de rentabilité est assez faible du fait
de prix modèles très élevés ce qui détériore le résultat de réassurance de la couverture al-
ternative. Globalement, on observe que pour des priorités faibles le prix de la couverture
alternative est trop élevée et le sera probablement avec un prix marché. La couverture
CCR possède un quote part qui détériore le résultat en donnant 50% de la prime au
réasssureur mais en contrepartie le prix modèle du Stop Loss est assez faible et couvre
les événements en illimité contrairement à la couverture alternative.
On peut aussi s’intéresser au gain moyen sachant rentabilité Grentaj (si on s’intéresse au
gain moyen sans condition celui ci sera négatif) de la couverture alternative j défini par :
46
Figure 4.5 – Gain moyen de la couverture alternative par rapport à la couverture CCR
On observe cette fois que le gain moyen sachant rentabilité est plus élevé pour des valeurs
basses de la priorité avec un maxima atteint pour d=80%. Cela s’explique par le fait que
les scénarios où la couverture alternative est plus rentable sont moins nombreux comme
vu en figure 4.4 et sur ces scénarios là AXA France gagne plus. En effet, avec cette
méthode de tarification, pour des priorités faibles le prix de la couverture alternative
est proche de celui de la couverture CCR et donc pour tous les scénarios où on ne
récupère rien le résultat sera moins bon du fait de l’existence du Quote Part à 50% qui
récupère systématiquement. Les scénarios avec un delta de résultat positif sont ceux où
l’on récupère avec le Stop Loss de la couverture alternative mais pas le Stop Loss de
la CCR. Outre la différence dans les primes modélisés entre les deux couvertures, les
sinistres cédés au Stop Loss CCR sont nets de Quote Part et donc le Stop Loss joue
moins souvent.
47
— Dans le cas de la couverture alternative avec une priorité à 80%, on ramène le S/P
net à 80% ce qui crée un gain important. Avec un S/P à 100%, on a égalité.
Ceci explique le gain plus important sur des priorités faibles mais avec des probabilités de
scénarios plus faibles. Le gain moyen remonte pour des priorités hautes car la différence
entre les primes modélisés vient compenser les récupérations du Quote Part de la CCR
sur les scénarios avec peu de pertes.
Globalement, on retient que les différentes études n’apportent pas les mêmes conclusions.
En effet, selon les critères que l’on privilégie, les priorités optimales ne se situent pas
dans le même intervalle. Le critère qui paraît le plus judicieux notamment au vu des
prix obtenus à l’aide du modèle est de minimiser le STEC et donc de s’orienter vers une
couverture avec une priorité entre 80% et 100%. En effet, on a vu que le montant du
STEC ne dépendaient pas des primes de réassurance de la couverture alternative (hors
primes de reconstitutions) ce qui permet de comparer vraiment les couvertures entre elles
au niveau des récupérations et ainsi du résultat global.
Cependant, chercher une couverture alternative revient à ne plus se couvrir avec la cou-
verture CCR qui reste fortement intéressante au niveau du risque Cat Nat. En effet, cette
couverture couvre en illimité les événements catastrophes naturelles qui peuvent générer
des pertes énormes de l’ordre de plusieurs milliards d’euros. Le prix du Stop Loss CCR
est relativement bas. De plus le Quote Part à 50% est responsable d’une importante fuite
de primes mais il permet de récupérer en contrepartie 50% du montant des évènements
ce qui n’est pas négligeable.
Retenons aussi que le STEC CAT obtenu avec la couverture CCR actuelle diminue d’en-
viron 50Me ce qui représente après diversification un gain d’environ 10Me ce qui n’est
pas négligeable.
Il serait intéressant d’étudier une couverture CCR modifiée avec un taux de cession plus
faible et de modifier en conséquent la couverture en Stop Loss pour respecter l’appétit
au risque d’AXA France IARD. Cette étude sera menée à la suite de ce mémoire.
Ainsi, il n’apparaît pas forcément judicieux pour AXA France de sortir de la couverture
CCR notamment au regard du fait que les années 2016 et 2017 ont été particulièrement
touché. En cas de volonté pour AXA France de trouver une couverture alternative, les
différentes études permettent d’évaluer le risque relatif aux différentes priorités et de
décider de la couverture à choisir.
48
Chapitre 5
On a identifié dans les parties précédentes que le principal problème que rencontre AXA
France au niveau de la couverture CCR est dû à une fuite importante de primes avec le
quote part à 50% ainsi que les faibles commissions sur les dernières années. Afin de palier
à ce manque à gagner en primes et commissions, il pourrait être intéressant d’envisager
une couverture CCR différente avec un taux de cession plus bas afin de conserver une
majeure partie de la prime sur le périmètre CATNAT. En contrepartie, la priorité du
Stop Loss en illimité pourra être modifiée afin de respecter l’appétit au risque. En effet,
un taux de cession plus bas entraînera des primes nettes de quote part plus élevées pour
AXA France et donc la rétention en valeur relative sera modifiée à la baisse (la rétention
en valeur relative est inversement proportionnelle à la prime nette de quote part). Afin
de déterminer la nouvelle priorité du Stop Loss CCR pour un taux de cession c, on va
considérer que la rétention du Stop Loss CCR doit être identique en montant absolue
dans les deux cas. Ainsi, en notant CA le chiffre d’affaires sur le périmètres CATNAT
et d’ la rétention de la nouvelle couverture CCR (exprimée en pourcentage de la prime
nette du quote part) on doit avoir l’égalité :
(1 − c) × CA × d0 = 50% × CA × 200%
Soit,
1
d0 =
1−c
On pourra aussi envisager de garder la priorité de 200% pour le Stop Loss (priorité en
49
montant absolu plus élevé) afin de payer moins de primes mais en contrepartie de prendre
plus de risques.
La cotation du Stop Loss de la CCR est basée sur un taux appliqué aux primes nettes
de Quote Part. Lors de la modification du Quote Part de la CCR, on va appliquer cette
même méthode en estimant un taux en faisant quelques hypothèses.
Cependant, même si AXA France conserve une part de primes plus importante avec un
taux de cession plus bas, elle va récupérer moins au titre du traité en quote part et cette
différence ne sera pas pas compensée par les récupérations du Stop Loss de la nouvelle
couverture. Il est alors intéressant de mesurer l’impact sur la rentabilité et sur le risque de
cette nouvelle couverture CCR. Il ne suffit pas de comparer la rentabilité de la nouvelle
couverture CCR à celle de la couverture actuelle mais de mesurer aussi l’impact sur le
traité XS Aggregate ainsi que sur le résultat du pool qui dépend du résultat de ce traité
XS Aggregate.
On étudiera dans cette partie un taux de Quote Part diminué de moitié à 25% et on
étudiera un Stop Loss avec une priorité à 133% pour respecter le Risk Appetite actuel
ainsi qu’une priorité à 200%. Au niveau des commissions, il n’est pas certain qu’un taux
de commission fixe à 5% soit accepté avec un tel niveau de Quote Part donc il faudra
mesurer l’impact sur la rentabilité de ce changement de commissions.
Au niveau de la cotation, AXA France n’est pas certain de pouvoir obtenir le même taux
de prime pour le Stop Loss avec un Quote Part à 25% et on testera alors l’utilisation de
deux taux différents. Ces taux s’appliquent sur des Stop Loss avec des priorités à 200%.
Pour le Stop Loss avec une priorité à 133%, on déterminera un taux de prime au prorata
200%
des priorités, soit pour un taux de prime actuel de t, on prendra t0 = t × . Pour des
133%
soucis de confidentialité, on ne donnera aucune information sur les taux de prime utilisés
dans la modélisation. Les traités CATNAT actuels n’étant pas poolés et ne comportant
pas de primes de reconstitutions le changement de primes pour une couverture avec un
même quote part n’aura aucun impact sur le STEC CAT. L’impact en changeant le taux
de Quote Part ou le taux de commissions fixes viendra des commissions en elles mêmes
ou des récupérations de l’XS Aggregate qui verra ses pertes en entrée modifiées. En effet,
avec un Quote Part à 25%, les rétentions nettes augmentent en moyenne puisque l’on
récupère moins sur le CATNAT.
On considère d’abord une priorité à 200% qui ne respecte donc pas le Risk Appetite
50
actuel. On peut définir un nouveau résultat de le couverture CCR par :
0, 75XiF R
FR DR
RCCRi = 0, 25Xi − 0, 25(P + P ) + max − 200%, 0 0, 75P F R
0, 75P F R
0, 75XiDR
+ max − 3200%, 0 0, 75P DR + Ci − P SL − Xi
0, 75P DR
0, 75XiF R
0 FR DR
RCCRi = 0, 25Xi − (0, 25 + 0.75t )(P + P ) + max − 200%, 0 0, 75P F R
0, 75P F R
0, 75XiDR
+ max − 3200%, 0 0, 75P DR + Ci − Xi
0, 75P DR
Le but est de déterminer le S/C annuel tel que le résultat net avec la nouvelle couverture
couverture est égal au résultat de la couverture CCR actuelle défini en 4.2. On va déter-
miner ce résultat graphiquement à l’aide du modèle notamment du fait des commissions
qui compliquent le calcul numérique (les commissions dépendent du S/C) ainsi que le
split entre entre les événements France Métropolitaine et DROM.
Pour un Stop Loss avec 0% de taux de commissions fixes et un taux de prime t’ plus
élevé on obtient en considérant le bénéfice net de réassurance (on exclue les pertes brutes
qui n’apportent rien dans la comparaison entre 2 couvertures) :
51
Figure 5.1 – Comparaison des bénéfices de réassurances
Ainsi, la nouvelle couverture CCR dans le scénario le moins avantageux pour AXA France
est rentable jusqu’à un S/C annuel de 78%. La probabilité d’être en dessous de ce seuil est
de 57% avec une perte moyenne par rapport à la couverture CCR actuelle de 7Meenviron.
Le gain sachant la rentabilité de la couverture CCR avec un Quote Part à 25% est lui
beaucoup plus important et s’élève à 15Me. On voit ainsi que la fuite des primes avec
le Quote Part à 50% est majoritairement responsable au niveau du modèle du bénéfice
moins important pour AXA France mais dans ce scénario en moyenne la couverture CCR
actuelle est plus rentable du fait d’un taux de prime de Stop Loss plus important et de
l’annulation des commissions fixes. On mesure l’impact de ces commissions sur le bénéfice
net à 2,5Meen moyenne.
Les résultats sont plus criants avec un taux de prime moins élevé puisqu’on obtient :
52
Figure 5.2 – Comparaison des bénéfices de réassurances
Le seuil de S/C s’élève dans le meilleur des cas pour AXA France à 93% avec une
probabilité d’être en dessous du seuil de 63%. On obtient un gain moyen par rapport à la
couverture actuelle de 2Meet un gain moyen sachant rentabilité de la nouvelle couverture
CCR de 22Me.
Globalement, la couverture CCR alternative est très intéressante d’un point de vue ren-
tabilité et permet de comparer contrairement à la partie précédente avec des prix pour le
Stop Loss CCR que l’on trouve sur le marché. Cependant, la modification de la couver-
ture CCR entraîne des modifications de l’XS Aggregate qui doit être revu afin d’avoir un
tarif cohérent avec le risque cédé. En effet, avec un Quote Part à 25% et une rétention
qui est maintenue à 200%, les rétentions nettes de couvertures CCR sont plus impor-
tantes et les pertes agrégées de l’XS Aggregate augmentent en moyenne toutes choses
égales par ailleurs. On va appliquer la même méthode que lors de la structuration de la
couverture alternative en Stop Loss décrite en 4.3.3 et mesurer l’impact sur le STEC.
On s’attend ici à ce que l’impact sur le STEC ne soit pas très important car on couvre
toujours les événements CATNAT en illimité ce qui protège grandement notre résultat
annuel bicentenaire.
On observe avec le modèle que l’impact sur le STEC avec une rétention de l’XS Aggregate
53
augmentée est nul car en effet on récupère moins sur l’XS Aggregate ce qui dégrade notre
résultat annuel bicentenaire mais en contrepartie on récupère moins en moyenne donc on
protège notre STEC.
Ainsi, la couverture CCR modifiée présente beaucoup d’avantages dans le sens où elle
protège toujours aussi bien le STEC CAT avec cette couverture en illimité et permet
de réduire grandement la prime cédée au titre du Quote Part. Selon les conditions de
négociations sur le taux de prime du Stop Loss et les commissions sur le Quote Part, la
rentabilité est plus ou moins intéressante. En effet dans le scénario le moins bien pour
AXA France, le gain moyen modélisé est négatif mais est positif en dessous d’un S/C
annuel de 79%. Historiquement, sur les 18 dernières années, 15 années possèdent un S/C
annuel inférieur à 79% ce qui nous donne un bon indicatif sur la probabilité d’être en
dessous du seuil.
Pour cela, on va régresser un taux de prime du Stop Loss en utilisant la valeur actuelle
pour le Quote Part à 50% ainsi qu’une valeur cible pour le Quote Part à 25%. On
choisit une régression linéaire et on obtient avec cette méthode une équation de la forme
f (c) = ac + b avec c le taux de cession et a négatif. Cela signifie que plus on cède de
primes au titre du Quote Part plus le prix du Stop Loss sera avantageux. Avec cette
formule le taux de prime n’est pas minoré et on pourrait envisager que l’on puisse avoir
des taux de primes négatif. On va donc mettre une borne inférieure afin de prendre en
compte cet effet de 1%. On obtient alors
puis :
P SL = (1 − c)f (c)(P F R + P DR )
54
ce qui nous donne :
XiF R
FR DR
max E(cXi − (c + (1 − c)f (c))(P + P ) + max − 200%, 0 (1 − c)P F R
c∈[25%,75%] PFR
DR
Xi
+ max − 3200%, 0 (1 − c)P DR + Cic − 0, 5Xi + (0, 5 + 0, 5f (0, 5))(P F R + P DR )
P DR
FR DR
Xi FR Xi
− max − 200%, 0 0, 5P − max − 3200%, 0 0, 5P DR − Ci50% )
PFR P DR
avec Cic = τ ×max(1−tauxf ixe −S/C, 0)(P F R +P DR )×c où τ est le taux de commission
variable associé au S/C défini contractuellement.
En regroupant les termes, on a :
XiF R
DR
FR Xi
+ max − 200%, 0 (1 − c − 0, 5)P + max − 3200%, 0 (1 − c − 0, 5)P DR
PFR P DR
+Cic − Ci50% )
55
Figure 5.3 – Delta de résultat par rapport au taux de cession actuel
On observe que la rentabilité globale est minimale pour un taux de cession de 25% et
maximale pour un taux de cession de 63%. La cassure que l’on observe est due au fait qu’à
partir de c = 65% le taux de prime du Stop Loss ne décroît plus et reste constant égal à
1% ce qui dégrade la rentabilité car on cède plus de primes avec un taux de cession plus
élevé mais la prime du Stop Loss ne décroît plus dans les mêmes proportions qu’avant ce
seuil de 65%. Cependant, pour des Quote Part avec des taux de cession élevés, on récupère
beaucoup au titre du Quote Part ainsi qu’en commissions ce qui augmente la rentabilité
de ces cas là ce que montre le graphique. Si on enlève les commissions, on s’attend à
ce que les taux de cessions élevés soient beaucoup moins rentables du fait d’une grosse
prime cédée en Quote Part sans recevoir aucune commission proportionnelle à celle-ci.
56
Figure 5.4 – Delta de résultat par rapport au taux de cession actuel sans commissions
Comme attendu, les commissions jouent un rôle important dans la vision de la rentabilité
de notre résultat modélisé puisqu’on voit que maintenant, le taux de cession optimal est
autour de 35% et les taux de cessions élevés ne sont plus du tout intéressants.
Enfin, le modèle présente un nombre important de scénarios avec des S/C élevés bien
historiquement le Stop Loss CCR n’a jamais joué pour AXA France car la plupart des S/C
ne dépassent pas 100%. On peut alors limiter le programme d’optimisation au dessous
d’un seuil de S/C brut de réassurance de 200% qui implique que le Stop Loss ne jouera
pas pour aucun taux de Quote Part. Dans ce cas-là, on doit trouver en supposant les
commissions nulles :
Si l’on fait l’hypothèse que f (c) = ac + b ce qui est une hypothèse conservatrice dans
le sens où on améliore le résultat des couvertures avec un Quote Part élevé avec cette
57
formule, on peut dériver la formule précédente et on obtient
Puis :
Numériquement, on trouve que c doit être négatif pour que la fonction soit croissante
donc sur notre intervalle [25%,75%], la fonction est décroissante ce qui signifie que le max
est atteint à la frontière en c=25%.
58
Figure 5.5 – Delta de résultat par rapport au taux de cession actuel pour des S/C
inférieurs à 200%
Maintenant, dans l’optique où l’on peut modifier la structure du Stop Loss en modifiant
la priorité, on va étudier le cas où l’on respecte le Risk Appetite avec une priorité égale
1
à 1−c comme défini en 5.1. Dans cette partie, la priorité du Stop Loss sur le périmètre
France Métropolitaine se définit par d0 = 1−c 1
et la fonction de taux de prime par g(c) =
f (c) × 200% × (1 − c). On va seulement s’intéresser ici à la rentabilité dans le cas où le
59
S/C ne dépasse pas 200% et sans commissions. Il s’agit de résoudre :
En dérivant le terme ci-dessus sous les mêmes hypothèses sur la fonction g que la fonction
f,on suppose g(c)=2(ac+b)(1-c)) on obtient :
On se retrouve à résoudre une équation du second degré en c afin de trouver les optimum
sur notre intervalle. On trouve en résolvant l’équation une racine sur notre intervalle
autour de 35% ce que l’on confirme graphiquement.
Figure 5.6 – Delta de résultat par rapport au taux de cession actuel pour des S/C
inférieurs à 200%
60
On observe que l’on réduit la rentabilité par rapport à la couverture actuelle avec un
optimum à 35% contrairement au résultat précédent où l’on trouvait un optimum à la
frontière inférieure soit 25%. Le respect du Risk appetite réduit la rentabilité ce qui pose
la question de savoir si l’on doit à tout prix garder le même risk appetite qu’actuellement
ou si l’on peut augmenter celui-ci afin de gagner en rentabilité.
61
Chapitre 6
Maintenant que l’on a testé une couverture alternative en Stop Loss ainsi qu’une amélio-
ration de la couverture CCR actuelle, il peut être intéressant d’intégrer les évènements
Cat Nat dans le programme général d’AXA France afin de simplifier la réassurance et
d’essayer d’optimiser différents critères. Cependant, on ne pourra pas couvrir la séche-
resse dans un traité par événement comme vu en 4.1, donc on structurera un Stop Loss
(priorité et portée) pour ce péril que l’on n’incluera pas dans le Pool Property per Event.
Il faudra aussi s’attacher à vérifier l’appétit au risque sur les évènements Cat Nat no-
tamment avec la rétention actuelle du programme général et s’intéresser à l’impact sur
le pool ainsi que sur le traité XS Aggregate qui verra ses rétentions agrégées en "entrée"
du traité modifiées.
Tout d’abord, avant de présenter les différentes études il sera utile de présenter les données
utilisées et rappeler des concepts de théorie des valeurs extrêmes et d’analyse de données
notamment pour réaliser le tranchage de la nouvelle couverture.
62
Figure 6.1 – Répartition de la charge des événements
On observe que la plupart des données entrantes dans le programme général sont concen-
trés jusqu’à 500Me et deviennent plus disparates ensuite. On s’attend alors à devoir avoir
plusieurs tranches jusqu’à 500M-600Me et des tranches plus larges ensuite afin de pou-
voir optimiser le prix payé par tranche. Quelques statistiques descriptives nous indiquent
que la moitié des pertes entrantes dans le Programme Général incluant les CATNAT
se situent en dessous de 180Me ce qui signifie idéalement que notre première tranche
doit être en dessous de ce seuil afin de ne pas inclure trop de pertes et de payer cher la
première tranche. La moyenne des pertes est quand à elle située autour de 270Me du
fait de l’existence de plusieurs pertes extrêmes entrantes dans le Programme Général qui
remontent cette moyenne.
63
Figure 6.2 – Répartition de la charge de l’événement par ordre croissant
La théorie des valeurs extrêmes permet d’étudier le risque des événements inhabituels
notamment des données qui se trouvent au dessus d’un seuil et donnent des méthodes afin
de le déterminer. Le seuil en question est une limite au-delà de laquelle les estimateurs
TVE mettent en évidence un comportement différent de nos données de perte. Il faut
pour cela pouvoir interpréter graphiquement les estimateurs que l’on définira par la suite.
Dans notre situation , on peut envisager étudier des seuils itératifs afin de déterminer
plusieurs tranches de réassurance pour notre programme. La méthode consistera à :
• Déterminer un seuil à partir des différents estimateurs considérés (Hill et DEdH)
• Sélectionner les données qui se situent au dessus de ce seuil
• Déterminer un nouveau seuil sur le nouveau jeu de données.
64
L’estimateur de Hill
L’estimateur de Hill est l’estimateur le plus utilisé dans la détermination d’un seuil. Il se
définit de la façon suivante :
k
Hill 1X
γ
bX,k,n = log Xn−i+1,n − log Xn−k,n
k
i=1
avec X1,n , ..., Xn,n les statistiques d’ordre associées à notre échantillon de données de
pertes CAT.
65
Figure 6.3 – Estimateur de Hill
On constate sur la figure 6.3 que l’estimateur se stabilise autour de 350Me. En choisissant
ce montant, la première tranche de notre programme est beaucoup trop grande et le prix
payé sera trop élevé pour que l’on retienne ce choix.
Hill(l) 1 Pk−1
avec γ
bX,k,n = (log Xn−i,n − log Xn−k,n )l
k i=1
66
Graphiquement, on trace l’estimateur en fonction de k pour k variant de 1 à n avec
n notre nombre de données. On regarde ensuite à partir de quel seuil l’estimateur se
stabilise et on détermine notre premier seuil ainsi.
67
On observe que l’estimateur se stabilise à partir de la 2000ème statistique d’ordre ce qui
correspond à un seuil de 270Me. Le seuil est plus faible que celui estimé avec l’estimateur
de Hill mais il reste élevé pour la première tranche de notre programme.
On va alors tester pour trancher notre programme général une méthode basée sur l’ana-
lyse de données et sur la classification des données.
Dans cette partie, on présentera les différents concepts d’analyse de données et notam-
ment les méthodes de classification afin de pouvoir regrouper nos données dans différentes
"classes" et ainsi structurer notre programme de réassurance. Il conviendra évidemment
de vérifier que les résultats sont cohérents notamment au niveau de la taille des tranches
et du ROL de chaque tranche obtenu.
On utilisera pour cette algorithme afin de calculer la distance entre un point et un centre
de classe la distance euclidienne d définie par
q
d(xj , µi ) = (xj − µi )2
Notre jeu de données étant de taille significative, il est n’est pas évident de choisir le
nombre de classes K. En effet, on ne peut pas avoir K trop grand car cela reviendrait à
devoir acheter une multitude de tranches de réassurance ce qui n’est pas envisageable ni
K trop petit car on souhaite pouvoir décomposer notre programme en plusieurs tranches
afin de payer moins cher les tranches hautes qui sont moins travaillantes (ROL plus
68
faible). En effet, si l’on achète par exemple 2 ou 3 tranches de réassurance pour notre
programme entier, on va payer ces tranches avec des ROL élevés alors que la partie haute
de la tranche est moins touchée que la partie basse. On envisage alors d’obtenir K entre
4 et 12 tranches, le programme actuel étant décomposé en 9 tranches et on s’attend à ce
que les tranches basses soient plus petites que celles du haut car elles concentrent plus
de pertes.
La méthode classique pour déterminer le nombre de classes est de prendre K tel que celui-
ci minimise l’inertie intra-classe. Il s’agit de déterminer K afin que les clusters retenus
minimisent la distance entre nos valeurs de pertes et leurs centres de classe. En d’autres
termes, on cherche à minimiser la variance globale V définie par :
K
X X
V = d(xj , µi )2
j=1 xj ∈Cµi
69
On observe que la variance ne se réduit plus significativement à partir de K=7. On va
donc retenir cette valeur et calibrer un nouveau tranchage constitué de 7 tranches.
— Le saut maximum qui consiste à regrouper les 2 éléments qui présentent la plus
grande distance entre éléments des deux classes. On note :
— La méthode de Ward qui consiste à regrouper les données de telle sorte que l’aug-
mentation de l’inertie intraclasse soit maximale ou par équivalence que l’inertie
interclasse soit minimale. Avec la méthode de Ward, on agrège a chaque itération
les classes dont l’agrégation fait perdre le moins d’inertie interclasse, il s’agit donc
d’une optimisation pas-a-pas. On note :
n1 × n2 2
d2 (C1 , C2 ) = d (G1 , G2 )
n1 + n2
avec n1 , n2 le nombre d’éléments de la classe 1 et 2 et G1 , G2 les barycentres des
classes 1 et 2.
Pour obtenir une partition, il faut découper l’arbre de classification (ou dendogramme)
à une certaine hauteur donnée. L’arbre étant peu interprétable graphiquement, on va
s’aider comme pour la méthode des K-means de l’inertie selon le nombre de classes.
70
Figure 6.6 – Inertie en fonction du nombre de classes avec la méthode de Ward
71
Figure 6.7 – Tranchage du nouveau programme général avec la méthode des K-Means
On observe que la méthode des K-means est particulièrement efficace dans le sens où elle
capte le fait que les tranches du bas doivent être plus petites en taille et les tranches
hautes plus grandes. On retiendra donc cette méthode et ce tranchage dans la suite de
nos études.
72
Figure 6.8 – Tranchage du nouveau programme général avec la méthode CAH
On voit que la classification ascendante hiérarchique marche moins bien que la méthode
des K-means car la taille des tranches n’est pas croissante notamment pour les tranches
2 et 3 qui sont assez larges (plus larges que les tranches 4 et 7) alors qu’elles captent
beaucoup de pertes ainsi que la dernière tranche qui est très petite au regard du nombre
de pertes présentes. On retiendra alors pour la suite le tranchage obtenu avec la méthode
des K-means qui semble plus cohérent globalement avec notre étude.
Le tranchage obtenu avec les estimateurs des valeurs extrêmes ne comporte que 4 tranches
ce qui n’apparaît pas efficient au premier abord de part la taille de chaque tranche.
Maintenant que l’on a défini un nouveau programme général envisageable pour AXA
France, il faut répondre dans la suite de ce mémoire à trois questions :
• Quels sont les avantages et inconvénients de supprimer la couverture CCR et couvrir
les CATNAT dans le Programme Général ?
• Est-ce que le nouveau tranchage du programme général est plus efficace que l’ancien
avec et sans les CAT NAT ?
• Est ce que les catastrophes naturelles doivent être incluses dans le Pool Property
Per Event ? En d’autres termes, est ce que les catastrophes naturelles doivent être
73
intégrées au programme poolé à 100% ou est-il préférable d’acheter une couverture
différente ?
Il sera difficile de répondre à la 3ème question car les décisions de pooler les traités ou
non et à quelle part ne dépendent pas que d’AXA France mais il s’agit d’une décision au
niveau Groupe. De plus, comme cela a été mentionné en 3.2.2, on fait l’hypothèse dans
nos études que la modification de structure de réassurance ne modifie pas la part dans le
Pool d’AXA France car les impacts sont jugés mineurs. Cependant, intégrer l’ensemble
des catastrophes naturelles dans le programme poolé aura un impact significatif de part
l’importance de ces dernières. En effet, la part dans le pool est calculé au prorata des
primes et pertes modélisées du pool de chaque entité participante.
De plus, intégrer le Programme général dans le Pool Property et acheter une couverture
CATNAT en Excess of Loss sur le marché externe n’est pas très optimal dans le sens où
on ne bénéficie pas de la diversification de couvrir tous les périls dans la même tranche.
On fera donc dans la suite quelques hypothèses afin de pouvoir mener à bien les études.
74
trop vite épuisée (période de retour inférieure à 10 ans), il sera judicieux d’aug-
menter le nombre de reconstitutions. Sachant que la capacité maximale annuelle
dépend du nombre de reconstitutions, on écrit :
P10000
i=1 1Zi =(Nrec +1)×l
Pépuisement =
10000
• La moyenne et les quantiles de nos pertes annuelles
Cela permettra d’avoir un avis sur le prix à payer pour telle ou telle couverture en
comparaison de la couverture actuelle ainsi que de pouvoir comparer en terme de
mesure de risque les tranches entre elles.
• Le résultat de réassurance de chaque tranche/traité.
E(Z)
Ptech = + ρ × (STECsans réassurance − STECavec réassurance )
1 + fr
avec
— fr le facteur de reconstitution
— ρ le coût du capital (exprimé en %)
— le STEC sans réassurance, le STEC obtenu avec le modèle lorsque l’on supprime
la tranche de réassurance considérée.
— le STEC avec réassurance, le STEC obtenu avec le modèle considéré global
75
Le facteur de reconstitution fr permet de prendre en compte les futures primes de re-
constitution payées et vise donc à réduire la prime technique. Ces futures primes de
reconstitutions dépendent des pertes entrantes dans le traité et sont donc stochastiques.
On note :
E(Primesrec )
fr =
Prime
Ici, la prime désigne une prime "fictive" qui permet dans un premier temps de déterminer
l’espérance des récupérations et des primes de reconstitutions pour calculer le coefficient
fr .Le dénominateur 1 + fr représente en fait le pourcentage moyen de reconstitution de
la tranche considérée.
On a donc :
E(Z)
Ptech = + ρ × (STECsans réassurance − STECavec réassurance )
E(Primesrec )
1+
Prime
On ne prend pas en compte le risque de réserves dans nos calculs car un coût d’immo-
bilisation du capital a été estimé par le Risk Management sur le risque Primes+CAT
uniquement. Il existe aussi un coût du capital sur le STEC total qui est plus faible à
cause de la diversification avec le STEC réserves et marché mais on prendra directement
par souci de simplicité le coût du capital sur le STECPrimes&CAT . On suppose aussi que le
changement de couverture de réassurance n’influe pas sur le risque opérationnel et donc
que la différence vaut 0.
Maintenant que l’on a défini la tarification utilisée dans la suite de ce mémoire, il faut
pouvoir justifier de son utilisation et qu’elle n’est pas trop éloignée des prix marchés que
l’on a actuellement. Pour cela, on peut comparer les ROL obtenus avec notre tarification
interne et ceux du marché. Cette méthode de tarification n’a pas pour but de concurrencer
les prix obtenus par AXA France mais de pouvoir se donner une indication du prix qu’on
pourrait attendre ainsi que de comparer les différents programmes entre eux.
76
Figure 6.9 – Comparaison des ROL modèle et marché
On observe que les ROL sont assez proches, ceux obtenus avec le modèle sont plus hauts
pour les tranches du bas et redeviennent plus bas sur les tranches hautes. Cela paraît
assez plausible car AXA possède une vision du risque plus importante que celle du marché
donc sur les tranches basses avec un gain STEC important les prix sont plus élevés. Sur les
tranches hautes, le gain STEC est très faible donc le chargement appliqué à la prime pure
est faible en comparaison du marché. Globalement, le choix d’appliquer cette méthode
de cotation est justifiée.
La capacité du Stop Loss Sécheresse à acheter nous est donné d’après le graphique 3.1
et les recommandations du Groupe de couvrir un péril jusqu’à sa perte bicentenaire. En
ce qui concerne la priorité on ne va pas chercher à définir une priorité optimale car cela
ne correspond pas au coeur du sujet. On va définir une priorité en fonction du poids de
la sinistralité brute Sécheresse dans les périls CATNAT et ce pourcentage définira notre
priorité du Stop Loss. On utilise comme indicateur la charge moyenne annuelle et on
obtient une priorité de 22%. Pour obtenir un montant absolue, il faut multiplier cette
77
priorité par la prime de tout le périmètre CATNAT.
On considère que ce Stop Loss ne rentre pas dans le Pool Property mais qu’il sera placé
sur le marché "externe" de la réassurance.
78
Figure 6.11 – Analyse de la nouvelle couverture de réassurance
Sur le graphique 6.11, les récupérations CATNAT représentent les récupérations qui
viennent du Stop Loss Sécheresse.
Ces deux graphiques représentent les pertes nettes moyennes associées à des pertes brutes
annuelles par intervalle autour d’une valeur définie (avec un pas de 200Me dans notre
cas).Les pertes incluent les primes de reconstitutions payées par AXA France car on
peut considérer cela comme une perte dans le sens où elle sera payée à chaque fois qu’une
récupération se produit. Dans la comparaison de nos deux programmes, les primes de re-
constitutions seront bien plus importantes avec les CATNAT couverts dans le programme
général à cause de primes plus élevées. Il est donc judicieux de rajouter cet élément dans
les pertes nettes mais il n’est pas représenté sur le diagramme des récupérations, seule-
ment dans les pertes nettes. On sélectionne autour de ces valeurs plusieurs scénarios et
on détermine sur ces scénarios certains indicateurs :
— La perte nette moyenne
— Les 1er et 9ème déciles de la perte nette
— Les récupérations moyennes par couverture
— La période de retour de la perte brute centrale de l’intervalle (en blanc sur le
graphique)
Sur le graphique 6.11, les récupérations CATNAT représentent les récupérations qui
viennent du Stop Loss Sécheresse.
79
Figure 6.12 – Comparaison des couvertures de réassurance
Ce graphe reprend les pertes nettes moyennes et les déciles en fonction des pertes brutes
pour mesurer l’écart entre les 2 couvertures. On observe globalement que la perte nette
moyenne est plus basse avec la couverture CCR actuelle. L’effet du Quote Part à 50% est
non négligeable car il permet de récupérer chaque année 50% des pertes brutes CATNAT
même si le Stop Loss de la CCR ne fonctionne pas.
De plus, on observe que les déciles et les écarts par rapport à la moyenne sont bien
plus importants avec la nouvelle couverture de réassurance ce qui pose le problème de
l’incertitude sur les pertes nettes. En effet, on observe pour la couverture de réassurance
actuelle qu’à des périodes de retour faibles (donc les scénarios les plus probables) que
l’écart entre le 1er et le 9ème décile est faible alors que pour la nouvelle couverture celui-
ci est bien plus important. Cet effet est dû à l’existence du Quote-Part qui génère des
récupérations sans limite annuelle. La couverture en XS ne permet pas de couvrir aussi
bien que le Quote Part et amène plus d’incertitude sur les pertes nettes qui pourraient
se produire.
On observe pour les deux couvertures qu’à des périodes de retour élevées l’incertitude sur
les pertes nettes est grande. En effet, à partir d’une période de retour autour de 30ans,
80
l’écart entre nos déciles croît fortement et l’augmentation de capacité sur le programme
général pour couvrir l’inondation jusqu’à son bicentenaire "rattrape" un peu le manque
de récupérations de la couverture CCR.
81
discussion est la tranche 7 qui ne possède aucune reconstitution pour le moment mais
avec une période de retour de 33 ans environ il pourrait être envisagé d’en mettre une
payante.
Globalement, le résultat de réassurance modélisé par tranche est meilleur avec la cou-
verture actuelle ce qui est notamment du au fait que le STEC en enlevant une tranche
augmente plus qu’en enlevant une tranche de la couverture actuelle. En effet, dans la
couverture actuelle les CATNAT sont toujours couverts par leur traité CCR lorsque l’on
enlève une tranche pour obtenir l’impact STEC. Le graphique 6.13 est calibré sur la
tarification en vision interne pour être sur la même base.
On s’attend à ce que le résultat du Pool ait un impact significatif sur la nouvelle cou-
verture car AXA France contribue avec beaucoup plus de primes et de primes de recons-
titution dans le Pool. Même si les récupérations locales augmentent (donc les pertes du
pool), on a vu dans le graphe 6.13 que le résultat de réassurance modélisé est plus faible
sur quasiment toutes les tranches donc l’impact sur le résultat du Pool sera positif. En
effet, le pool agit comme un réassureur pour l’entité locale donc un résultat modélisé
négatif pour l’entité revient à un résultat positif pour le pool. De plus, on suppose ici
82
que la part d’AXA France dans le Pool n’est pas modifiée mais on s’attachera à regarder
l’impact si on augmente la part de 5%.
On voir à travers la figure 6.14 que le pool a un impact important sur la perte annuelle
moyenne. Globalement, sur les deux options de couverture testées le résultat du pool
permet de lisser les pertes nettes moyennes notamment sur des périodes de retour élevées
où la facilité peut jouer. On observe même que la perte nette moyenne est très proche sur
des périodes de retour élevées pour la nouvelle couverture mais l’écart entre les déciles
reste toujours plus élevé ce qui ne réduit pas l’incertitude sur les pertes nettes. Mais le
résultat du pool impacte aussi l’incertitude autour des pertes nettes pour le programme
actuel car on observe que l’écart entre les deux déciles à des périodes de retour basses
augmente.
83
6.5.3 Le Risk Appetite
Le Risk Appetite sur le CATNAT n’a pas encore été verifié mais il reste une donnée très
importante en vigueur du risque que l’on est prêt à prendre dans des situations de stress.
Il s’agit de répondre à la question de savoir jusqu’où l’on souhaite prendre du risque et
de définir la métrique de mesure et le scénario de stress. Dans la couverture actuelle, le
Risk Appetite est défini par la priorité du Stop Loss à 200% des primes CATNAT. Ce
Stop Loss étant net d’une couverture Quote Part de 50%, on est donc prêt à prendre un
risque correspondant à 100% des primes brutes CATNAT. La couverture étant illimitée,
le risque réside entièrement dans la rétention de ce Stop Loss.
Pour la nouvelle couverture, cependant, on couvre notre risque jusqu’à l’OEP bicente-
naire inondation et donc notre risque restant réside dans la rétention du Programme
Général mais aussi dans dans ce qui dépasse ce programme. Les scénarios extrêmes vont
dépasser la couverture et il faut donc s’assurer que les rétentions ne dérivent pas trop
de la valeur cible de 100% des primes brutes CATNAT. L’XS Aggregate couvre cepen-
dant les rétentions nettes du programme général mais ne couvrent pas les dépassements.
Il permet ainsi de couvrir le surplus de rétention nette qui pourrait apparaître avec la
nouvelle couverture.
Afin de comparer les deux couvertures de réassurance, on va considérer des quantiles des
rétentions nettes à différentes périodes de retour et s’assurer qu’on reste dans des valeurs
proches de celles de la couverture CCR actuelle. Il paraît difficile d’envisager que l’on
pourra obtenir des valeurs très proches sans une couverture en illimité et considérant
que l’on a une couverture pas évènement et non agrégée comme un Stop Loss. Tous les
évènements n’atteignant pas la rétention ne récupéreront rien et se cumuleront dans la
rétention nette.
Evolution des rétentions
10 ans +3%
15 ans +16%
20 ans +26%
25 ans +31%
33 ans +38%
50 ans +48%
100 ans +67%
200 ans +90%
Le tableau ci-dessus montre que l’évolution des rétentions nettes par rapport à la couver-
ture actuelle est très importante notamment sur des périodes de retour élevées et malgré
le fait que l’XS Aggregate couvre les rétentions en dessous du programme général, cela
pose la question de l’achat d’une tranche plus basse afin de mieux respecter le Risk
84
Appetite. Cependant, une tranche en dessous du programme général qui couvrirait les
CATNAT coûterait sûrement très cher au vu de la probabilité d’attachement très im-
portante et de la rétention très basse pour ces périls fréquents historiquement. On peut
envisager dans ce cas-là 2 options :
• L’achat d’une tranche pour tous les périls CATNAT confondus en dessous du Pro-
gramme Général.
• L’achat d’une tranche pour les périls CATNAT DROM qui attacherait très bas
afin de respecter le Risk Appetite sur les DROM. Dans ce cas-là, on prend peu de
risques sur la sinistralité DROM mais on prend plus de risque sur les CATNAT en
France Métropolitaine qu’avec la couverture CCR.
• L’achat des 2 tranches en simultanée
Sous tranche CATNAT Sous tranche CATNAT DROM Deux sous tranches
10 ans -28% +6M -30%
15 ans -20% +7M -22%
20 ans -15% +9M -17%
25 ans -11% +10M -13%
33 ans -6% +12M -8%
50 ans +1% +15M -2%
100 ans +14% +21M +11%
200 ans +33% +23M +30%
On s’attend à ce que l’impact sur le STEC CAT et le STEC P&C soit non négligeable
entre la couverture CCR actuelle et la couverture alternative en Excess of Loss. En
effet, cela revient à comparer une couverture en Stop Loss illimité à une couverture en
Excess of Loss avec une rétention et une portée par événement. La moyenne du résultat
annuel ne devrait pas trop évoluer car on ne récupère plus rien avec le Quote Part
85
à 50% mais en contrepartie, on récupère plus avec le programme en Excess of Loss
et l’XS Aggregate ainsi que via le Pool Property Per Event. Cependant, au niveau du
résultat annuel bicentenaire on s’attend à une évolution très importante. En effet, le Stop
Loss illimité de la CCR protège principalement notre résultat bicentenaire en limitant
les pertes CATNAT à une rétention de 200% sans trop améliorer notre moyenne car
les récupérations moyennes de ce Stop Loss sont assez faibles. Cela signifie qu’avec la
couverture actuelle, le résultat bicentenaire se produit avec une tempête qui dépasse
la capacité du Programme Général puisque actuellement on ne couvre la tempête que
jusqu’à son OEP centenaire.
En rajoutant les CATNAT dans le Programme Général, on rajoute des scénarios avec
des pertes CATNAT où la rétention maximale n’est plus capée à 200% avec une portée
illimitée mais dépend de la capacité achetée sur le Programme Général. Cependant, il
faut prendre en compte le fait que l’on ne récupère pas de facilité via le Pool Property
pour les événements CATNAT alors qu’en réalité si les CATNAT étaient inclus dans
le Programme Général en cas de dépassement de capacité on pourra bénéficier de ce
mécanisme. Ce mécanisme vise aussi à réduire le STEC de chaque entité car il joue sur
les pertes extrêmes mais ne modifie pas trop la moyenne car jouant sur peu de scénarios
modélisés. On pourra faire l’hypothèse de rajouter une tranche fictive gratuite en haut
du Programme Général pour mesurer l’impact de la facilité. En effet, ce mécanisme se
comporte comme un tranche de réassurance dans le sens où pour une perte qui dépasse
la capacité du Programme Général, on récupère directement de la couverture Groupe la
partie qui dépasse. Cela impacte en fait le résultat du Pool Property mais cette perte
supplémentaire est mutualisée entre les membres du Pool (ou entités AXA).
86
ne varie pas beaucoup par rapport à l’actuel peu de changements devraient s’imposer
hormis de réduire le nombre de reconstitutions sur les tranches hautes qui possédaient
des reconstitutions sur le programme actuel. La capacité modélisée est déterminée par
les OEP bicentenaires et le tranchage à l’aide de la méthode des K-means déterminé en
6.3.1. On étudiera aussi un tranchage obtenu avec les estimateurs des valeurs extrêmes
pour montrer que ce n’est pas efficient.
87
Par contre, la taille des tranches peut avoir une influence sur la prime d’équilibre et
E(Z)
sur le STEC. La prime d’équilibre Peq est donnée par Peq = . Dans ce terme,
1 + fr
l’espérance des récupérations et fr peuvent varier du fait d’une capacité totale (incluant
les reconstitutions) différente impactant les récupérations moyennes et sur la capacité
totale de chaque tranche impactant fr .
Du fait d’une capacité totale plus importante dans le programme à 7 tranches, les récupé-
rations moyennes augmentent légèrement. De plus, des tranches plus petites récupèrent
moins en moyenne mais le facteur de reconstitution augmente car il est proportionnel à
l’espérance des primes de reconstitution qui est elle même proportionnelle au ratio des
récupérations moyennes sur la portée. Ce ratio que l’on peut appeler Loss on line (ou
E(Z)
LOL) défini par LOL = est décroissant. En effet si l’on augmente la portée d’une
Portée
unité, l’espérance des récupérations augmente de moins qu’une unité. Il est donc plus
efficient au niveau de la prime d’équilibre de considérer des tranches de réassurance plus
petites.
Avec la prise en compte du coût du capital dans notre tarification, la conclusion est
la même car l’impact STEC est moins important en supprimant une petite tranche de
notre programme actuel qu’une grande tranche de notre nouveau tranchage. En effet, en
supprimant une tranche tarifée à la prime d’équilibre l’impact sur la moyenne est nul
mais l’impact sur notre bicentenaire sera différent. En supprimant une tranche de taille
plus importante on détériore plus notre perte nette des pertes extrêmes et cette différence
n’est pas compensée par l’XS Aggregate puisque les pertes sont capées à la rétention du
programme de réassurance. Ainsi, le coût du risque est plus important avec des tranches
plus grandes qu’avec des tranches plus petites.
88
Conclusion
Finalement, on a mis en évidence dans ce mémoire qu’il n’est pas évident d’optimiser une
couverture de réassurance aussi importante au regard de l’ensemble des critères possibles
à optimiser et des contraintes rencontrées. Le fait d’avoir construit un modèle juste et clair
permet, cependant, de pouvoir mener des études précises et qui pourront être renouvelées
facilement chaque année. Le principal challenge se se situe dans la tarification et dans la
connaissance précise du risque auquel est soumis chaque traité. Le prix d’un traité est
une information primordiale dans un programme d’optimisation car il permet de mesurer
la rentabilité de la réassurance, élément important pour AXA France dans l’hypothèse
d’une sortie de la couverture CCR. De plus, sans l’aide de courtiers ou de réassureurs,
on a donné différentes méthodes permettant de structurer et de tarifer des traités de
réassurance CAT en interne. La première méthode de tarification qui prend en compte
l’espérance et la volatilité des récupérations est une méthode simple mais contestable
dans le sens où elle est éloignée des prix rencontrées sur le marché de la réassurance et
des prix actuels d’AXA France. La deuxième méthode qui s’appuie sur le coût du gain
en capital est plus difficile et plus longue à appliquer car non itérative (il faut modifier
le modèle pour chaque tranche que l’on veut tarifer).
On retient sur les différentes études que pour palier à la fuite de prime importante et la
couverture CCR, AXA France doit faire des concessions nécessaires pour augmenter sa
rentabilité.
La couverture en Stop Loss alternative augmente le STEC CAT d’un montant acceptable
(autour de 50Me pour des priorités basses) qui se diversifie bien dans le portefeuille P&C.
Cependant, l’incertitude sur son prix et son placement sur le marché de la réassurance
en dehors du Pool Property posent des questions. En effet, le Pool Property acceptent
des traités en Excess of Loss pour les autres entités et il n’y aucune raison qu’il accepte
un traité en Stop Loss pour AXA France. AXA France ne bénéficiera donc pas de l’effet
du Pool Property avec ce traité notamment de l’utilisation de la facilité qui a un impact
positif sur la perte nette moyenne et le STEC CAT même si historiquement elle n’a jamais
joué. Cependant, à un prix "attractif" elle présente l’intérêt d’augmenter la rentabilité
d’AXA France en vision stochastique sans dégrader considérablement le STEC P&C.
89
La négociation avec la CCR dans l’optique de baisser le taux de Quote Part pour céder
moins de primes présente le gros avantage de garder cette couverture en illimité et même
si le taux de prime du Stop Loss doit augmenter et le taux de commissions fixe diminuer,
la nouvelle couverture CCR reste très avantageuse pour des ratios S/C assez bas (infé-
rieurs à 80%) qui historiquement représentent une majeure partie des années considérées.
Cependant, il faudra revoir le Risk Appetite à la hausse sur le périmètre CATNAT et
revoir la structure de l’XS Aggregate pour obtenir le même prix surtout que celui-ci est
placé en partie sur le marché.
Enfin, on a essayé de structurer une nouvelle couverture de réassurance qui voit son
risque largement augmenter avec l’ajout de CATNAT. On a mis en évidence que la
structure actuelle est efficiente d’un point de vue du nombre de reconstitutions et qu’il
ne serait pas utile d’augmenter ou de diminuer le nombre de tranches d’un point de vue
souscription. La tarification n’est qu’un indicateur interne de ce qu’on pourrait attendre
et on remarque que la couverture actuelle présente un prix moins important et surtout
une prime d’équilibre optimale. Il s’agit d’un équilibre entre ce qu’il est possible d’acheter
et ce qui apparaît trop cher avec une capacité identique. Cependant, cette couverture par
événement dégrade fortement le STEC CAT (+150Me environ) qui après diversification
augmente le STEC P&C mais cet effet sera compensé par le mécanisme de la facilité
même si le STEC CAT augmentera quand même. Elle présente quand même l’avantage
de rentrer dans le Pool Property ce qui augmentera la part théorique d’AXA France
et donc sa participation aux résultats qui historiquement sont positifs. AXA France
bénéficiera aussi en vision modélisée de plus de facilité avec les nouveaux périls entrants
dans le Programme Général mais l’impact est difficilement quantifiable au niveau de
l’entité. Cela aura un effet bénéfique sur le STEC CAT car on protège avec ce mécanisme
les pertes extrêmes au delà du bicentenaire. Cette couverture possède comme principal
inconvénient de présenter une incertitude entre nos déciles de pertes annuelles bien plus
importante que la couverture actuelle. Il faudra en plus de cette couverture acheter un
ou plusieurs Stop Loss pour couvrir le risque sécheresse et diminuer la rétention sur les
périls DROM du fait d’un appétit au risque très faible. Cela rajoute en plus de couvrir
les CATNAT dans le Programme Général une prime non négligeable qui joue sur la
rentabilité globale.
90
du résultat net moyen. Cependant, la sécheresse devra être placé dans un traité Stop Loss
indépendant dont il est difficile d’estimer le prix et de savoir s’il est possible de placer un
tel programme sur le marché de la réassurance. Enfin, pour réduire le risque pris sur les
DROM, une tranche supplémentaire sera nécessaire en dessous de Programme général
même s’il est compliqué de garder le même risque qu’aujourd’hui. Le Groupe pourrait
inciter AXA France d’acheter une couverture en Excess of Loss à inclure dans le Pool
car il pourra bénéficier aussi pour les couvertures groupes d’une meilleure diversification
avec l’ajout notamment du péril Inondation France et du Tremblement de Terre. En
contrepartie, AXA France verra sa part augmenter ce qui historiquement est une bonne
chose.
91
Bibliographie
92
Table des figures
93
6.7 Tranchage du nouveau programme général avec la méthode des K-Means . 72
6.8 Tranchage du nouveau programme général avec la méthode CAH . . . . . 73
6.9 Comparaison des ROL modèle et marché . . . . . . . . . . . . . . . . . . . 77
6.10 Analyse de la couverture de réassurance actuelle . . . . . . . . . . . . . . 78
6.11 Analyse de la nouvelle couverture de réassurance . . . . . . . . . . . . . . 79
6.12 Comparaison des couvertures de réassurance . . . . . . . . . . . . . . . . . 80
6.13 Comparaison des résultats de réassurance par tranche . . . . . . . . . . . 82
6.14 Comparaison des couvertures de réassurance avec l’effet du Pool . . . . . . 83
94
Annexe A
Les premiers critères que l’on va regarder sont relatifs aux deux distances définies précé-
demment et on obtient les résultats suivant pour nos 6 distributions.
Au vu des valeurs, la distribution Log-Normale avec des paramètres estimés par maxi-
mum de vraisemblance semble être la mieux adaptée mais les distributions de Pareto et
la distribution Log-Normale MME pourraient aussi convenir. Cependant, on peut élimi-
ner les distributions de Weibull. On va maintenant s’intéresser à l’adéquation entre la
distribution empirique et la distribution théorique notamment l’AIC, la moyenne, l’écart
type et les quantiles. Le critère AIC (critère d’information d’Akaike) permet de mesurer
la qualité d’adéquation et se définit comme AIC = 2k − 2 ln(L) avec k le nombre de
paramètres à estimer et L le maximum de la fonction de vraisemblance. La meilleure dis-
tribution sera celle qui présente un AIC le plus faible. Ce critère permet donc de classer
seulement les distributions "MLE" entre elles.
Au vu des résultats, il a été décidé de ne pas garder les distributions de Pareto généralisée
95
Figure A.2 – Adéquation moyenne/écart type
96
Annexe B
97
Annexe C
98
Annexe D
On voit que la part du pool a un impact faible et elle améliore la perte nette pour des
périodes de retour élevées. En termes de quantile, elle augmente aussi l’écart entre le 1er
et 9ème décile pour des périodes de retour élevées.
99