Vous êtes sur la page 1sur 112

Table des matières

Résumé i

Abstract i

Synthèse ii

Summary vi

Remerciements x

Introduction 1

1 Le risque de crédit des réassureurs 3


1.1 Le marché de la réassurance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.1.1 Les spécificités du secteur de l’assurance . . . . . . . . . . . . . . . . . . . . 3
1.1.2 La régulation du secteur de l’assurance en Europe . . . . . . . . . . . . . . . 4
1.1.3 L’activité de réassurance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.1.4 Le risque de crédit envers les réassureurs . . . . . . . . . . . . . . . . . . . . 8
1.2 Les contrats de réassurance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.1 La réassurance proportionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.2 La réassurance non proportionnelle . . . . . . . . . . . . . . . . . . . . . . . 13
1.2.3 Le placement d’un programme de réassurance . . . . . . . . . . . . . . . . . 16
1.3 AXA Global Re et sa gestion du risque de crédit des réassureurs . . . . . . . . . . . 18
1.3.1 L’exposition d’AXA Global Re au risque de crédit des réassureurs . . . . . . 18
1.3.2 Le modèle interne du groupe AXA . . . . . . . . . . . . . . . . . . . . . . . 18
1.3.3 La gestion du risque de crédit envers les réassureurs . . . . . . . . . . . . . . 19

2 Modélisation des récupérations pour les traités proportionnels 22


2.1 Données de l’étude . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.1.2 Base de données contractuelle . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.1.3 Données comptables historiques . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.1.4 Réconciliation des bases de données . . . . . . . . . . . . . . . . . . . . . . . 26
2.1.5 Périmètre de l’étude . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.1.6 Statistiques descriptives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2 Segmentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.2.1 Description de la méthodologie : un arbre dérivé de la méthode CART . . . 32
2.2.2 Implémentation et résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.2.3 Discussions et choix de la segmentation retenue . . . . . . . . . . . . . . . . 34
2.3 Etude de chaque segment . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

3
2.3.2 Description de la démarche suivie . . . . . . . . . . . . . . . . . . . . . . . . 36
2.3.3 Application aux données de chaque segment . . . . . . . . . . . . . . . . . . 38
2.3.4 Résultats finaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50

3 Modélisation des récupérations pour les traités en excédant de sinistres 52


3.1 Fondements et paramétrisation du modèle . . . . . . . . . . . . . . . . . . . . . . . 53
3.1.1 Introduction au modèle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.1.2 Les hypothèses du modèle . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
3.1.3 Mise en équation du problème . . . . . . . . . . . . . . . . . . . . . . . . . . 58
3.1.4 Une approximation prise pour résoudre le système . . . . . . . . . . . . . . . 60
3.1.5 Le calcul de la prime pure . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
3.2 Application et analyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
3.2.1 Présentation de l’exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
3.2.2 Paramétrisation du modèle . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
3.2.3 Observation des résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
3.2.4 Analyse et interprétation des résultats . . . . . . . . . . . . . . . . . . . . . 68
3.2.5 Étude pratique de la vitesse de convergence du modèle . . . . . . . . . . . . 69
3.3 Critique des résultats du modèle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
3.3.1 Périmètre de la comparaison . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
3.3.2 Premières observations et conjecture . . . . . . . . . . . . . . . . . . . . . . 71
3.3.3 Analyse du passage de la prime commerciale à la prime pure . . . . . . . . . 72
3.3.4 Une proposition d’évolution du modèle . . . . . . . . . . . . . . . . . . . . . 73

4 Application au risque de crédit 76


4.1 Attribution des expositions par cédante et par réassureur . . . . . . . . . . . . . . . 76
4.1.1 Contextualisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
4.1.2 L’importation des données . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
4.1.3 La simulation des récupérations . . . . . . . . . . . . . . . . . . . . . . . . . 77
4.1.4 La méthode d’exportation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
4.2 Les limites du modèle simplifié . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
4.2.1 La modélisation des récupérations . . . . . . . . . . . . . . . . . . . . . . . . 80
4.2.2 Le passage des récupérations à l’exposition . . . . . . . . . . . . . . . . . . . 80
4.2.3 La structure de dépendance des contrats de réassurance . . . . . . . . . . . . 81
4.3 Ouverture sur des indicateurs de qualité de crédit des réassureurs . . . . . . . . . . 81
4.3.1 Les notations financières . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
4.3.2 Une couverture du risque de crédit : le CDS . . . . . . . . . . . . . . . . . . 85
4.3.3 Comparaison des indicateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . 86

Conclusion 90

Appendices i

Bibliographie iii
Résumé

Mot clés : Gestion des risques, Réassurance, Risque de crédit, Risque de contrepartie, Risque de
défaut, Exposition, AXA

Le transfert de risques vers le marché de la réassurance est une solution couramment utilisée par
les compagnies d’assurance pour gérer leurs risques. Toutefois, cette pratique est à l’origine d’un
nouveau risque : le risque de crédit envers les réassureurs. Notre travail s’inscrit dans la volonté
d’AXA Global Re d’approfondir sa connaissance de ce risque pour le gérer d’une manière encore
plus aboutie. Notre étude porte sur la mesure de l’exposition à ce risque qui est un des indicateurs
principaux permettant la gestion de ce risque.
Nous avons tout d’abord étudié les échanges financiers relatifs aux contrats de réassurance pour
expliquer de manière exhaustive l’exposition au risque de crédit envers les réassureurs. Nous avons
ensuite utilisé l’historique de sinistralité des traités proportionnels cédés par AXA Global Re pour
segmenter les contrats de réassurance et proposer une nouvelle mesure de l’exposition. Nous avons
de plus présenté, justifié et critiqué une technique de modélisation de l’exposition pour les contrats
non proportionnels. Nous avons ainsi raffiné la mesure de l’exposition au risque de crédit envers les
réassureurs pour le groupe AXA.

Abstract

Key words : Risk Management, Reinsurance, Credit Risk, Counterparty Risk, Default Risk,
Exposure, AXA

Risk transfer to the reinsurance market is a common solution used by insurance companies to
manage their risks. However, this practice is at the root of a new risk : credit risk towards reinsurers.
Our work is in line with AXA Global Re’s desire to improve its knowledge about this risk in order
to manage it even more accurately. Our study focuses on measuring exposure to this risk, which is
one of the main indicators used to manage this risk.
First, we examined financial transactions related to reinsurance contracts to fully explain credit
risk exposure to reinsurers. We then used the claims history of the proportional treaties ceded by
AXA Global Re to partition the reinsurance contracts and propose a new exposure measure. We also
presented, justified and criticized an exposure modelling approach for non-proportional contracts.
We have thus refined the measurement of credit risk exposure to reinsurers for the AXA Group.

i
Synthèse

La réassurance permet aux assureurs de transférer une partie des risques auxquels ils ont souscrit.
Ce transfert fait disparaître des risques mais fait toutefois apparaître un nouveau risque : le risque
qu’un réassureur n’honore pas, en partie ou en totalité, ses engagements envers l’assureur. Ce risque
s’appelle le risque de crédit envers les réassureurs.
Deux composantes aléatoires sont essentielles à la gestion et à la modélisation de ce risque :
— la mesure de l’exposition au risque, égale au montant que l’assureur s’attend à recevoir de la
part d’un réassureur,
— la mesure de la réalisation de ce risque, c’est à dire la quantification du défaut d’un réassureur.
Au sein du groupe AXA, la mesure de l’exposition au risque représente un enjeu majeur pour la
gestion de ce risque. En effet, elle permet de connaître la sévérité de la réalisation d’un événement
de défaut. Or, cette sévérité est essentielle dans l’application de l’appétit au risque du groupe AXA
sur le risque de crédit envers les réassureurs.
Notre travail porte plus précisément sur la mesure de l’exposition impliquée par les contrats de
réassurance en vigueur. En effet, AXA Global Re n’est pas responsable de l’estimation de l’exposition
relative aux contrats expirés.

L’exposition au risque de crédit envers les réassureurs sur les contrats en vigueur se déduit de
deux composantes :
— le montant des indemnisations transférées au marché de la réassurance, appelées les récupé-
rations. Ce montant doit être versé par les réassureurs à l’assureur,
— le prix de la couverture de réassurance. Ce montant doit être versé par l’assureur aux réas-
sureurs.
Les échanges financiers relatifs aux contrats de réassurance permettent de comprendre l’articu-
lation entre ces deux éléments et de déterminer la composition de l’exposition au risque de crédit.
Cette composition diffère suivant la nature du contrat de réassurance à savoir s’il est proportionnel
ou non-proportionnel.
En effet, l’exposition impliquée par les contrats de réassurance proportionnelle est égale au
résultat de la couverture de réassurance. Ce résultat est obtenu en soustrayant la prime de la
couverture à la récupération de la couverture. A contrario, l’exposition impliquée par les contrats
de réassurance non proportionnelle ne correspond pas au résultat. La prime de la couverture est en
effet versée à l’avance par l’assureur aux réassureurs et ne diminue donc pas l’exposition. L’exposition
est ainsi égale à la récupération retranchée du montant total des primes de reconstitutions.

ii
Figure 1 – Composition de l’exposition au risque de crédit envers les réassureurs pour les contrats
en vigueur

Toutefois, dans les deux types de réassurance, la récupération représente la principale composante
de l’exposition au risque. Ce constat est d’autant plus vrai lorsque la sinistralité est importante.
En effet, la récupération est alors plus élevée qu’en moyenne mais le prix de la couverture n’évolue
presque pas. La méthodologie existante d’estimation des récupérations s’appelle le modèle simplifié.

Le modèle simplifié simule des récupérations pour chacun des contrats de réassurance du groupe
AXA. Or, le risque sous-jacent aux couvertures n’est pas toujours connu. Le modèle simplifié fait
donc face à une contrainte principale : les récupérations doivent être générées uniquement à partir
des informations contractuelles des contrats de réassurance qui sont en effet toujours connues.
Le modèle simplifié distingue les contrats de réassurance proportionnelle des contrats de réassu-
rance non proportionnelle pour s’adapter aux différents types d’informations disponibles.

Les récupérations relatives aux contrats de réassurance proportionnelle sont générées grâce à la
prime de la couverture et à une distribution a priori sur les ratios de pertes. La distribution des
ratios de pertes considérée est celle d’une loi Log-normale de moyenne égale à 1 et de quantile
99,5% égal à 2. Nous avons critiqué ce choix en étudiant l’historique de la sinistralité des traités
proportionnels cédés par AGRe.
Nous avons tout d’abord segmenté les traités selon les variables discriminantes suivantes :
— la branche des risques assurés,
— la région géographique des risques assurés,
— le type de couverture de réassurance,
— le taux de commission de réassurance.
Cette segmentation a été réalisée en plusieurs étapes. Nous avons en premier lieu observé des
différences matérielles entre les ratios de pertes des traités réassurant des risques vie des traités
réassurant des risques non-vie. Ensuite, nous avons construit un arbre de régression inspiré de
l’algorithme CART sur l’ensemble des traités non-vie. Nous avons ainsi construit des groupes de
traités dont les ratios de pertes étaient plus homogènes.

iii
Enfin, nous avons étudié les ratios de pertes sur chacun de ces segments. Nous avons ajusté
des distributions théoriques sur nos observations empiriques en apportant un poids matériel aux
observations extrêmes. Nous avons ainsi obtenu une mesure théorique des récupérations qui s’ajuste
avec les valeurs historiques dans les extrêmes.
Nous avons ainsi ajusté des distributions différentes sur chacun de nos segments. Globalement,
les ratios de pertes que nous proposons de générer sont plus prudents qu’auparavant. Cette différence
est surtout significative sur les valeurs extrêmes comme le montre la figure 2.

Figure 2 – Proposition d’évolution de la mesure des récupérations relatives aux traités proportion-
nels

Les récupérations relatives à un contrat de réassurance non proportionnelle sont déduites de la


génération de sinistres touchant le contrat en prenant en compte les limites annuelles du contrat. La
sinistralité prise en charge par un contrat est générée au moyen d’un générateur fréquence sévérité
calibré sur :
— les clauses contractuelles du contrat de réassurance,
— la position du contrat dans son programme de réassurance.
Nous avons tout d’abord justifié la calibration permettant de définir la forme de sinistralité.
Nous avons ainsi explicité l’ensemble des hypothèses a priori et des approximations considérées.
Nous avons ensuite comparé les résultats du modèle simplifié avec les résultats d’une autre
méthode utilisée par l’équipe de tarification en réassurance. L’observation des écarts nous a permis
de remettre en cause une hypothèse définissant la moyenne cible des récupérations. Cette cible
était calculée en diminuant la prime commerciale de chargements liés à la marge de risque et aux
frais. Nous avons proposé d’utiliser directement la prime commerciale. Nous proposons ainsi une
modélisation des récupérations plus prudente.

L’étude des méthodes de simulation des récupérations relatives aux traités proportionnels et non
proportionnels nous a permis de raffiner la quantification des récupérations attendues de la part des
réassureurs. Nous avons ainsi participé à l’amélioration de la mesure de l’exposition au risque de
crédit. Nous avons de plus créé un outil réactif permettant de répondre aux attentes du comité de
sécurité du groupe AXA. Cet outil diminue en effet le temps de production des expositions.

iv
En parallèle de cet indicateur, les notes des réassureurs attribuées par les agences de notation
constituent un indicateur de qualité de crédit également utilisé pour les prises de décision.

Nous avons étudié les différents indicateurs de qualité de crédit. Nous nous sommes intéressés
naturellement aux probabilités de défaut des réassureurs estimées selon les agences de notation
mais également aux probabilités de défaut exprimées par les marchés financiers. Les agences de
notations associent en effet des probabilités de défaut à chaque note qu’elles attribuent. De plus,
nous avons étudié les cotations de CDS sur des réassureurs, un instrument financier permettant
notamment de s’assurer contre un risque de défaut. Ces cotations contiennent donc une information
sur la probabilité de défaut.
Nous avons comparé ces résultats sur un échantillon de réassureurs pour montrer que les ordres
de grandeurs des probabilités de défaut ne font pas consensus. Nous observons en effet que les
probabilités annuelles de défaut sur 5 ans estimées par S&P sont de l’ordre de 10−2 % alors qu’elles
sont globalement de l’ordre de 10−1 % selon le marché des CDS et AMBest.

Figure 3 – Comparaison des probabilités de défaut pour un échantillon de réassureurs entre trois
sources : les cotations des CDS, l’agence de notation S&P et l’agence de notation AMBest

Nous en avons conclu que cet indicateur doit être interprété avec prudence. De ce fait, nous
pensons que les résultats de l’ensemble des modèles de marchés quantifiant le risque de défaut
des réassureurs sont à interpréter avec prudence. En effet, leurs résultats sont très sensibles aux
probabilités de défaut des réassureurs.
La gestion du risque de crédit envers les réassureurs est ainsi essentielle.

Nous pensons qu’une étude concernant la quantification du défaut d’un réassureur permettrait
d’apporter des éléments supplémentaires à la gestion de ce risque.

v
Summary

Reinsurance allows insurers to transfer a portion of the risks they have underwritten. This transfer
eliminates risks. Nevertheless, it reveals a new risk : the risk that a reinsurer will not honour, partly
or totally, its commitments towards the insurer. This risk is called the reinsurance credit risk.

Two random components are essential to the management and the modelling of this risk :

— the measure of exposure to risk, equal to the amount the insurer expects to receive from a
reinsurer,
— the measurement of the realization of this risk, i.e. the quantification of a reinsurer’s default.

Within the AXA Group, measuring risk exposure represents a major challenge for risk manage-
ment. Indeed, measuring exposure to risk makes it possible to know the severity of the occurrence
of a default event. This severity is essential in applying the AXA Group’s risk appetite for credit
risk towards reinsurers.

More specifically, our work focuses on measuring the exposure implied by in-force reinsurance
contracts. Indeed, AXA Global Re is not responsible for estimating exposure related to expired
contracts.

The exposure to credit risk to reinsurers on contracts in force is derived from two components :

— the amount of compensation transferred to the reinsurance market, called recoveries. This
amount must be paid by the reinsurers to the insurer,
— the price of the reinsurance coverage. This amount must be paid by the insurer to the
reinsurers.

Financial exchanges relating to reinsurance contracts help to understand the relationship bet-
ween these two elements and determine the composition of credit risk exposure. This composition
differs depending on whether the reinsurance contract is proportional or non-proportional.

Indeed, the exposure implied by proportional reinsurance contracts is equal to the result of the
reinsurance coverage. This result is obtained by subtracting the premium for the coverage from the
recovery of the cover. Nevertheless, the exposure implied by non-proportional reinsurance contracts
does not correspond to the result. Indeed, the premium for the cover is paid in advance by the
insurer to the reinsurers and therefore does not reduce the exposure. The exposure is thus equal to
the recovery deducted from the total amount of the reinstatement premiums.

vi
Figure 4 – Composition of credit risk exposure to reinsurers for in-force business

However, in both types of reinsurance, recovery is the main component of risk exposure. This
observation is all the more true when a severe loss occurs. Indeed, the recovery is then more impor-
tant than on average but the price of the cover does almost not evolve. The existing methodology
for estimating recoveries is called the simplified model.

The simplified model simulates recoveries for each of the AXA Group’s reinsurance contracts.
However, the underlying risk of the covers is not always known. The simplified model therefore
faces one main constraint : recoveries must be generated only from contractual information in
reinsurance contracts, which is always known.
The simplified model distinguishes proportional and non-proportional reinsurance contracts in
order to adapt to the different types of information available. We examined the methods for each
of these contract types separately.

The recoveries related to proportional reinsurance contracts are generated through the coverage
premium and an a priori distribution over loss ratios. The distribution of loss ratios considered is
that of a Log-normal law of average equal to 1 and of quantile 99.5% equal to 2. We criticized this
choice by studying the historical loss experience of the proportional treaties ceded by AGRe.
First, we segmented the treaties according to the following discriminatory variables :
— the branch of insured risks,
— the area of the insured risks,
— the type of reinsurance coverage,
— the reinsurance commission rate.
This segmentation was carried out in several stages. First, we observed material differences
between the loss ratios of life reinsurance treaties and non-life reinsurance treaties. Then, we built
a regression tree inspired by the CART algorithm on all non-life treaties. We constructed groups of
treaties with more homogeneous loss ratios.
Finally, we examined loss ratios in each of these segments. We adjusted theoretical distributions
on our empirical observations by adding important weight to extreme observations. We thus obtained
a theoretical measure of recoveries that adjusts with historical values in extremes.

vii
We have adjusted different distributions in each of our segments. Overall, the loss ratios we
propose to generate are more conservative than before. This difference is especially significant on
extreme values as shown in the figure 5.

Figure 5 – Proposed evolution of the measurement of recoveries related to proportional treaties

Recoveries relating to a non-proportional reinsurance contract are deducted from the generation
of claims affecting the contract, taking into account the annual limits of the contract. The loss
experience covered by a contract is generated by means of a severity frequency generator calibrated
to :
— the contractual clauses of the reinsurance contract,
— the position of the contract in its reinsurance program.
First of all, we justified the calibration allowing us to define the form of claims experience. We
have thus explained all the a priori assumptions and approximations considered.
We then compared the results of the simplified model with the results of another method used
by the reinsurance underwriting team. The observation of variances allowed us to question an
assumption defining the target average of recoveries. This target was calculated by reducing the
commercial premium for risk margin and expense charges. We have proposed to use the commercial
premium directly. We thus propose a more conservative modeling of recoveries.

The study of recovery simulation methods for proportional and non-proportional treaties has
allowed us to refine the quantification of recoveries ceded to reinsurers. We have thus contributed
to improving the measurement of credit risk exposure. We have also created a reactive tool to meet
the expectations of the AXA Group Security Committee. This tool reduces the production time of
expositions.
In parallel with this indicator, the reinsurers’ ratings assigned by the rating agencies constitute
a credit quality indicator that is also used for decision-making purposes.

We’ve been studying different credit quality indicators. We were naturally interested in the estima-
ted probabilities of default of reinsurers according to the rating agencies but also in the probabilities

viii
of default expressed by the financial markets. Rating agencies associate default probabilities with
each rating they assign. In addition, we studied CDS quotes on reinsurers, a financial instrument
used to insure against default risk. These quotations therefore contain information on the probability
of default.
We compared these results on a sample of reinsurers to show that there is no consensus on
the order of magnitude of default probabilities. Indeed, we observe that the annual probabilities of
default over 5 years estimated by S&P are in the order of 10−2 %, whereas they are overall in the
order of 10−1 % according to the CDS market and AMBest.

Figure 6 – Comparison of default probabilities for a sample of reinsurers between three sources :
CDS quotes, the S&P rating agency and the AMBest rating agency

We concluded that this indicator should be interpreted with caution. As a result, we believe
that the results of all market models quantifying reinsurers’ default risk should be interpreted with
caution. Indeed, their results are very sensitive to reinsurers’ probabilities of default.
The management of credit risk towards reinsurers is therefore essential.

We believe that a study concerning the quantification of a reinsurer’s default would bring addi-
tional elements to the management of this risk.

ix
Remerciements

Je remercie vivement Félix Beziz avec qui j’ai réalisé ma première expérience professionnelle au
Group Risk Management d’AXA. Ma volonté de participer à la gestion des risques d’une compagnie
et mon intérêt pour le risque de crédit envers les réassureurs ont débuté grâce à cette aventure.
Nous serons, je l’espère, amenés à travailler ensemble à nouveau.
Je remercie les enseignants du master actuariat de l’ISUP pour avoir partagé leurs connaissances
académiques et professionnelles. Lors de mon travail relatif à ce mémoire d’actuariat, j’ai notamment
appliqué le cours d’ERM, enseigné par Yannick Appert-Raullin et le cours de réassurance, enseigné
par Pierre Lacoste. Je les remercie tout particulièrement. Je remercie enfin Olivier Lopez pour son
encadrement académique tout au long de mes travaux.
Je remercie l’équipe Risk Management d’AXA Global Re pour m’avoir fait confiance et m’avoir
permis de travailler sur la problématique du risque de crédit envers les réassureurs. Je remercie
tout d’abord David Billod de Filiquier pour son encadrement constructif et attentionné. Je remercie
ensuite Thierry Dubocage et Stéphane Jasson pour leurs confiances et leurs partages d’expériences.
Je remercie Elie Dadoun, Hamza El Hassani, Adnane Izakane, Omar Jerrari et Rudy Mustafa
pour nos échanges autour de sujets actuariels au cours desquels j’ai beaucoup appris.
Je remercie enfin les étudiants de l’ISUP et l’équipe réassurance & CAT modeling.

x
Introduction

Une police d’assurance permet à un individu ou une entreprise de se protéger contre des événe-
ments incertains. Cet individu fait confiance à son assureur pour l’indemniser en cas de sinistre. De
la même manière, un contrat de réassurance permet à un assureur de se protéger contre des événe-
ments incertains. L’assureur fait alors confiance à ses réassureurs pour participer à l’indemnisation
en cas de sinistre.
Toutefois cette confiance n’est pas similaire. En effet, l’individu ne porte généralement pas d’at-
tention particulière au risque de crédit induit par son contrat d’assurance. Au contraire, l’assureur
se doit de gérer le risque de crédit engendré par ses contrats de réassurance. L’assureur a en effet
la responsabilité d’indemniser ses assurés même si un ou plusieurs de ses réassureurs était amené à
faire défaut.
Ce risque représente ainsi un enjeu pour chaque compagnie d’assurance. Pour AXA Global Re
(AGRe), cet enjeu est matériel puisque AGRe est par construction très exposée à ce risque. En
effet, AGRe accepte une grande partie des risques cédés par les entités d’AXA pour en céder une
partie au marché de la réassurance. Le rôle d’intermédiaire d’AGRe concentre le risque de crédit
du groupe AXA envers les réassureurs sur l’entité AGRe. De plus, le comité de sécurité du groupe
AXA, responsable de la gestion de ce risque pour le groupe, est géré par l’équipe de gestion des
risques d’AGRe.
Ce mémoire a pour objectif de participer au perfectionnement de la gestion du risque de crédit
envers les réassureurs dont est responsable le comité de sécurité.

Présentons tout d’abord ce risque. Le risque de crédit envers les réassureurs ne peut se réaliser
que si deux événements incertains se produisent :
— un sinistre se réalise et l’assureur demande à ses réassureurs de participer à l’indemnisation,
— un réassureur n’est alors pas en mesure de participer à la hauteur qu’il ne le devrait.
Par construction, l’étude de ce risque nécessite donc une compréhension des risques cédés par
l’assureur et une connaissance du marché de la réassurance. De plus, ce risque est un risque de
deuxième espèce et, sans doute par ce fait, est peu étudié dans la littérature actuarielle contrairement
aux risques de première espèce. Des travaux très intéressants ont toutefois été menés autour de cette
thématique et nous avons souhaité réaliser un travail s’inscrivant dans cette dynamique d’étude du
risque de crédit envers les réassureurs.

Pour orienter notre travail, nous avons avant tout étudié les composantes nécessaires à la gestion de
ce risque. Nous avons identifié deux éléments essentiels. Premièrement, la connaissance des risques
assurés par l’assureur puis transférés au marché de la réassurance. Ces derniers constituent en
effet l’exposition au risque de crédit. Deuxièmement, la connaissance de la qualité de crédit des
réassureurs.
Nous avons choisi d’étudier avec une attention particulière la mesure de l’exposition au risque
de crédit envers les réassureurs induite par les contrats de réassurance en vigueur. En effet, AGRe
est responsable de cette quantification.

1
Nous présenterons dans une première partie le risque de crédit envers les réassureurs, la notion
d’exposition à ce risque et l’entreprise AXA Global Re. Nous étudierons dans une deuxième partie
l’exposition impliquée par les traités proportionnels en utilisant l’historique de sinistralité des traités
d’AGRe. Nous travaillerons dans une troisième partie à l’explication et à la critique d’un modèle
permettant de mesurer l’exposition relative aux traités non proportionnels. Enfin, nous montrerons
comment utiliser la mesure de l’exposition pour gérer le risque de crédit envers les réassureurs.

2
Chapitre 1

Le risque de crédit des réassureurs

Sommaire
1.1 Le marché de la réassurance . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.1.1 Les spécificités du secteur de l’assurance . . . . . . . . . . . . . . . . . . . 3
1.1.2 La régulation du secteur de l’assurance en Europe . . . . . . . . . . . . . 4
1.1.3 L’activité de réassurance . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.1.4 Le risque de crédit envers les réassureurs . . . . . . . . . . . . . . . . . . . 8
1.2 Les contrats de réassurance . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.1 La réassurance proportionnelle . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.2 La réassurance non proportionnelle . . . . . . . . . . . . . . . . . . . . . . 13
1.2.3 Le placement d’un programme de réassurance . . . . . . . . . . . . . . . . 16
1.3 AXA Global Re et sa gestion du risque de crédit des réassureurs . . . 18
1.3.1 L’exposition d’AXA Global Re au risque de crédit des réassureurs . . . . . 18
1.3.2 Le modèle interne du groupe AXA . . . . . . . . . . . . . . . . . . . . . . 18
1.3.3 La gestion du risque de crédit envers les réassureurs . . . . . . . . . . . . 19

1.1 Le marché de la réassurance


Le marché de la réassurance est construit autour de besoins spécifiques aux assureurs. Nous
introduirons donc tout d’abord le secteur de l’assurance. Nous apporterons de plus une attention
particulière aux problématiques de ce secteur pour lesquelles les réassureurs proposent des solutions.

1.1.1 Les spécificités du secteur de l’assurance


Le secteur de l’assurance se propose de gérer des risques auxquels font face des personnes physiques
ou morales. Or, la survenance de ces risques et le montant du préjudice associé sont aléatoires. Ainsi,
une compagnie d’assurance vend toujours un produit de couverture avant de connaître son coût de
revient. Le prix de la couverture est appelé prime.
Par conséquent, le cycle de production du secteur de l’assurance est inversé [8].

La gestion financière des primes est un des enjeux du cycle de production inversé. En effet, une
compagnie d’assurance doit gérer de manière adéquate l’ensemble des primes encaissées pour être
en mesure d’indemniser ses assurés lors de la survenance de sinistres.
Introduisons une forme simplifiée du bilan comptable d’un assureur.

3
Le bilan comptable met côte à côte les actifs et les passifs de la compagnie.
— D’un côté, le passif se décompose globalement en deux parties : les provisions techniques
et les fonds propres. Les provisions techniques correspondent aux montants permettant à
un assureur de répondre à la sinistralité totale estimée. Les fonds propres, apportés par les
actionnaires, permettent à un assureur de financer son activité. Nous reviendrons en détail
sur cette notion.
— De l’autre côté, les actifs représentent le placement des primes et des fonds propres.

Figure 1.1 – Une décomposition simplifiée du bilan comptable d’une société d’assurance

Les fonds propres d’une compagnie d’assurance garantissent ses engagements envers ses assurés.
En effet, l’indemnisation des sinistres peut dévier de sa valeur estimée par les provisions techniques
et peut être très coûteuse.
Par exemple, la survenance de sinistres catastrophes impactant considérablement un grand
nombre d’assurés peut causer un préjudice économique supérieur aux provisions techniques. Or,
lorsqu’un assuré souscrit à une assurance et paie une prime, il fait confiance à son assureur pour
l’indemniser en cas de sinistre.
La survenance d’événements extrêmes ne doit donc pas remettre en cause les engagements d’un
assureur envers ses assurés. Les fonds propres des investisseurs doivent donc absorber une éventuelle
déviation des provisions techniques comme le montre le schéma 1.2.

Toutefois, la détention de fonds propres est coûteuse pour un assureur. En effet, il rémunère ses
actionnaires chaque année par des dividendes. Ainsi, certaines compagnies pourraient avoir tendance
à diminuer leurs fonds propres pour offrir des couvertures d’assurance à des prix compétitifs en
convainquant toutefois des actionnaires d’investir. Ce manque de prudence dans l’estimation des
fonds propres remettrait en cause la protection des assurés.
Pour éviter de telles dérives, les autorités publiques de nombreux pays ont pour ce faire mis en
place une régulation.

1.1.2 La régulation du secteur de l’assurance en Europe


Cette volonté s’est traduite dans l’Union Européenne par la mise en place de la directive Solva-
bilité 2 (S2). Cette directive a principalement trois objectifs :
— garantir la protection des assurés,

4
Figure 1.2 – Bilans actif passif simplifiés et projetés dans le cas de sinistralités inattendues

— permettre aux autorités de contrôle des pays européen de disposer des informations néces-
saires à l’évaluation de la solvabilité des assureurs,
— inciter les entreprises à améliorer la quantification et la gestion de leurs risques.
La directive S2 s’articule autour de trois piliers. Décrivons ces piliers un à un.

Le pilier 1 a pour objectif de s’assurer que même dans un cas extrême, la société d’assurance soit
capable d’honorer ses engagements. Le pilier 1 apporte un cadre précis au calcul du bilan comptable
et fixe une exigence quantitative sur les fonds propres. Ces derniers doivent permettre d’absorber au
moins un choc du bilan dont la probabilité de réalisation annuelle est de 0, 5%. Ce choc est appelé
choc bicentenaire.
Ainsi, la probabilité qu’un assureur soit non solvable et ne puisse donc pas respecter ses enga-
gements est maintenue en dessous de 0, 5% à un horizon d’un an. Ce choc bicentenaire intervient à
la fois du côté de l’actif du bilan et du côté du passif :
— la déviation potentielle de la sinistralité totale par rapport aux provisions techniques enre-
gistrées au passif est un exemple de choc sur le côté passif du bilan,
— la baisse de la valeur de marché des supports de placements des primes et des fonds propres
enregistrés à l’actif est un exemple de choc sur les actifs du bilan.
Le calcul du besoin en capital relatif à cette contrainte peut être réalisé de plusieurs manières.
La première consiste à appliquer la formule standard explicitée dans les actes délégués de S2 [3].
Le résultat de cette formule est appelé le Solvency Capital Requirement (SCR). La deuxième
consiste à mettre en place un modèle interne. L’objectif de cette démarche est de faire correspondre
le choc bicentenaire du bilan avec la typologie des risques pris par l’entreprise. Ce modèle doit être
validé par l’autorité de contrôle compétente. Le groupe AXA a par exemple mis en place un modèle
interne qui calcule sur le Short Term Economic Capital (STEC). La dernière méthode est
un compromis des deux dernières : il est en effet possible d’adapter certaines parties de la formule
standard en fonction du profil de risque de l’entreprise.

Le pilier 2 vise à vérifier que la gouvernance de l’entreprise protège la solvabilité de la société. Le


pilier 2 fait notamment le lien entre le besoin en capital du pilier 1 et les objectifs du plan stratégique

5
Figure 1.3 – La contrainte quantitative des fonds propres sous Solvabilité 2

d’une compagnie. La société doit en effet projeter le calcul du SCR dans le temps en fonction de ses
objectifs. L’entreprise doit alors montrer qu’elle dispose d’un niveau de fonds propre supérieur au
SCR en tout point de la projection. Dans le cas contraire, elle doit convaincre l’autorité de contrôle
de sa capacité à augmenter ses fonds propres. Cette justification fait l’objet d’un rapport nommé
Own Risk and Solvency Assessment (ORSA). De plus, la qualité des données utilisées pour
calculer les exigences en capital doit être justifiée. L’entreprise est notamment amenée à montrer le
caractère approprié et exhaustif des données.
De plus, le pilier 2 encourage les sociétés à adopter la démarche Enterprise Risk Management
(ERM) qui définit un cadre global d’un système de gestion des risques. Une des composantes de
l’ERM est la définition d’un appétit au risque global de la compagnie. Cette enveloppe correspond
au montant maximal que l’entreprise peut se permettre de perdre. Ce montant est ensuite alloué
aux différents risques présents dans la cartographie des risques de l’entreprise.

Le pilier 3 définit un cadre sur la discipline de transparence des informations concernant les
différents acteurs du marché. Chaque entreprise doit ainsi rédiger des rapports narratifs décrivant
son profil de risque et transmettre des données quantifiant son profil de risque. Certaines de ces
informations doivent être publiques alors que d’autres doivent être transmises au superviseur.

Nous avons montré que le pilotage des fonds propres et de l’appétit au risque représentent des
enjeux pour les compagnies d’assurance. La réassurance constitue un des outils facilitant la gestion
des risques. Soulignons que le marché européen de la réassurance est soumis aux mêmes exigences
réglementaires que le marché européen de l’assurance.

1.1.3 L’activité de réassurance


Le marché de la réassurance est en effet construit autour des besoins des compagnies d’assurance
et offre principalement 3 solutions :
— La plus importante correspond au transfert de risque : comme l’assuré, l’assureur a la
possibilité de s’assurer à son tour. Il peut ainsi se protéger contre des événements catas-

6
trophes auxquels il ne veut pas faire face, se réassurer sur des produits concernant des risques
émergents et dont la quantification du risque est trop incertaine ou encore réassurer des
portefeuilles dont l’exposition est trop importante. Cette solution permet d’adapter immé-
diatement le profil de risque de l’assureur et de diminuer indirectement l’exigence en fonds
propres.
Par cette opération, le réassureur perçoit une portion des primes initialement versées par
le ou les assurés et s’engage, en cas de réalisation du risque, à rembourser à l’assureur une
partie des sommes versées aux assurés au titre de l’indemnisation des sinistres. Lors de
cette cession de risque, l’assureur initial est vu comme la cédante et le réassureur comme
l’assureur de l’assureur. Selon les points de vues respectifs du réassureur et de la cédante, on
parle respectivement d’acceptation ou de cession pour évoquer le transfert de risque.
— Le réassureur peut également réaliser directement un prêt de fonds propres, par exemple
pour financer un développement commercial, améliorer la marge de solvabilité ou lisser son
résultat. On parle de réassurance financière.
— Le réassureur offre également un appui aux assureurs sur des problématiques métiers comme
la conception des produits, l’assistance dans la tarification aux risques spéciaux ou la gestion
des sinistres.
La solution de transfert de risque est celle qui va nous intéresser.

Les réassureurs ont par construction des profils plus risqués que les acteurs de l’assurance directe.
Un objectif important des réassureurs est de diversifier leurs portefeuilles afin de réduire leurs
expositions aux risques. Par exemple en réassurant des risques présents dans des zones géographiques
différentes ou relatifs à des branches différentes. Une branche correspond à un type de risque
couvert. Il est en effet moins probable que des événements extrêmes surviennent la même année
dans des zones géographiques distinctes. De la même manière, la structure des risques relatifs à
la branche dommage est différente de celle des risques concernant la branche responsabilité. Cette
différence de profil constitue une diversification.

Malgré tout, les sociétés de réassurance sont moins averses au risque que les sociétés d’assu-
rance. Les résultats financiers d’un réassureur sont ainsi plus volatiles que ceux des assureurs. Par
conséquent, les fonds propres d’un réassureur sont plus à même d’être consommés pour absorber
la potentielle déviation de la sinistralité totale par rapport aux provisions techniques. Les actions
d’une compagnie de réassurance offrent donc généralement des rendements supérieurs à ceux des
actions d’une société d’assurance.

Les réassureurs peuvent avoir à leur tour besoin de céder du risque. Plusieurs possibilités sont
alors envisageables :
— se réassurer auprès d’un autre réassureur,
— se réassurer auprès d’acteurs financiers comme les fonds de pensions,
— transférer des risques sur les marchés financiers en utilisant la réassurance alternative.
Les deux premières possibilités constituent la rétrocession de risques. Notons que les deux derniers
choix peuvent également être choisis directement par les assureurs. Certains acteurs financiers et
la réassurance alternative représentent donc une concurrence pour le marché de la réassurance
traditionnelle.

En outre, les assureurs et les réassureurs ont la possibilité de mutualiser leurs risques dans des
pools. Chacun des membres du pool cède alors du risque à la structure. Le résultat agrégé de la
structure est partagé entre les membres à la fin de l’année. Si le résultat est positif, les membres
se répartissent le résultat alors que s’il est négatif, les membres subissent la perte. Un pool peut

7
également réassurer son portefeuille mutualisé. La figure 1.4 résume les différents acteurs du secteur
de l’assurance et les opérations qui les lient.

Figure 1.4 – L’arborescence des acteurs intervenants dans le secteur de l’assurance

1.1.4 Le risque de crédit envers les réassureurs


Intéressons-nous à la notion de risque de crédit. De manière générale, il correspond au risque
qu’une contrepartie, le débiteur ne rembourse pas tout ou partie de sa dette aux échéances prévues
par le contrat au créancier . Du point de vue du créancier, le montant de la dette est une créance.
Les éléments principaux essentiels à la gestion des risques de crédit sont les suivants :
— le montant de la dette. Ce montant constitue l’exposition au risque de crédit,
— la probabilité de défaut de l’émetteur de la dette,
— le taux de recouvrement de l’émetteur en cas de défaut, défini comme la part du montant
recouvrable de la dette en cas de défaut.

Le risque de crédit envers les réassureurs correspond au risque qu’un réassureur n’honore
pas, en partie ou en totalité, ses engagements auprès de la cédante. La société d’assurance se retrou-
verait alors en position délicate. En effet, d’un côté elle devrait toujours assumer sa responsabilité
vis à vis de ses assurés. De l’autre, elle ne récupérerait pas la participation du réassureur à l’in-
demnisation. Dans l’univers des risques de crédit, ce risque est singulier et nécessite un traitement
spécifique. Pour appuyer ce propos, qui motive l’objet de ce mémoire, nous pouvons avancer trois
arguments :
— l’exposition au risque de crédit est volatile. En effet, d’une part les sinistres à charge de
la cédante ne sont pas forcément encore survenus ou déclarés. D’autre part, le montant de
la sinistralité totale peut dévier de l’estimation. Par conséquent, la sinistralité à charge du
réassureur, appelée récupération, est à fortiori volatile,
— le marché de la réassurance comporte un nombre d’acteurs assez limités et leur profil de
risque est difficilement comparable avec d’autres types d’industrie,
— l’historique des événements de défauts des réassureurs est restreint. En effet, entre 1980 et
2003 et dans 52 pays, on dénombre seulement 24 faillites [9]. De plus, parmi ces événements
recensés, la plupart concernent des petits réassureurs, au sens de leurs poids dans le secteur de
la réassurance. De ce fait, si tant est que l’on puisse tirer de l’information sur cet historique,
elle serait difficilement applicable aux acteurs principaux du marché de la réassurance.

8
Du fait du manque de données, la quantification du risque de défaut des réassureurs est complexe.
Notre travail se concentrera principalement sur la modélisation de l’exposition au risque de crédit
envers les réassureurs. Nous montrerons dans le dernier chapitre les limites des quantifications
existantes du risque de défaut des réassureurs.

1.2 Les contrats de réassurance


La connaissance des contrats de réassurance est nécessaire à la quantification de l’exposition au
risque de crédit envers les réassureurs. Nous allons donc les introduire.

Deux types de réassurance existent :


— la réassurance obligatoire. La réassurance obligatoire concerne la cession de l’ensemble des
risques relatifs à un portefeuille de l’assureur. Elle se concrétise par la signature d’un contrat
nommé traité. Une fois signé, la cédante comme le réassureur ont l’obligation respective de
céder et d’accepter tous les risques du portefeuille. Ces risques doivent toutefois vérifier les
clauses contractuelles,
— la réassurance facultative. La réassurance facultative concerne la cession d’un risque spéci-
fique ou bien des risques relatifs à une unique police. Elle se concrétise par la signature d’un
contrat appelé facultative. Par exemple, considérons un risque d’un portefeuille réassuré.
Si sa somme assurée dépasse le plafond contractuel fixé dans un traité, le risque n’est pas
cédé. Il peut alors être réassuré individuellement grâce à une facultative.
Lorsqu’un sinistre touche un risque cédé à la réassurance, la somme de la sinistralité conservée par
la cédante est appelée rétention.

De plus, plusieurs formes de couvertures existent et peuvent se regrouper en deux sous-parties,


la réassurance proportionnelle et la réassurance non proportionnelle. Pour illustrer ces
différentes formes contractuelles de réassurance, nous allons considérer un portefeuille de 5 risques.
Nous avons connaissance du montant de l’exposition et de la prime pour chacun de ces risques.
Nous connaissons également la sinistralité de ce portefeuille.

Figure 1.5 – Portefeuille de la cédante et sinistralité associée

1.2.1 La réassurance proportionnelle


En utilisant la réassurance proportionnelle, les sinistres et les primes sont partagés proportion-
nellement entre l’assureur et les réassureurs. Ils se partagent le sort de l’exposition, quelque soit la

9
sinistralité qui la touche. En effet, l’assureur verse aux réassureurs une part de la prime liée à cette
exposition et les réassureurs prennent en charge les sinistres sur cette exposition à cette même part.
Le taux de cession va définir cette répartition entre cédante et réassureurs. Le taux de cession
peut être fixe pour tous les risques du portefeuille de la cédante ou variable selon les risques. Nous
parlons alors respectivement de réassurance en quote-part ou de réassurance en excédent de
plein.
Un taux de cession τ suffit à définir un contrat en quote-part. Inversement, pour l’excédent de
plein, les informations contractuelles doivent permettre de déterminer les taux de cessions τr pour
chacun des risques r du portefeuille. Un excédent de plein est défini par un plein de rétention et une
capacité, exprimée comme un multiple de ce plein. Les taux de cession peuvent alors être déterminés
au moyen de la formule suivante :

min(max(Expositionr − Plein; 0); Plein × Capacité)


τr = (1.1)
Expositionr

Considérons l’exemple d’un quote-part avec un taux de cession de 20% et d’un excédent de plein
avec un plein de rétention de 250K et une capacité de 1. Il est alors possible de calculer le taux de
cession pour chacun des risques. Ce taux de cession est fonction de l’exposition des risques assurés
d’après la formule 1.1. Nous représentons en figure 1.6 cette fonction pour nos différents contrats et
mettons en avant les taux de cession des risques sinistrés. Remarquons que le risque 2 est davantage
cédé dans le cas de l’excédent de plein que dans le cas du quote-part. A contrario, le risque 5 n’est
pas cédé dans le cadre de l’excédent de plein.

Figure 1.6 – Les taux de cession en réassurance proportionnelle

La représentation de la figure 1.7 permet de visualiser la notion de partage de l’exposition puisque


l’on a représenté sur l’ensemble du portefeuille l’exposition conservée par la cédante et l’exposition
cédée aux réassureurs. Dans notre exemple, nous pouvons remarquer les différences du partage entre
la réassurance en quote-part et la réassurance en excédent de plein.

Les primes sont réparties de manière proportionnelle entre l’assureur et les réassureurs. Notons
respectivement Pr , N , Pport et Preass la prime du risque r, le nombre de risques du portefeuille
cédé, la prime totale du portefeuille et la prime de la couverture. La formule 1.2 associe les deux en
fonction des taux de cession τr
r=N
X r=N
X
Preass = (τr .Pr ) et dans le cas d’un quote-part, Preass = τ. Pr = τ.Pport (1.2)
r=1 r=1

10
Figure 1.7 – Le partage du sort de l’exposition en réassurance proportionnelle

Lorsqu’un sinistre se réalise, la cédante et les réassureurs se répartissent proportionnellement au


taux de cession le montant de l’indemnisation. Notons respectivement Sin , Rec et R le montant
respectif d’indemnisation du sinistre, de la récupération associée et de la rétention associée. La
formule 1.3 lie ces quantités.

Rec = τr .Sin et Ret = (1 − τr ).Sin (1.3)


Toujours dans notre exemple, nous pouvons alors représenter les différentes répartitions de la
sinistralité entre rétention et cession selon le type de couverture.

Figure 1.8 – Répartition de l’indemnisation des sinistres du portefeuille entre cédante et réassureurs

En réassurance proportionnelle, la prime partagée entre l’assureur et les réassureurs est une part
de la prime commerciale. Une partie de cette prime est destinée aux frais liés à la gestion des sinistres.
Or, le réassureur ne réalise pas la gestion des sinistres : pour un même contrat, les réassureurs font
face à moins de frais que la cédante.
Pour compenser cette dissymétrie, le réassureur verse à la cédante une commission, exprimée
comme une part de la prime. Cette commission peut être fixe ou variable. Dans le second cas elle
peut être fonction du ratio de perte de la couverture de réassurance en fin d’année.
Considérons dans notre exemple les deux cas de figure. Tout d’abord nous considérons un com-
mission fixe à 20%. Ensuite, nous considérons une commission variable, définie de la manière sui-
vante :

11
— la commission vaut 30% si le ratio de pertes est inférieur à 40%,
— la commission vaut 10% si le ratio de pertes est supérieurs à 110%,
— la commission est linéaire sinon
Autrement dit, notons LR le ratio de pertes et com le pourcentage définissant la commission, la
commission variable est donnée par :

30%
 si LR ≤ 40%
10−30
com(LR) = 110−40 .(LR − 40%) + 30% si LR ∈ ]40%; 110%[ (1.4)


10% si LR ≥ 110%
Nous pouvons alors représenter en figure 1.9 cette fonction dans notre exemple et en déduire
les montants des commissions suivants les différents cas de figure. A savoir le type de couverture :
quote-part ou excédent de plein et le type de commission : fixe ou variable.

Figure 1.9 – Les commissions en réassurance proportionnelle et application au portefeuille

Nous pouvons alors enfin nous intéresser au résultat des couvertures du point de vue de la cédante
que nous notons Rreass . Résumons les échanges financiers relatifs à un traité proportionnel. Ils se
composent de trois composantes :
— la cédante doit au réassureur la prime de la couverture, notée Preass ,
— le réassureur doit à la cédante la commission de réassurance, notée Com
— le réassureur doit à la cédante la récupération du traité, notée Rec,
Rreass = −Preass + Com + Rec (1.5)
Dans notre exemple, nous pouvons en déduire les résultats des différentes couvertures en figure 1.10

Nous avons défini le résultat Rreass d’une couverture dans l’optique de la modélisation au risque
de crédit. Si les réassureurs ont une dette envers la cédante, le résultat est positif. Dans ce cas,
l’exposition au risque de crédit est positive. Inversement, lorsque la cédante a une dette envers les
réassureurs, le résultat est négatif et l’exposition au risque de crédit est nulle.
Ce résultat est important dans l’optique de la modélisation de l’exposition au risque de crédit.
En effet, en réassurance proportionnelle, un seul échange financier est réalisé : l’assureur et ses réas-
sureurs s’échangent le résultat à la fin du contrat. Par conséquent, en réassurance proportionnelle,
le résultat constitue l’exposition au risque de crédit.

Notons qu’étant donné que le type de réassurance facultative couvre uniquement un risque, la
distinction entre quote-part et excédent de sinistre n’a pas de sens. Nous parlerons simplement de
réassurance proportionnelle.

12
Figure 1.10 – Comparaison des résultats des couvertures du portefeuille

1.2.2 La réassurance non proportionnelle


La cédante va utiliser cette forme de réassurance lorsqu’elle souhaite définir sa rétention comme
une valeur absolue et non relative. Il existe deux types de réassurance non proportionnelle : la
réassurance en excédent de pertes et la réassurance en excédent de sinistres.
Nous ne traiterons pas de la réassurance en excédent de pertes. En effet, AXA Global Re utilise
très peu ce type de couverture. AGRe souscrit en effet à cette couverture presque seulement pour être
en conformité avec des contraintes réglementaires concernant le risque de catastrophes naturelles
en France. Les assureurs français sont tenus de reverser 8% des primes d’assurances habitations
à la CCR (Caisse Centrale de Réassurance) pour que ce dernier prenne en charge les sinistralités
couvertes par le régime des catastrophes naturelles français. Cette contrainte rend difficilement
pilotable les expositions cédées à la CCR. De plus, la CCR appartient à 100% à la France, le risque
de crédit relève alors plus du risque souverain qu’au risque de crédit envers les réassureurs. Ce type
de couverture ne nous intéressera donc pas.

Revenons à la réassurance en excédent de sinistres. En utilisant ce type de couverture, l’assureur


va se protéger contre la réalisation de sinistres en fixant une rétention absolue par sinistre.
Un traité en excédent de sinistres se note cap-XS-prio, avec cap la capacité et prio la priorité.
En signant un contrat cap-XS-prio, le réassureur va contribuer à l’indemnisation des seuls sinistres
dont le montant est supérieur à la priorité prio. Il contribuera à concurrence de la capacité cap.
La formule 1.6 exprime la récupération brute de limites annuelles du contrat, notée RecBs en
fonction du montant de l’indemnisation d’un sinistre s, noté Sins :

RecBs = min(max(Sins − prio, 0), cap) (1.6)

Si le montant d’indemnisation du sinistre Sins est supérieur à la priorité du traité, nous dirons
que le sinistre s touche le traité cap-XS-prio.

D’autres éléments viennent enrichir la complexité des traités XS. Ces éléments sont comparables
à la franchise et à la garantie limite d’une police d’assurance :
— la limite cumulée annuelle, notée AAL est le montant limite annuel de couverture par
les réassureurs. Ce montant s’exprime également comme un multiple de la capacité. En effet,

13
appelons ce multiple le nombre de reconstitutions, noté N bReco, nous avons AAL =
N bReco × capa.
— la franchise cumulée annuelle, notée AAD est une franchise additionnelle à la priorité
permettant à la réassurance d’intervenir après un certain coût annuel de sinistres.
En notant respectivement Nsin , aRecB et aRecN respectivement le nombre de sinistres touchant
le traité sur l’année, la somme des récupérations brutes de limites annuelles des réassureurs pour les
sinistres de l’année et la récupération annuelle nette de limites annuelles. Nous obtenons la formule
1.7.

N
X sin

aRecN = min(max(aRecB − AAD, 0), AAL), avec aRecB = RecBs (1.7)


s=1

Une autre manière de calculer la récupération annuelle nette de limites annuelles aRecB du
traité est d’adapter chaque récupération brute de limites annuelles RecBs en fonction des limites
annuelles contractuelles. L’AAD vient diminuer le montant des premières récupérations RecBs et
l’AAL vient diminuer le montant des dernières récupérations si la récupération annuelle brute de
limites annuelles aRecB dépasse l’AAL. NousPobtenons alors des récupérations sinistres nettes de
limites annuelles, notées RecNs , qui vérifient N s=1 RecNs = aRecN .
sin

Lorsqu’un sinistre touche un contrat de réassurance, RecNs représente le montant que les réassu-
reurs doivent à la cédante au titre du contrat. Cette quantité nous intéressera donc particulièrement
pour mesurer l’exposition au risque de crédit.

Reprenons alors notre portefeuille pris en exemple. Rappelons que la figure 1.5 représente les
expositions, les primes de notre portefeuille et les sinistres en milliers d’euros.
Réassurons ce portefeuille avec un 150 XS 200 dont l’AAD vaut 50 et l’AAL 300. Nous obtenons
alors les montants de récupérations intermédiaires Recs pour chacun des sinistres sur le graphique
gauche de la figure 1.11.
Par exemple, nous déduisons la récupération brute de limites annuelles du sinistre 1 grâce à la
formule 1.6. RecB1 = min(max(300 − 200, 0), 150) = 100. Nous concluons donc que le sinistre 1
touche le traité.
Supposons de plus que les sinistres des risques 1, 2 et 5 se soient réalisés dans ce même ordre. Nous
corrigeons alors les récupérations intermédiaires des limites annuelles contractuelles pour obtenir
les RecNs sur le graphique droite de la figure 1.11. Étant donné que RecB1 ≥ AAD, l’AAD vient
seulement diminuer le montant de la récupération du sinistre 1. Nous obtenons RecN1 = RecB1 −
AAD = 100 − 50 = 50. De plus, la somme des RecBs , c’est à dire aRecB, est inférieure à l’AAL.
La limite annuelle ne diminue donc pas les récupérations brutes de limites des derniers sinistres.

Nous allons maintenant nous intéresser au prix d’une couverture en excédent de sinistre. Deux
éléments viennent le définir :
— la prime initiale, notée Pini , est versée par la cédante aux réassureurs au moment de la
signature du contrat,
— le prix relatif des primes de reconstitutions, noté preco . Les primes de reconstitutions sont
versées par la cédante aux réassureurs lorsqu’un sinistre touche le contrat.
Intéressons-nous aux échanges financiers relatifs à cette couverture. Au moment de la signature,
la cédante verse au réassureur la prime initiale de la couverture Pini .
Ensuite, dès lors qu’un sinistre s touche le traité, le réassureur doit à l’assureur le montant de
la récupération corrigée RecNs . Dans le même temps, l’assureur doit au réassureur une prime de
reconstitution
c
pour reconstituer le traité capa XS prio. Cette prime, notée Prec s
est donnée par :
s Rec
Prec = capa .preco .Pini .
s

14
Figure 1.11 – Détermination des récupérations intermédiaires et corrigées dans le cas où notre
portefeuille est réassuré par un 150 XS 200 avec AAD=50 et AAL=300

Ce montant est redevable par la cédante dans la limite de Nreco .preco .Pini où Nreco = AAL capa
−1
représente le nombre de reconstitutions maximales du traité.
L’esprit de cette tarification est que la prime représente le prix d’une consommation entière de
la capacité. Dès lors qu’un sinistre touche le traité, il est nécessaire de racheter la partie consommée
de la capacité pour continuer à être couvert. La prime initiale correspond au prix de la première
consommation et les primes de reconstitutions sont donc limitées au prix de (Nreco − 1) prime de
reconstitution entières.

Dans notre exemple, nous avons considéré que Pini = 50 et que preco = 100%. Le prix d’une
prime de reconstitution complète est donc égale à la prime Pini du contrat. De plus, étant donné
que AAD = 300 et que capa = 150, nous avons Nreco = 1
A la signature, la cédante vers donc 50K aux réassureurs.
Lors du premier sinistre, la part consommée de la tranche est de 100150
= 67%. La cédante verse
donc au réassureur 67% × 100% × 50 = 17K.
Lors du deuxième sinistre, la part consommée de la tranche est de 150 150
= 100%. La cédante
devrait donc verser au réassureur 100% × 100% × 50 = 50K. Mais, le montant total des primes
de reconstitutions est limité à Nreco .preco .Pini = 1 × 100% × 50 = 50K. La cédante verse donc au
réassureur la différence à savoir 33K. A présent, plus aucune prime de reconsitution ne sera versée
par la cédante.

Remarquons que la natures des échanges financiers entre cédante et réassureurs sont différents
entre la réassurance proportionnelle et la réassurance non proportionnelle.
La cédante n’avance par exemple pas de prime dans la réassurance proportionnelle alors qu’elle
avance une prime dans la réassurance non proportionnelle. Considérons le cas d’un défaut d’un
réassureur durant de l’année de couverture d’un excédent de sinistre.
Si cet excédent de sinistre n’a pas encore été touché, la cédante devra engager une procédure
pour récupérer sa créance. Le montant de cette créance serait alors égal à la prime non acquise,
c’est à dire la prime couvrant la fin de l’année de couverture, calculée au prorata.
De plus, la cédante devra également racheter une nouvelle couverture auprès d’un nouveau
réassureur pour rester protégée jusqu’à la fin de l’année de couverture.
Contrairement à la réassurance proportionnelle, l’exposition au risque de crédit envers les ré-
assureurs ne correspond pas au résultat. Elle correspond à la somme des échanges financiers en
excluant le versement de la prime initiale à la signature.

15
Figure 1.12 – Échanges financiers relatifs à la cession de notre portefeuille par un 150 XS 200 avec
AAD=50 et AAL=300

1.2.3 Le placement d’un programme de réassurance


Un programme de réassurance en excédent de sinistre est un regroupement de traité XS.
Chaque brique porte le nom de tranche ou de traité. Dans notre contexte, ce sont des synonymes.
Nous trouvons en bas du programme les tranches les plus travaillantes. Sont appelées tranches
travaillantes les tranches dont la probabilité d’attachement est élevée. La probabilité d’attache-
ment quantifie la chance qu’un traité a de se faire toucher par un sinistre.
A contrario, nous trouvons en haut du programme les tranches les moins travaillantes avec des
probabilités d’attachement faibles.
La couverture garantie par un programme de réassurance en excédent de sinistre peut être
semblable à celle d’un unique traité. Nous pouvons alors légitimement nous demander l’intérêt de
multiplier le nombre de traités. La séparation est généralement faite pour placer plus efficacement les
couvertures sur le marché. En effet, chaque profil de traité, travaillant ou peu travaillant, intéressera
des acteurs spécifiques et différents du marché de la réassurance.

Prenons l’exemple d’un programme constitué de 4 tranches pour réassurer notre portefeuille
pris en exemple. Le programme permet de couvrir les sinistres les plus catastrophiques puisque
l’empilement des tranches permet de se réassurer à hauteur de l’exposition du risque le plus élevé
de notre portefeuille.
Remarquons la structure de dépendance entre les récupérations de chaque tranche. Si un si-
nistre touche une tranche j, alors il touche également, et complètement, toutes tranches strictement
inférieures.

Nous allons maintenant aborder la notion de placement d’une couverture d’assurance pour connaître
le lien entre le contrat et les réassureurs.
Généralement, un contrat de réassurance n’est pas signé entre une cédante et un seul réassureur
mais entre une cédante et un ensemble de réassureurs. Chacun de ces réassureurs signe le contrat à
une part définie.
Un des réassureurs est en général leader de cet ensemble et partage avec la cédante la gestion
des sinistres.

16
Figure 1.13 – Un programme de réassurance pris en exemple pour réassurer notre portefeuille

Dans cette sous section, nous avons introduit les différents types de contrats de réassurance
et les échanges financiers relatifs à leur couvertures. Nous pouvons déjà à ce stade présenter une
méthodologie de détermination de l’exposition au risque de crédit envers les réassureurs. Nous allons
en présenter les étapes.
Pour chacune des couvertures de réassurance, la détermination des échanges financiers entre la
cédante et les réassureurs nous permet d’obtenir l’exposition au risque de crédit.
Ensuite, nous pouvons répartir aux parts des réassureurs parties prenantes du contrat cette
exposition pour obtenir les expositions au risque de crédit de chacun de ces réassureurs.

Figure 1.14 – Une méthodologie de détermination des expositions au risque de crédit sur les
différents réassureurs d’une couverture

17
Notons que cette méthode présente déjà une limite. En effet, cette méthode ne considère pas la
temporalité des échanges financiers entre cédante et réassureurs pendant l’année de couverture. Or,
nous avons précédemment donné un exemple des conséquences que cette temporalité peut causer.

1.3 AXA Global Re et sa gestion du risque de crédit des ré-


assureurs
1.3.1 L’exposition d’AXA Global Re au risque de crédit des réassureurs
AXA Global Re (AGRe) est par construction particulièrement exposé au risque de crédit
envers les réassureurs. AGRe regroupe en effet la plupart des activités de réassurance obligatoire
des différentes entités d’AXA à travers le monde en se plaçant entre les entités et les réassureurs :
les entités d’AXA se réassurent auprès d’AGRe, qui va à son tour se réassurer sur le marché de la
réassurance.
Lorsqu’un sinistre associé à un risque réassuré touche une entité du groupe AXA, AGRe est
engagé contractuellement à verser la récupération du traité à cette entité. AGRe se charge alors de
récupérer ce même montant de la part de ses réassureurs pour ensuite être en mesure de réaliser
son engagement.
Ce rôle d’intermédiaire rend AGRe dépendant des réassureurs et de la réalisation des contrats.

AGRe a deux responsabilités dans la gestion du risque de crédit envers les réassureurs au sein du
groupe AXA, relevant de l’évaluation quantitative du risque et de son suivi :
— la modélisation de l’exposition au risque de crédit pour les contrats de réassurance en vigueur,
première étape à la quantification du risque. Cette modélisation s’inscrit dans le modèle
interne d’AXA et répond donc aux exigences définies par le pilier 1 de Solvabilité 2,
— le gestion du risque de crédit envers les réassureurs au niveau consolidé du groupe AXA.
Cette responsabilité est un des piliers du système de l’ERM du groupe AXA et s’inscrit dans
la dynamique imposée par le pilier 2 de Solvabilité 2.

Nous allons tout d’abord introduire le modèle interne du risque de crédit envers les réassureurs
du groupe AXA.

1.3.2 Le modèle interne du groupe AXA


Le groupe AXA a développé un modèle interne de calcul des besoins en capital pour que la
mesure de solvabilité corresponde le plus finement possible aux risques pris. Ce modèle interne a été
validé auprès du régulateur français : l’ACPR (Autorité de Contrôle Prudentiel et de Résolution)
et déployé au sein de la plupart des entités d’AXA dans le monde. La plupart des entités du groupe
AXA mesurent donc leurs risques grâce à ce modèle interne.
La mesure quantitative du modèle interne d’AXA est le STEC (Short Term Economic Capital).
Le STEC représente le niveau des fonds propres nécessaires à l’absorption d’un choc bicentenaire.
Il est au modèle interne d’AXA ce que le SCR est à la formule standard.
Le modèle interne repose sur une cartographie des risques. Le calcul du STEC est ainsi décomposé
en module. Chaque module correspond à un risque de la cartographie. Les STEC de chaque module
sont ensuite agrégés pour obtenir le STEC total.

Le risque de crédit envers les réassureurs est un sous-module du module du risque de crédit.
Le calcul du STEC lié au risque de crédit envers les réassureurs s’effectue en quatre étapes pour
chacune des entités d’AXA :

18
— le modèle mesure d’abord l’exposition au risque de crédit liés aux couvertures de réassurance
de l’entité,
— ces expositions sont ensuite réparties par réassureur en fonction des parts des contrats de
réassurance,
— le modèle projette ensuite ces expositions dans le temps pour prendre en compte leur déve-
loppement,
— le modèle réalise en parallèle une projection à horizon un an de la notation financière des
réassureurs et en déduit les probabilités de défauts sur 30 ans. Il associe alors les événements
de défaut avec les expositions correspondantes.

AGRe est partie prenante de la réalisation des deux premières étapes. Nous allons détailler la
première étape de mesure de l’exposition au risque de crédit. Cette modélisation diffère selon deux
types de couvertures. Nous distinguons en effet les contrats de réassurance :
— en vigueur , nous les notons UW pour "underwriting". Ces contrats sont définis comme
tels : la date de début de couverture doit être passée et la date de fin de couverture doit être
à venir.
— en écoulement, nous les notons RO pour "run-off". La date de fin de couverture de ces
contrats doit être passée.
Pour les contrats en écoulement, l’exposition au risque de crédit est estimée à partir des provisions
techniques correspondantes à ces contrats. Ces montants sont déterministes.
Pour les contrats en vigueur, l’exposition au risque de crédit est modélisée stochastiquement. En
effet, les récupérations liées aux contrats en vigueur présentent une incertitude tant au niveau de
la survenance des sinistres qu’au niveau de la sévérité des sinistres. La modélisation des expositions
liées aux contrats en vigueur doit donc prendre en compte la volatilité des risques sous-jacents. Or,
seule une partie des contrats disposent d’une modélisation des risques sous-jacents. Il a donc été
nécessaire de créer une méthode de simulation qui se passe d’une modélisation des risques sous-
jacents et qui soit applicable sur la totalité des contrats de réassurance en vigueur. Nous allons
détailler les deux méthodes de simulation :
— la modélisation pool est utilisée si le contrat de réassurance est cédé à des pools d’AXA
ou cédé par un des pools d’AXA. L’équipe de tarification et réassurance d’AGRe est chargée
de la modélisation. Elle dispose en effet de générateurs spécifiques à chaque risque sous-
jacent. En associant ces générateurs avec les clauses contractuelles des traités, il est possible
d’obtenir des réalisations de récupération pour chaque traité.
— la modélisation simplifiée est utilisée dans le cas contraire lorsqu’aucune modélisation du
risque sous-jacent n’est disponible. L’équipe de gestion des risques d’AGRe est responsable
de sa mise en oeuvre.

La mise en place du modèle simplifié constitue la responsabilité d’AGRe dans le module risque de
crédit envers les réassureurs du groupe AXA. L’étude du modèle simplifié fait l’objet de ce mémoire.
Nous travaillerons sur cette modélisation dans les chapitres 2 et 3.
L’équipe de gestion des risques d’AGRe est également responsable du suivi du risque de crédit
envers les réassureurs au niveau consolidé du groupe AXA. Introduisons cette responsabilité.

1.3.3 La gestion du risque de crédit envers les réassureurs


AGRe héberge le comité de sécurité du groupe AXA, responsable du suivi du risque de crédit
envers les réassureurs, consolidé au niveau du groupe AXA. En particulier, ce comité a pour mission :
— de veiller à la qualité de données collectées,
— de garantir le respect des règles de souscription,

19
Figure 1.15 – Structure du modèle d’estimation du risque de contrepartie

— de vérifier le respect des expositions au risque par rapport aux limites d’appétit au risque du
groupe AXA.
Le périmètre d’action de ce comité est global : l’ensemble des cessions vie et non-vie, obligatoires
et facultatives des entités du groupe AXA est concerné. Détaillons l’ensemble des processus et des
gouvernances qui lui permettent de répondre à sa responsabilité.

Le comité veille premièrement à ce que l’ensemble des cessions de réassurance ne soient réalisées
qu’avec des réassureurs listés dans la liste de sécurité du groupe AXA. Les réassureurs figurant sur
la liste font l’objet d’un certain nombre de contrôle régulier.
Les notations de ces réassureurs sont en effet mises à jour régulièrement. De plus, certaines
informations relatives à leurs bilan comptable sont également renseignées dans la liste. Le montant
des fonds propres, dont nous avons discuté de l’importance autour de la figure 1.3, en fait notamment
partie.
Les cessions aux réassureurs non présents dans la liste de sécurité ne sont possibles qu’avec
l’autorisation du comité de sécurité qui peut alors permettre une dérogation.
Par exemple, dans certains pays, la législation oblige les assureurs à céder une partie de leurs
risques à un réassureur. Dans ce cas, si ce réassureur ne figure pas sur la liste de sécurité, le comité
accepte une dérogation.

De plus, le comité de sécurité est garant de la qualité des données relatives à l’ensemble des
cession du groupes AXA. La plateforme ACTOR permet de regrouper cet ensemble de données.
Cet ensemble de données représente une grande quantité d’informations.
En effet, chaque année, environ 800 contrats de réassurance obligatoire et 50 000 contrats de
réassurance facultative y sont renseignés.
Le comité de sécurité a un regard critique vis-à-vis de cette base de données : il supervise la
collecte des données et contrôle la qualité des données.

20
Le comité de sécurité veille enfin à ce que les expositions au risque de crédit envers les réassureurs
du groupe AXA soient en ligne avec les limites d’appétit au risque fixées par le groupe.
Cette surveillance ne peut se faire qu’après une estimation des expositions au risque. Cette
problématique rejoint la problématique de l’estimation des récupérations que nous avons évoquée
précédemment.
Rappelons que pour les contrats en écoulement, nous disposons des résultats des calculs de
provisionnement donnant une estimation des récupérations. La problématique va donc être tournée
autour des contrats en vigueur.
Dans le cadre du comité de sécurité, le modèle simplifié est utilisé pour tous les contrats en
vigueur.
Le premier objectif du mémoire sera d’étudier la base comptable des transactions entre AGRe
et ses réassureurs pour proposer une évolution statistiquement justifiée à la génération des récupé-
rations. Le chapitre 2 mettra en avant la démarche adoptée.
Le deuxième objectif sera d’apporter des éléments de suivi des réassureurs pour valoriser au
mieux les récupérables générés et aider le comité de sécurité dans ses prises de décisions. Le Chapitre
3 montrera l’impact de l’évolution du modèle et explicitera les éléments permettant de valoriser cette
information.

L’objectif de ce mémoire est de proposer des éléments permettant de perfectionner les prises
de décisions d’AGRe par rapport à ses responsabilités concernant le risque de crédit envers les
réassureurs.

Nous avons montré que les récupérations des contrats de réassurance constituent une part im-
portante de la modélisation des expositions envers les réassureurs. Notre travail a pour objectif de
proposer des améliorations au modèle simplifié pour affiner la vision d’AGRe sur l’exposition au
risque de crédit envers les réassureurs.
Le modèle simplifié distingue la modélisation des récupérations des contrats de réassurance
proportionelle de celles des contrats de réassurance non proportionnelle. Cette distinction est liée
aux différences de fonctionnement que nous avons soulevées dans la section 1.2. Nous avons donc
travaillé distinctement sur les deux méthodes.
Dans un premier temps, nous avons étudié la base comptable des échanges entre AGRe et ses
réassureurs au titre des couvertures proportionnelles. Nous avons utilisé cet historique pour calibrer
le modèle simplifié.
Dans un second temps, nous avons justifié et critiqué la méthode de génération des récupérations
du modèle simplifié pour les contrats non proportionnels pour en proposer une amélioration.

Nous réalisons enfin en ouverture un travail sur la quantification du risque de défaut des réassu-
reurs. Nous montrons les limites de cette quantification.

21
Chapitre 2

Modélisation des récupérations pour les


traités proportionnels

Sommaire
2.1 Données de l’étude . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.1.2 Base de données contractuelle . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.1.3 Données comptables historiques . . . . . . . . . . . . . . . . . . . . . . . . 24
2.1.4 Réconciliation des bases de données . . . . . . . . . . . . . . . . . . . . . 26
2.1.5 Périmètre de l’étude . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.1.6 Statistiques descriptives . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2 Segmentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.2.1 Description de la méthodologie : un arbre dérivé de la méthode CART . . 32
2.2.2 Implémentation et résultats . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.2.3 Discussions et choix de la segmentation retenue . . . . . . . . . . . . . . . 34
2.3 Etude de chaque segment . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.3.2 Description de la démarche suivie . . . . . . . . . . . . . . . . . . . . . . . 36
2.3.3 Application aux données de chaque segment . . . . . . . . . . . . . . . . . 38
2.3.4 Résultats finaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50

L’objectif de ce chapitre est de proposer une méthode de modélisation des récupérations à charge
des contrats de réassurance en quote-part et en excédent de plein. Notre travail est motivé par la vo-
lonté de valoriser l’historique de sinistralité des traités cédés par AGRe au marché de la réassurance
pour raffiner la modélisation actuelle des récupérations.

Présentons d’abord la méthodologie utilisée avant de préciser l’objet de notre travail. Le modèle
repose sur une méthodologie en deux temps :
— la modélisation de ratios de pertes pour chaque traité.
Ces ratios de pertes sont générés de la même manière pour tous les traités de réassurance
proportionnelle. Plus précisément, ils sont des réalisations d’une loi Log-normale de moyenne
égale à 1 et de quantile 99,5% égal à 2.
— la déduction des récupérations associées.
Ces récupérations sont obtenues en multipliant chaque réalisation des ratios par l’assiette de
prime du contrat de réassurance modélisé.

22
Nous pensons que l’étape de modélisation des ratios de pertes peut être raffinée. En effet, d’une
part nous pensons que le profil de sinistralité des traités n’est pas uniforme sur l’ensemble des traités
proportionnels d’AGRe. D’autre part, nous souhaitons critiquer le choix de la loi Log-normale et de
sa calibration actuellement utilisée dans le modèle.

Notre travail a pour objet de valoriser les données d’AGRe pour raffiner et augmenter la gra-
nularité de la modélisation. Les données utilisées pour cette étude sont les résultats comptables
historique des traités de réassurance proportionnels d’AGRe.
Dans un premier temps, nous présenterons les données utilisées pour notre étude. Nous pro-
poserons ensuite une segmentation de l’ensemble des traités de réassurance d’AGRe. Enfin, nous
étudierons chaque catégorie en détails pour proposer des distributions justifiées de ratios de pertes
sur chacune des catégories.

2.1 Données de l’étude


2.1.1 Introduction
Nous avons souhaité justifier la méthode de modélisation des récupérations des contrats de ré-
assurance par les informations contenues dans les données historiques. Nous avons pour ce faire
obtenu la base de données comptable des échanges entre AGRe et ses réassureurs.
Toutefois, l’enjeu qui nous motive n’est pas simplement de comprendre l’information contenue
dans les données d’expérience d’AGRe. En effet, l’objectif final est de proposer une évolution à
la méthode actuelle. Il est donc nécessaire que les informations extraites de l’historique puissent
être appliqués aux nouveaux traités souscrits. Cette étape n’est pas immédiate étant donné que la
base de données historiques ne présente pas exactement les mêmes champs que la base de données
contractuelle des traités.
Nous allons d’abord présenter les deux bases de données utilisées. Nous préciserons ensuite
le périmètre de notre étude. Puis, nous réaliserons un premier traitement avant d’enfin décrire
statistiquement la base de donnée historique.

2.1.2 Base de données contractuelle


Les données contractuelles utilisées pour la modélisation des récupérations proviennent de la
plateforme ACTOR. Cette plateforme a été crée à l’initiative du groupe AXA en 2004. Les entités
du groupe AXA y renseignent l’ensemble de leurs cessions de réassurance du groupe, que la cession
soit facultative ou obligatoire et qu’elle couvre des risques vie ou non-vie. Cet outil a pour objectif
de faciliter le placement des contrats de réassurance et de recenser les cessions du groupe. L’équipe
de gestion des risques et le comité de sécurité du groupe AXA utilisent cette plateforme à une fin
de suivi et de contrôle.
Nous travaillons sur la base de donnée sous-jacente à cette plateforme. Cette base de données
peut se décomposer en deux parties :
— une partie regroupant les informations relatives à la couverture du risque par cession.
— une partie spécifiant les pourcentages de cessions aux réassureurs par cession.

La première partie est celle sur laquelle nous pouvons nous appuyer pour prévoir et modéliser les
récupérations des contrats de réassurance nouvellement souscrits. La deuxième partie nous permet
dans un second temps de répartir les récupérations à une maille plus fine à savoir par contrat de
réassurance et par réassureur. Dans ce chapitre, nous allons donc nous intéresser à la première
partie. Explicitons l’ensemble des champs d’informations disponibles sur cette base. Ces derniers
diffèrent suivant le type de réassurance considéré :

23
— pour la réassurance en quote-part, les informations disponibles dans la base de données
ACTOR sont :
— la branche assurée
— la prime totale du portefeuille
— la somme assurée totale en non-vie
— le capital à risque total en vie
— le taux de cession
— la commission fixe ou variable
— la participation aux bénéfices
— pour la réassurance en excédent de plein, les informations disponibles dans la base de données
ACTOR sont :
— la ligne de business assurée
— la prime totale du portefeuille
— la somme assurée totale en non-vie
— le capital à risque total en vie
— le plein de rétention
— la capacité
— le taux de cession moyen
— la commission fixe ou variable
— la participation aux bénéfices

Remarquons que les données dont dispose AGRe sont agrégées par rapport à celles dont disposent
les entités d’AXA. En effet les entités d’AXA ont la connaissance, pour chaque risque de leur
portefeuille, des sommes assurées ou des capitaux à risques et des taux de cession. AGRe a cette
information par portefeuille. Cela renvoie à la problématique de perte et d’agrégation des données
au fur et à mesure des cessions et des rétro-cessions.
Intéressons nous à la profondeur d’historique de cette base de donnée. Nous avons observé le
nombre de traités renseignés sur la base depuis 2004 pour conclure que la base a été correctement
renseignée à partir de l’année 2006.

2.1.3 Données comptables historiques


La base de données comptable utilisée regroupe les transactions financières entre AGRe et ses
réassureurs pour les traités transitant par AGRe. Les cessions non concernées sont donc :
— les facultatives. En effet, comme vu précédemment, AGRe n’est contractuellement pas partie
prenante dans les contrats de réassurance facultative. AGRe n’émet donc pas de prime au titre
des facultatives et ne reçoit pas non plus de récupérations. AGRe est toutefois responsable
de la production des récupérations. En l’absence de données historiques, notre étude n’a pas
pu porter sur les facultatives.
— les traités placés directement entre une entité d’AXA et le marché de la réassurance. Ces
traités sont bien connus : ils sont placés par le courtier AXA Cessions Broker, filiale d’AGRe.
Environ 3 traités par an sont souscrits de cette manière. Relativement à l’ensemble du por-
tefeuille de traités d’AGRe, les primes et les sommes assurés en jeux ne sont pas matérielles.
Notre étude porte donc sur la presque totalité des contrats de réassurance obligatoire du groupe
AXA.

La base de données comptable à notre disposition est celle qui a été arrêtée le 31 décembre 2017.
La totalité des montants renseignés dans cette base est en euros. Le traité le plus ancien renseigné
dans la base date de 1984.

24
Figure 2.1 – Les soldes des contrats disponibles dans la base comptable

Nous sélectionnons tout d’abord les traités proportionnels : nous obtenons une base avec 15 199
soldes.
Chaque ligne de la base comptable identifie le solde d’un réassureur au titre d’un traité. En effet,
un traité peut être cédé à un ou plusieurs réassureurs à une ou des parts fixées à l’avance. Autrement
dit, la granularité de notre base de donnée correspond à la granularité du couple réassureur - traité.
La précision qui nous est requise est moindre. En effet, nous souhaitons étudier les traités un à
un. Nous avons donc agrégé la base en sommant, pour chaque traité, les soldes des comptes des
réassureurs acceptant son risque.
Cette agrégation fait passer le nombre de soldes de 15 199 à 2 369. Cette statistique pourra nous
intéresser dans la gestion du risque de crédit. En effet, elle montre qu’en moyenne, sur l’expérience
d’AGRe, un traité est cédé à plus de 6 réassureurs. Or, la diversification des cessions est un des
outils de la gestion du risque de crédit sur les réassureurs.

Maintenant que nous avons adapté la granularité de notre base à nos objectifs, intéressons-nous
aux champs disponibles dans cette base. Les différents type de soldes renseignés sont :
— la prime versée,
— les sinistres payés par le réassureur à AGRe,
— la provision dossier dossier établie par les gestionnaires sinistres d’AGRe et des cédantes
AXA,
— le montant d’IBNR Best Estimate calculé par les actuaires chargés du provisionnement à
AGRe,
— la somme des commissions et des participations aux bénéfices versées au réassureur par
AGRe,

De plus, les informations caractérisant chaque ligne sont :


— le numéro d’identification du traité.
— la cédante : AGRe, AGPC, AGL ou Saint Georges Re. En effet AGRe est le fruit de la fusion

25
entre AXA Global P&C et d’AXA Global Life. De plus le portefeuille de Saint Georges Re,
racheté par AXA France est géré par AGRe.
— l’entité juridique qui est l’assureur initial du portefeuille cédé via le traité. Ce champs nous
permet notamment d’avoir une information géographique sur les risques cédés.
— la ligne de business du risque assuré.

2.1.4 Réconciliation des bases de données


Rappelons que notre objectif est d’utiliser les données historiques de manière à ce que l’information
résultante de notre étude soit utilisable pour modéliser les récupérations des contrats de réassurance
nouvellement souscrits. Les informations disponibles à la fois dans la base comptable et à la fois
dans la base contractuelle ACTOR sont les suivantes :
— l’exercice de souscription,
— le type de contrat : quote-part ou excédent de plein,
— la branche du risque assuré. Un travail de réconciliation a toutefois été nécessaire pour
homogénéiser la granularité,
— le pays du risque assuré. Cette information est obtenue par une correspondance entre entités
juridiques et pays,
— la prime,
— la commission,
A partir de maintenant, nous travaillerons uniquement avec ces champs. Ainsi, toute nos conclu-
sions pourront être utiles à l’évolution de la modélisation des récupérations.

2.1.5 Périmètre de l’étude


Nous avons tout d’abord retiré les lignes concernant des cessions de Saint Georges Re. En effet,
nous avons remarqué que la qualité de données lié aux traités de Saint Georges Re n’était pas
satisfaisante. Nous avons par exemple observé une proportion anormale de primes et de sinistres
négatifs. Cette suppression fait passer le nombre de lignes de 2 369 à 2 236.

Nous avons également effacé les lignes concernant les cessions des pools. Ces traités s’appellent
les couvertures groupes. Ils permettent de réassurer une partie des traités préalablement regroupé
en pool. La sinistralité de ces traité est donc dépendante de la sinistralité des traités initialement
cédés aux pools.
Or, ces traités ont pu être cédé à la fois au pool et à des réassureurs, à des parts bien choisies.
Ainsi, sans éliminer les couvertures groupes, des similarités implicites crées artificiellement pour-
raient être présentes dans la base de donnée. Cette suppression fait passer le nombre de lignes de 2
236 à 2 134.

Nous avons de plus supprimé les lignes des traités concernant des exercices de souscription situés
entre 1984 et 1987 inclus. En effet, le nombre de traités sur ces années est inférieur à 10. Nous avons
de plus par exemple remarqué qu’un nombre significatif de ratios de pertes très proches de zéro
étaient renseignés. Cette suppression fait passer le nombre de lignes de 2 134 à 2 108.

Nous avons enfin supprimé les lignes des traités indiquant soit des primes négatives soit des
montants de sinistres ultimes négatifs. Cette suppression fait passer le nombre de lignes de 2 108 à
1 986.

26
2.1.6 Statistiques descriptives
Nous avons tout d’abord étudié l’évolution de notre portefeuille au fil des années pour vérifier
son homogénéité. Nous nous sommes intéressés à l’évolution du nombre de traités, des primes, de la
sinistralité à l’ultime et des ratios de pertes ultimes. Les volumes respectifs de primes, de sinistralité
et de nombre de traités sont exprimés en indices en fonction des volumes respectifs de l’année 2016.
Le graphique 2.2 montre l’évolution du nombre de traités, du volume total des primes et de la
prime moyenne par traité. Nous pouvons identifier une croissance importante du nombre de traité
et du volume de primes entre 1988 et 2017 et notamment un pic de croissance en 2000. Nous
n’identifions en revanche pas de tendance sur l’évolution de la prime moyenne par traité qui semble
fluctuer, de manière plutôt volatile, autour d’une constante.
Nous pouvons déduire du graphique 2.2 qu’en 2000, le nombre de traités d’AXA était légèrement
supérieur à ce qu’il était en 2016. En revanche, la prime moyenne était environ moitié moindre qu’en
2016. Enfin, le volume total de prime était également environ moitié moindre qu’il ne l’était en 2016.

Figure 2.2 – Évolutions du nombre de traités, des volumes de primes moyennes et totales entre
1988 et 2017, indicés par l’année 2016

La figure 2.3 montre l’évolution des totaux, des moyennes et des écart-types par année de la
sinistralité à l’ultime. Nous pouvons identifier une tendance à la hausse de la sinistralité entre 1988
et 2017. Des pics de sinistralités sont observés en 2003 et en 2016. La moyenne et l’écart-type de la
sinistralité ne semblent pas comporter de tendances. Ils fluctuent toutefois de manière importante.
Ce type d’évolution est certainement due à la nature des risques cédées à la réassurance qui sont
volatiles.
Nous pouvons lire sur le graphique 2.3 qu’au cours de l’année 2000, la sinistralité totale, la
sinistralité moyenne et l’écart-type de la sinistralité étaient environ trois fois plus faible qu’ils ne
l’ont été en 2016.

27
Figure 2.3 – Évolutions des caractéristiques de la sinistralité entre 1988 et 2017, indicés par l’année
2016

Contrairement aux graphiques précédents, les valeurs du graphique 2.4 ne sont pas indicées par
rapport à 2016 et présentent donc les ratios de pertes absolus. Le graphique montre l’évolution des
ratios de perte à l’ultime moyens et totaux sur la période considérée. Leurs évolutions respectives
ne semblent pas traduire de tendances. Notons que la volatilité des ratios de perte ultime moyens
est très souvent supérieure à la volatilité des ratios de perte ultime totaux.
Le graphique montre par exemple qu’en 2016, le ratio de perte ultime moyen est d’environ 80%
et que le ratio de perte total est d’environ 85%.

Figure 2.4 – Évolutions des ratios de perte entre 1988 et 2017

Le graphique 2.2 nous indique que notre portefeuille a évolué en terme de volume de manière
matérielle entre 1988 à 2017. Toutefois, pour l’étude que nous souhaitons réaliser, il nous paraît

28
cohérent d’étudier la période dans son ensemble. En effet, nous n’identifions pas de tendance dans
l’évolution des primes moyennes, de la sinistralité moyenne et des ratios de perte. Or, nous souhaitons
justement étudier les ratios de perte à l’ultime. Nous poursuivons donc notre étude sur la période
allant de 1988 à 2017.

Commençons la démarche de segmentation des traités de notre historique. Nous allons constituer
des groupes de traités présentant les ratios de pertes homogènes. Les variables nous permettant de
caractériser chaque traité sont les suivantes :
— l’année de souscription,
— la prime,
— le type de contrat : quote-part ou excédent de plein,
— la ligne de business du risque assuré,
— le pays de la cédante assurant le portefeuille,
— la commission,
Nous n’avons précédemment pas identifié de tendance d’évolution des ratios de pertes sur la
période 1988 à 2017. Nous n’allons donc pas utiliser la variable de l’année de souscription pour la
segmentation. Nous n’allons pas non plus considérer la variable prime. En effet, le volume de prime
joue seulement le rôle d’un facteur dans la logique sous-jacente au principe de la génération de
ratios de pertes pour en déduire la sinistralité. Le nombre de variables permettant la segmentation
s’élève donc à 4 : le type de contrat, la ligne de business, le pays et la commission. Ces variables
nous semblent a priori pertinentes pour segmenter les traités et obtenir des groupes homogènes. En
effet, les conditions du marché varient en fonction de la zone géographique et de la nature du risque
associé. De plus, le type de contrat a une influence sur la sélection des risques réassurés parmi les
risques présents dans le portefeuille initiale de la cédante. Enfin, la commission est la principale
source de négociation pour les traités proportionnels et traduit certainement un à priori sur les
ratios de pertes attendus.

Parmi les 4 variables que nous allons utiliser pour la segmentation, trois variables sont qualitatives
et une est quantitative. Pour notre première analyse descriptive, nous avons transformé la variable
commission en une variable qualitative à 6 modalités. Ce choix s’est fait de manière arbitraire mais
n’est que provisoire. Nous avons également regroupé les pays en région pour réduire de 41 à 10
le nombre de modalité. Ce regroupement s’est fait par zone géographique en prenant en compte
les zones de marché de la réassurance. Par exemple, nous avons regroupé les pays membres de la
Conférence Interafricaine des Marchés d’Assurances (CIMA) sous le nom d’Afrique subsaharienne.
Le tableau 2.5 détaille les modalités des variables obtenues après ces transformations :

Avant de réaliser une segmentation pour constituer des groupes de traités présentant des ratios
de pertes ultimes homogènes, nous avons analysé la constitution des ratios de pertes ultimes. En
effet, le ratio de perte à l’ultime est obtenu par construction en sommant les composantes "Payés",
"Dossier Dossier" et "IBNR" correspondant respectivement au ratio du montant déjà indemnisé,
au ratio du montant d’indemnisation additionnel prévu par des gestionnaires sinistres et au ratio
du montant encore additionnel d’indemnisation estimé par l’équipe de provisionnement d’AGRe.
Les deux composantes les plus certaines du ratio de perte à l’ultime sont la "Payés" et la "Dossier
Dossier". La composante "IBNR" présente un aléa plus important.
Pour chaque variable et pour chaque modalité, nous étudions d’abord la part des traités dont
la somme des soldes "Payés" et "Dossier Dossier" est positive. Nous notons ces traités les PDD
sinistrés. Puis nous étudions la part des traités dont le ratio de perte ultime est positif. Nous notons
ces traités les BE sinistrés. Le tableau 2.6 résume les résultats obtenus.

29
Figure 2.5 – Modalités des variables utilisées pour la segmentation

Figure 2.6 – Composition des ratios de perte à l’ultime par modalité pour chacune des variable

Intéressons nous à la part des traités PDD sinistrés. Nous observons que cette part atteint son
minimum à 52% pour la modalité "Vie individuelle / collective" de la variable Ligne de business.
De plus, cette part est également faible d’une part dans les régions Europe du nord et Europe du
sud, avec respectivement 65% et 60%, et d’autre part parmi les traités dont la commission est nulle
avec 65%. Les "IBNR" ne corrigent que partiellement cette tendance puisque les parts des traités
BE sinistrés restent relativement faibles pour ces modalités.
Une analyse nous a permis de conclure que les traités peu sinistrés (PDD ou BE) sont caractérisés
par la modalité "Vie individuelle / collective". L’apparition de parts faibles dans deux régions
d’Europe et pour les traités dont la commission est nulle n’est qu’une conséquence indirecte. En
effet, parmi les traités caractérisés par ces modalités, une part matérielle concerne les risques vie.
Nous choisissons donc dès à présent d’étudier à part les traités de la branche vie. Ce segment
regroupe 414 traités.
Nous vérifions enfin que parmi les traités restants, c’est à dire les traités non-vie, aucune modalité
ne mette en avant une anomalie concernant la part des traités PDD sinistrés. Le tableau 2.7 appuie

30
ce propos.

Étudions maintenant la positivité des ratios de perte à l’ultime pour les traités non-vie. Seuls
41 présentent un ratio de perte égal à 0. Parmi ces traités, 21 sont des quote-part et 20 sont des
excédents de pleins. Nous choisissons de supprimer ces traités. En effet nous pensons qu’il s’agit
vraisemblablement d’erreurs de saisie pour la grande majorité. De plus, la conservation d’un nombre
faible de traité de ce type n’aurait pas d’influence sur notre segmentation et nous empêcherait de
modéliser les ratios de perte par une loi Log-normale (le support d’une loi Log-normale est en effet
R∗+ ). Or, cette loi est celle qui est actuellement utilisée. Cette suppression fait passer le nombre de
traités non-vie de 1 572 à 1 531.

Nous étudions maintenant l’influence des modalités de chaque variable dans la structure des
ratios de pertes. Plus précisément, nous avons étudié la moyenne et l’écart-type des ratios de perte
à l’ultime (BE). Le tableau 2.7 nous confirme tout d’abord que les quatre variables choisies et leurs
modalités permettent de différencier des groupes de traités dont les ratios de perte sont différents.
Nous pouvons par exemple lire que les traités dont la commission est comprise entre 0% (exclus) et
10% ont un ratio de perte moyen de 1,44 et un écart-type de 4,35. A l’inverse, nous pouvons prendre
l’exemple des traités couvrant la région de l’Amérique centrale et dont le ratio de perte moyen est
de 0,51 et l’écart-type de 0,35.

Figure 2.7 – Statistiques sur les ratios de perte à l’ultime en fonction des modalités des variables

La limite principale des statistiques descriptives est qu’il n’est pas possible de tirer des conclu-
sions mettant en jeux plusieurs variables en même temps. En effet, l’information contenue dans
chacun des tableaux est uniquement unidimensionnelle et ne nous permet pas d’étudier plusieurs
axes en même temps. Nous avons donc choisi de segmenter nos données à l’aide d’outils statistiques
plus adaptés à une analyse multidimensionnelle.

2.2 Segmentation
La première analyse statistique de la section 2.1.6 nous a conforté dans le choix de nos variables
discriminantes à savoir la région géographique, le type du traité, la ligne de business des risques

31
couverts et la commission du traité. Nous considérons à nouveau la variable commission comme
une variable quantitative. En effet, la segmentation faite en section 2.1.6 était arbitraire et sur-
tout, la transformation d’une variable quantitative en une variable qualitative nous fait perdre de
l’information. En effet, nous regroupons alors plusieurs valeurs distinctes au sein d’une même classe.
Nous souhaitons donc segmenter selon 4 variables de type quantitatif et qualitatif. Nous al-
lons pour ce faire utiliser un outil statistique permettant de segmenter suivant plusieurs variables
indépendemment de leurs types : un arbre de décision.

2.2.1 Description de la méthodologie : un arbre dérivé de la méthode


CART
Les arbres de décision appartiennent à la famille des méthodes statistiques dites d’apprentissage
supervisé. Ils visent à prédire les valeurs prises par une variable à expliquer en fonction d’un jeu de
variables explicatives. Cette prédiction se fait à travers la construction d’un arbre.
Lorsque la variable à expliquer est catégorielle, la problématique est dite de classification alors
que lorsque la variable est quantitative, la problématique est dite de régression. Les variables expli-
catives peuvent être catégorielles ou quantitatives.

Dans notre exemple, la variable à expliquer est le ratio de perte à l’ultime d’un traité et les
variables explicatives sont la Région, le Type, la LoB, la Commission. La variable à expliquer est
quantitative. Nous sommes donc dans un problème de régression. Nous allons résoudre ce problème
en construisant un arbre de régression inspiré de la méthodologie CART. Cet arbre est implémenté
en langage R dans le package rpart. Définissons le cadre mathématique nécessaire à la présentation
de la construction de cet arbre.

Soit Y une variable aléatoire dite à expliquer prenant ses valeurs dans R. Soit X un vecteur
de variables dites explicatives de taille p pouvant être décomposées en variables quantitatives et
catégorielles X = (Xq , Xc ). L’objectif de l’arbre est d’approcher E[Y | X = x] pour tout x. Pour ce
faire, la construction de l’arbre se fait en partitionnant de manière binaire le support des variables
explicatives. Les parties formant la partition du support des variables explicatives sont appelé les
nœuds. La construction de la partition du support se fait par étape. Explicitons le processus de
partitionnement à une étape n. Considérant un des nœuds de cette partition et notons le A :

Le nœud A est découpé en deux sous parties. Chaque découpe est définie par un couple (j, d) où
j ∈ J1; pK est l’identifiant de la variable explicative Xj qui définit l’axe de découpe et d qui définit
le niveau de la découpe. Dans le cas où la variable explicative j est quantitative, nous avons d ∈ R
et la coupe définit deux sous ensembles qui forment un partition de A : le nœud de gauche, noté
Ag et définit par {X : Xj ≤ d}, et le nœud de droite, noté Ad définit par {X : Xj > d}. Dans le cas
où la variable explicative j est catégorielle, nous avons d qui est un vecteur d’une ou de plusieurs
modalités de la variable Xj et la coupe définie
 deux sous ensembles parmi nos observations : Ag
donné par {X : Xj ∈ d} et Ad donné par X : Xj ∈ d .

Deux éléments vont préciser la définition de l’arbre : le critère de choix du couple (j, d) à chaque
coupe et le critère d’arrêt de l’arbre. Le choix de la coupe se fait pour maximiser la réduction de la
variance après la coupe. Définissons cette quantité. Notons respectivement S, Sg et Sd l’ensemble de
nos observations incluses dans respectivement A, Ag et Ad . Notons |E| le cardinal de E pour tout
ensemble E et V (B) la variance d’un échantillon B. La réduction de variance est définit comme :

IV = V (S) − (V (Sg ) + V (Sd ))

32
En appliquant la formule de la variance, nous obtenons :
 
1 XX 1 2  1
XX1
2 1 XX1
IV = 2
(y i − y j ) − 2
(y i − y j ) + 2
(yi − yj )2 
|S| i∈S j∈S 2 |Sg | i∈S j∈S 2 |Sd | i∈S j∈S 2
g g d d

L’algorithme de construction va donc tester plusieurs coupures et calculer à chaque test la


réduction de la variance qui en résulte. Il ne réalisera que la coupe qui maximise cette perte de
variance. La figure 2.8 illustre un exemple de choix de coupe dans le cas de deux variables explicatives
continues sur [0; 1]. Les graphiques situés à gauche associent à un niveau de coupe sur une variable la
réduction de variance associée. Les graphiques situés à droite montrent pour chacune des variables
la meilleure coupe possible au sens de la réduction de la variance. Nous construisons alors l’arbre en
retenant la coupe qui maximise la réduction de la variance parmi les coupes sur les deux variables.

Figure 2.8 – Maximisation de la réduction de variance et choix de la coupe dans le cas de 2


variables explicatives X = (X1, X2), continues sur [0; 1]

Intéressons nous maintenant au critère d’arrêt. Lorsque la construction de l’arbre s’arrête, les
parties de la dernière partition obtenue sont appelées les feuilles de l’arbre. Le critère d’arrêt est
définissable par l’utilisateur. Ce dernier peut par exemple imposer que chaque feuille contienne un
minimum d’observations.

Une fois la construction de l’arbre terminée, il est possible d’élaguer l’arbre en quantifiant la
réduction de variance des dernières coupes. Notons que par construction, cette réduction de variance
est décroissance. L’utilisateur peut alors identifier un seuil à partir duquel la réduction de variance
lui paraît nuire à l’estimation. En effet, un nombre de coupes trop important peut aboutir à un sur
ajustement. Nous allons appliquer cette construction à nos données.

2.2.2 Implémentation et résultats


Comme indiqué dans la section 2.2.1, nous utilisons le package rpart pour implémenter la construc-
tion de l’arbre. Nous définissons volontairement un critère d’arrêt qui limite peu la construction de

33
l’arbre. Cela se traduit par le choix d’un paramètre de complexité cp petit. Plus cp est grand et plus
le nombre de feuilles de l’arbre sera petit. Inversement plus cp est petit et plus le nombre de feuilles
de l’arbre sera grand. Nous pourrons ainsi élaguer l’arbre en fonction de la significativité mathé-
matique et métier des coupes. Nous obtenons donc dans un premier temps un arbre relativement
profond et visualisons une segmentation fine de nos traités. L’arbre obtenu est représenté dans la
figure 2.11.

Nous avons indiqué le numéro des coupes pour plus de lisibilité. Nous pouvons par exemple lire que
la première coupe s’est faite sur la variable explicative région. Cette coupe a partitionné l’ensemble
de nos traités entre ceux dont la modalité de la variable région était "Asie revenus moyens - sup"
ou "Europe du sud" des autres.

Figure 2.9 – Arbre de régression "profond" explicatif des ratios de perte à l’ultime

Notons que la variable Région intervient pour les coupes 1 et 3. Cette variable nous apporte
donc, relativement aux autres, beaucoup d’informations sur les ratios de perte à l’ultime.

2.2.3 Discussions et choix de la segmentation retenue


Nous avons construit un arbre de décision profond en fixant un coefficient de complexité à un
niveau bas. Dans la figure 2.11, nous avons associé aux coupes 3, 5 et 6 le coefficient de complexité le
plus grand qui permet de les obtenir. Nous allons maintenant élaguer l’arbre en supprimant certains
de ces noeuds.
Un premier indicateur qui peut nous aider au choix des noeuds à supprimer est l’évolution de
l’erreur de prédiction en fonction des coupes. Comme le montre la figure 2.10 l’évolution de l’erreur
de prédiction ne comporte pas de sauts et il est donc difficile d’identifier un coefficient de complexité
optimal. La volatilité intrinsèque des données et des groupes de ratios de perte que l’on veut former

34
empêche l’algorithme de diminuer significativement son erreur de prédiction à chaque coupe. Nous
pouvons toutefois identifier une très légère chute de l’erreur entre la coupe 2 et 4.

Figure 2.10 – Évolution de l’erreur de prédiction en fonction du nombre de coupes de l’arbre

De plus, la coupe 5 qui regroupe à droite les modalités de la branche "Autres lignes de business"
et "Dommage par événement" nous parait difficilement interprétable et justifiable. Ces branches ne
présentent a priori pas de point commun.

Nous retenons donc 4 coupes et élaguons notre arbre au niveau cp = 0.002. Nous obtenons donc
5 nœuds composés des observations dont les modalités vérifient :
— Nœud 1 : la Région du traité est soit l’Amérique centrale, soit l’Amérique du sud, soit l’Asie
revenus moyen -inf, soit l’Europe de l’est, soit le Maghreb et Moyen Orient,
— Nœud 2 : la Région est soit l’Afrique subsaharienne, soit l’Europe centrale, soit l’Europe du
Nord et le traité est un quote-part,
— Nœud 3 : la Région du traité est soit l’Afrique subsaharienne, soit l’Europe centrale, soit
l’Europe du Nord et le traité est un excédent de plein,
— Nœud 4 : la Région du traité est soit l’Asie revenus moyen - sup, l’Europe du Nord et la
commission est supérieure à 22%
— Nœud 5 : la Région du traité est soit l’Asie revenus moyen - sup, soit l’Europe du Nord et la
commission est strictement inférieure à 22%

2.3 Etude de chaque segment


2.3.1 Introduction
La segmentation est maintenant arrêtée. 5 segments sont donc retenus. Nous allons à présent
étudier les ratios de perte à l’ultime sur chacun des segments. Dans un premier temps, étudions
des statistiques descriptives de chacun de nos 5 segments. Le tableau 2.12 résume les effectifs, les
moyennes et les écart-types de chaque nœud.

35
Figure 2.11 – Arbre de régression retenu pour segmenter les traités non-vie

Figure 2.12 – Statistiques descriptives des 5 segments

Nous pouvons déjà observer que notre segmentation nous a permis de constituer des groupes qui
se ressemblent peu. Par exemple, les ratios de pertes des traités du nœud 5 ont une moyenne de
1,40 et un écart-type de 1,91 alors que les ratios de pertes du noeud 1 ont une moyenne de 0,53 et
un écart-type de 0,45.

2.3.2 Description de la démarche suivie


Notre objectif va être de déterminer pour chaque segment une loi préalablement calibrée qui
s’ajuste à nos données. Nous serons ainsi en mesure de générer des ratios de perte ultime en simulant
des réalisations de variables aléatoires suivant cette loi.

Le choix des types de distributions à considérer s’est fait en suivant la démarche suivante :

36
1. Nous avons tout d’abord identifié le support correspondant à nos données :

Le support du ratio de perte ultime, noté BE est continu : BE ∈ ]0, +∞[

2. Nous avons ensuite sélectionné des distributions classiques ayant comme support ]0, +∞[ ou
[0, +∞[ :
— la loi Gamma de paramètres k et θ et de fonction de densité : :
x
xk−1 e− θ
f : x 7−→
Γ(k)θk
— la loi Log-normale de paramètres µ et σ et de fonction de densité :
1 (ln x−µ)2
f : x 7−→ √ e− 2σ 2
xσ 2π
3. Nous avons enfin ajouté deux distributions notamment utilisées par la profession actuarielle
pour modéliser des ratio des pertes :
— la loi Weibull de paramètres λ et k et de fonction de densité :
k
f : x 7−→ (k/λ)(x/λ)(k−1) e−(x/λ)

— la loi de Burr c et k et de fonction de densité :


xc−1
f : x 7−→ ck
(1 + xc )k+1

Nous avons ensuite calibré chacune des distributions sur chaque segment en maximisant la log-
vraisemblance, que l’on note L.

Une fois cet ensemble de lois retenu, il nous a fallu définir un processus de choix des lois. Nous
avons pour ce faire utilisé trois types d’outils statistiques.

Nous avons d’abord utilisé des distances d’ajustement entre la loi empirique, discrète, et la loi
ajustée, continue. Chacune des distances est liée à une norme spécifique. Voici les trois distances
qui nous ont intéressé :
— la statistique de Kolmogorov-Smirnov KS :

dKS = sup |Fn (x, .) − F (x)|


x

— la statistique de Cramér–von Mises CvM :


Z ∞
dCvM = n [Fn (x) − F ∗ (x)]2 dF ∗ (x)
−∞

— la statistique de Anderson-Darling AD :
Z ∞
(Fn (x) − F (x))2
dAD = n dF (x)
−∞ F (x) (1 − F (x))

Les distances CvM et AD se distinguent de la distance KS car elles font intervenir l’écart
quadratique et non l’écart absolu entre les distributions empiriques et théoriques. De plus, ces
distances considèrent l’ensemble des observations alors que la distance KS ne considère que la
distance maximale séparant les deux distributions.

37
La distance CvM attribue des poids aux distances en fonction de la valeur de la densité de la
fonction théorique au point de mesure de la distance.
La distance AD attribue également des poids aux distances. Elle le fait en fonction de la valeur de
la densité de la fonction théorique au point de mesure de la distance divisée par F (x).(1−F (x)). Or,
dans les valeurs extrêmes de la distributions théoriques F (x) tend vers 0. La distance AD apporte
donc plus d’importance aux valeurs extrêmes que les distances CvM et KS. Nous observerons donc
surtout cette distance.

Remarquons qu’à une forme de distribution donnée, plus un modèle est général, au sens où
son nombre de paramètres est élevé et plus sa distance avec la loi empirique sera faible. Pre-
nons l’exemple de la loi exponentielle et de sa généralisation la loi Gamma. Nous obtiendrons
dKS/CvM/AD (Gamma) ≤ dKS/CvM/AD (Exponentielle). La limite de ces statistiques est qu’elles ne
prennent pas en compte le nombre de paramètres des modèles. Or, la considération du nombre de
paramètres permet d’éviter un sur-ajustement. Introduisons des critères pénalisant la complexité
des modèles. Notons L le maximum de la log-vraisemblance, k le nombre de paramètres et n le
nombre d’individus de l’échantillon. Nous avons utilisé :
— le critère d’information d’Akaike est définit comme suit :

AIC = 2k − ln L

— le critère d’information Bayésien est définit comme suit :

BIC = −2 ln L + k ln n

On remarque effectivement que l’AIC et le BIC pénalisent en fonction du nombre de para-


mètres k.

Enfin, nous avons utilisé le graphique dit "qq-plot" pour comparer les quantiles empiriques de
nos observations et les quantiles théoriques des lois calibrées. En effet, nous tenons à apporter une
attention particulière aux valeurs extrêmes. Cet élément orientera donc nos choix.

2.3.3 Application aux données de chaque segment


Nous allons détailler le choix de la loi retenue pour chacun des segments. Nous commençons par
le segment 1.
Nous calibrons au moyen du package fitdistribplus sur R les lois théoriques sélectionnées sur nos
données. Nous regardons également de près l’ensemble des statistiques mentionnées dans la section
précédente et nous traçons le graphique qqplot.
La figure 2.13 montre pour l’ajustement des 4 lois par rapport à la distribution empirique ainsi
que les statistiques mentionnées ci-dessus. La figure 2.14 montre le graphique qqplot.
Toutes les statistiques sont en faveur de la loi de Weibull. La loi Gamma s’ajuste toutefois
également bien aux données alors que les lois Burr et Log-normale s’ajustent moins bien aux données.
Le graphique qqplot nous montre que la loi de Burr surestime les valeurs extrêmes. Les lois de
Weibull, de Gamma et Log-normale s’ajustent bien sur les valeurs extrêmes.
Nous retenons donc la loi de Weibull. Les paramètres de cette loi sont les suivants : λ = 1, 13 et
k = 0, 55.

38
Figure 2.13 – Ajustement des lois Burr, Log-normale, Gamma et Weibull sur les observations du
segment 1

Figure 2.14 – Graphique qqplot comparant les quantiles empiriques des observations su segment
1 et les quantiles théoriques de lois Burr, Log-normale, Gamma et Weibull

39
Intéressons-nous maintenant au segment 2. Nous suivons la même démarche. La figure 2.15 re-
présente l’ajustement des 4 lois par rapport à la distribution empirique ainsi que les statistiques
mentionnées ci-dessus. La figure 2.16 montre le graphique qqplot.

Nous pouvons tout d’abord remarquer que la statistique de KS varie très légèrement selon les
modèles et ne nous permet pas de les différencier. La statistique CVM est en faveur de la loi Gamma
et pénalise surtout la loi Log-normale. Nous pouvons en dire de même de la statistique AD. Les
critères AIC et BIC pénalisent là aussi surtout la loi Log-normale.

Regardons maintenant le graphique qqplot. Les croix sont construites pour chaque observation.
Elles ont pour abscisse le quantile théorique de l’observation par rapport à la loi sélectionnée. Elles
ont pour ordonnée le quantile empirique de l’observation. Ainsi, une croix située à gauche de la
bissectrice signifie que le quantile théorique associé est inférieur au quantile empirique. Inversement,
une croix située à droite de la bissectrice signifie que le quantile théorique associé est supérieur au
quantile empirique. Notre attention va surtout porter sur la déviation des croix par rapport à la
bissectrice dans les quantiles extrêmes. Nous pouvons ici observer que les lois Gamma et Weibull,
qui étaient associées jusqu’ici à des statistiques d’ajustement valorisante, sous-estiment grandement
les valeurs extrêmes des observations. A l’exception du dernier quantile empirique pour la loi de
Burr, les lois de Burr et Log-normale sous-estiment également les quantiles mais de manière plus
modérée. Parmi ces lois, la loi de Burr est celle qui s’ajuste le mieux à nos observations extrêmes.

Nous retenons donc la loi de Burr. Les paramètres de cette loi sont les suivants : c = 0, 99 et
k = 2, 42.

40
Figure 2.15 – Ajustement des lois Burr, Log-normale, Gamma et Weibull sur les observations du
segment 2

Figure 2.16 – Graphique qqplot comparant les quantiles empiriques des observations su segment
2 et les quantiles théoriques de lois Burr, Log-normale, Gamma et Weibull

41
Intéressons-nous au segment 3. La figure 2.17 montre pour l’ajustement des 4 lois par rapport à
la distribution empirique ainsi que les statistiques mentionnées ci-dessus. La figure 2.18 montre le
graphique qqplot.

Les statistiques sont en faveur de la loi de Weibull. La loi de Burr s’ajuste également bien aux
données. En revanche, les lois Gamma et Log-normale s’ajustent moins bien aux données.

Le graphique qqplot nous montre que les lois Gamma et Weibull sousestiment les valeurs ex-
trêmes. Les lois de Burr et de Gamma quand à elle s’ajustent bien sur les valeurs extrêmes.

Nous retenons donc la loi de Burr. Les paramètres de cette loi sont les suivants : c = 0, 89 et
k = 2, 08.

42
Figure 2.17 – Ajustement des lois Burr, Log-normale, Gamma et Weibull sur les observations du
segment 3

Figure 2.18 – Graphique qqplot comparant les quantiles empiriques des observations su segment
3 et les quantiles théoriques de lois Burr, Log-normale, Gamma et Weibull

43
Intéressons-nous au segment 4. La figure 2.19 montre pour l’ajustement des 4 lois par rapport à
la distribution empirique ainsi que les statistiques mentionnées ci-dessus. La figure 2.20 montre le
graphique qqplot.

Les statistiques KS et CVM sont minimisées par l’ajustement de la loi Log-normale. En revanche,
la statistique AD pénalise fortement cette loi par rapport aux 3 autres. Nous pouvons en déduire
que le loi Log-normale s’ajustent bien sur les données centrales mais beaucoup moins bien sur les
autres. Le qqplot ne met pas en avant un mauvais ajustement au niveau des valeurs extrêmes mais le
pplot nous permet d’identifier un mauvais ajustemet de la loi Log-normale pour les valaurs proches
de 0. Cette faiblesse est liée au fait que le support de la loi Log-normale ne contient pas 0 alors que
sur ce segment, un nombre matériel de valeurs est très proche de 0.

Les statistiques AD, AIC et BIC sont minimisées pour la loi de Weibull. Le graphique qqplot
nous montre que la loi de Weibull est celle qui pénalise le moins les valeurs extrêmes parmi les lois
retenues. Elle sous estime 3 valeurs de quantile empirique sur un total de 203 individus. Toutefois,
ces ajustements ne présentent pas de défauts trop important sur les valeurs extrêmes et les quantiles
bicentenaire ajustés varient seulement de 2,47 pour la loi de Weibull à 3,27 pour la loi de Burr.

En revanche, au voisinage de 0, la loi de Weibull est celle qui s’ajuste le mieux aux données.

Nous retenons donc la loi de Weibull. Les paramètres de cette loi sont les suivants : λ = 1, 25 et
k = 0, 65 .

44
Figure 2.19 – Ajustement des lois Burr, Log-normale, Gamma et Weibull sur les observations du
segment 4

Figure 2.20 – Graphiques qqplot et pplot du segment 4

45
Intéressons-nous au segment 5. La figure 2.23 montre pour l’ajustement des 4 lois par rapport à
la distribution empirique ainsi que les statistiques mentionnées ci-dessus. La figure 2.24 montre le
graphique qqplot.

Les statistiques nous permettent d’écarter de manière quasiment certaine les distribution Gamma
et Log-normale. Les lois de Weibull et de Burr s’ajustent bien aux données.

Toutefois, les quantiles bicentenaires de ces deux lois ajustées sont très éloignés. En effet, la loi
de Burr a un quantile bicentenaire égal à 27,61 alors que la loi de Weibull a quantile bicentenaire à
12,35. Nous allons donc nous intéresser à l’ajustement de ces lois sur les valeurs extrêmes en étudiant
le graphique qqplot.

Le graphique qqplot nous montre que la loi de Weibull sous-estime fortement les valeurs extrêmes
alors que les quantiles théoriques de la loi de Burr correspondent bien aux quantiles empiriques.

Nous retenons donc la loi de Burr. Les paramètres de cette loi sont les suivants : c = 0, 95 et
k = 1, 66.

46
Figure 2.21 – Ajustement des lois Burr, Log-normale, Gamma et Weibull sur les observations du
segment 5

Figure 2.22 – Graphiques qqplot et pplot du segment 5

47
Terminons les choix d’ajustement en nous intéressant au segment des traités vie. Sur 414 traités,
97 on un ratio de pertes ultime égal à 0. Nous choisissons de ne pas utiliser ces traités lors de la
calibration des lois. Nous surestimerons donc les ratios de pertes mais, une fois encore, ce sont les
statistiques extrêmes qui nous intéressent le plus.

Les quatre moyennes des lois calibrées sont très proches. Par contre, les quantiles théoriques
99,5% de ces lois sont moins homogènes. Le graphique qqplot nous montre que les quantiles théo-
riques extrêmes de la loi Log-normale correspondent davantage aux quantiles empiriques que les
quantiles théoriques des autres lois.

Nous retenons donc la loi Log-normale. Les paramètres de cette loi sont les suivants : µ = −1, 10
et σ = 1, 27

48
Figure 2.23 – Ajustement des lois Burr, Log-normale, Gamma et Weibull sur les observations du
segment vie

Figure 2.24 – Graphiques qqplot et pplot du segment vie

49
2.3.4 Résultats finaux
Le tableau 2.25 résume les résultats obtenus et les compare avec l’hypothèse initiale du modèle
simplifié. Analysons tout d’abord les résultats de notre étude avant de les comparer avec l’hypothèse
du modèle simplifié.

Figure 2.25 – Comparaison des résultats de l’étude avec l’hypothèse du modèle simplifié

Le tableau 2.25 met en évidence l’apport de la segmentation des traités dans la différenciation
des distributions de ratios de pertes. En effet trois distributions sont retenues : la loi de Burr, la loi
de Weibull et le loi Log-normale. De plus, les statistiques théoriques des lois calibrées sur chacun
des segments sont différentes. Les couples moyenne et écart-type de chaque segment sont en effet
tous distincts. Présentons les spécificités de la méthode de simulation proposée suite à l’étude de
l’historique :
— Les ratios de pertes des traités membres du segment 1, à savoir ceux qui couvrent des porte-
feuilles assurés en Amérique centrale, en Amérique du sud, en Asie (revenus moyen - inf), en
Europe de l’Est, au Magrheb ou au Moyen Orient, sont simulés en générant des réalisation
d’une loi de Weibull de moyenne 0,53 et de quantile 99,5% 2,41.
— Les ratios de pertes des traités membres du segment 2, à savoir les quote-parts qui couvrent
des portefeuilles assurés en Afrique subsaharienne, en Europe Centrale ou en Europe du Nord,
sont simulés en générant des réalisation d’une loi de Burr de moyenne 0,71 et de quantile
99,5% 8,08.
— Les ratios de pertes des traités membres du segment 3, à savoir les excédents de plein qui
couvrent des portefeuilles assurés en Afrique subsaharienne, en Europe Centrale ou en Europe
du Nord, sont simulés en générant des réalisation d’une loi de Burr de moyenne 1,01 et de
quantile 99,5% 15,79.
— Les ratios de pertes des traités membres du segment 4, à savoir ceux qui couvrent des porte-
feuilles assurés en Europe du sud ou en Asie (revenus moyen - sup) et dont la commission est
supérieure à 22% sont simulés en générant des réalisation d’une loi de Weibull de moyenne
0,62 et de quantile 99,5% 2,47.
— Les ratios de pertes des traités membres du segment 5, à savoir ceux qui couvrent des por-
tefeuilles assurés en Europe du sud ou en Asie (revenus moyen - sup) et dont la commission
est strictement inférieure à 22% sont simulés en générant des réalisation d’une loi de Burr de
moyenne 1,65 et de quantile 99,5% 27,61.
— Les ratios de pertes des traités membres du segment vie sont simulés en générant des réali-
sation d’une loi Log-normale de moyenne 0,73 et de quantile 99,5% 8,69.
Comparons maintenant les résultats de notre étude avec l’hypothèse du modèle simplifié. Seuls les
traités du segment 3 et du segment Vie présentent des moyennes supérieures à 1. Les récupérations
moyennes modélisées par la méthode proposée sont donc moins prudente initialement.

50
Toutefois, dans les valeurs extrêmes, notre proposition est plus prudente que le modèle initial.
En effet, le quantile 99,5% était fixé à 2 pour tous les traités alors qu’il est supérieur à 2 dans tous
les segments de notre proposition.
Notre étude a permis de valoriser l’historique des ratios de pertes des traités d’AGRe. La seg-
mentation des traités nous a permis d’affiner la génération des ratios de pertes en fonction des profils
des contrats. Les résultats obtenus sur chaque segment sont globalement plus conservateurs que le
modèle simplifié.

51
Chapitre 3

Modélisation des récupérations pour les


traités en excédant de sinistres

Sommaire
3.1 Fondements et paramétrisation du modèle . . . . . . . . . . . . . . . . . 53
3.1.1 Introduction au modèle . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.1.2 Les hypothèses du modèle . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
3.1.3 Mise en équation du problème . . . . . . . . . . . . . . . . . . . . . . . . . 58
3.1.4 Une approximation prise pour résoudre le système . . . . . . . . . . . . . 60
3.1.5 Le calcul de la prime pure . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
3.2 Application et analyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
3.2.1 Présentation de l’exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
3.2.2 Paramétrisation du modèle . . . . . . . . . . . . . . . . . . . . . . . . . . 64
3.2.3 Observation des résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
3.2.4 Analyse et interprétation des résultats . . . . . . . . . . . . . . . . . . . . 68
3.2.5 Étude pratique de la vitesse de convergence du modèle . . . . . . . . . . . 69
3.3 Critique des résultats du modèle . . . . . . . . . . . . . . . . . . . . . . . 71
3.3.1 Périmètre de la comparaison . . . . . . . . . . . . . . . . . . . . . . . . . . 71
3.3.2 Premières observations et conjecture . . . . . . . . . . . . . . . . . . . . . 71
3.3.3 Analyse du passage de la prime commerciale à la prime pure . . . . . . . 72
3.3.4 Une proposition d’évolution du modèle . . . . . . . . . . . . . . . . . . . . 73

L’objectif de ce chapitre est de proposer une méthode de modélisation des récupérations à charge
des contrats de réassurance en excédent de sinistre. Notre travail est fondé sur une méthodologie ex-
plicitée en 2012. Cette démarche a été implémentée dans un programme informatique et documentée
d’une note explicative de l’algorithme. Nous avons souhaité mettre en lumière cette méthodologie
en la justifiant et la critiquant. Nous avons pour ce faire suivi une démarche scientifique depuis la
mise en place du problème jusqu’à la formulation d’une proposition de sa résolution. Nous avons
particulièrement cherché à :
— comprendre les hypothèses du modèle,
— justifier son paramétrage,
— interpréter et critiquer ses résultats,
— identifier ses limites.

52
3.1 Fondements et paramétrisation du modèle
Nous allons dans cette première partie introduire le contexte de la modélisation et justifier sa
paramétrisation.

3.1.1 Introduction au modèle


Le modèle a pour objectif de simuler des récupérations pour l’ensemble des programmes de
réassurance en excédent de sinistre. Cette simulation doit être faite à la granularité des traités pour
attribuer dans un second temps les récupérations aux réassureurs, à leurs parts respectives dans les
traités. Pour chaque traité i , la méthode de simulation se décompose en deux étapes :
— premièrement, la génération de la somme des récupérations intermédiaires du traité i :
aRecBi , quantité définie dans la formule 1.7 de la section 1.2.2. Cette génération se fait
grâce à une approche fréquence - sévérité.
— deuxièmement, la détermination de la récupération résultante de la réalisation de tels si-
nistres. Ce calcul prend en compte les clauses contractuelles comme le montre la formule
1.7.
Introduisons tout d’abord le concept d’un modèle fréquence - sévérité. Un modèle fréquence
sévérité, aussi appelé fréquence - coût, modélise d’abord la survenance de sinistres puis leur coûts
d’indemnisation. Plus précisément, un modèle fréquence - sévérité réalise les opérations suivantes :
— simuler le nombre de sinistres N survenus. N est une variable aléatoire suivant la loi de
fréquence du modèle. Par définition, cette loi est discrète,
— si N > 0, générer les sévérités (S u )u∈J1;N K de chacun des N sinistres. Les V.A (S u )u∈J1;N K sont
iid et suivent la loi de sévérité du modèle. Elles sont indépendants de N .
— sommer le montant des sinistres pour obtenir la charge totale des sinistres, notée C. Ce
résultat constitue la génération finale du modèle fréquence - sévérité. Il est donc donné par
la formule 3.2 :
N
!
X
C = 1N >0 . Su (3.1)
u=1

Reprenons notre problématique de modélisation des récupérations pour chaque traité i. Les
méthodologies courantes de modélisation de récupération à charge d’un traité i sont dites "FGU
(From Ground-Up)". Ces méthodes simulent d’abord des sinistres bruts de réassurance, ap-
pliquent ensuite les formules 1.6 et 1.7 qui prennent en compte les caractéristiques du traité i et
déduisent enfin les récupérations associées.
Contrairement à cette approche, notre modèle doit être applicable même sans a priori sur la
sinistralité brute de réassurance du portefeuille. Le logique des méthodes "FGU" ne peut donc pas
être reprise. Notre modèle simule uniquement des sinistres touchant le traité i. Il simule uniquement
la partie du montant d’indemnisation supérieure à la priorité du traité i. Cette simulation est
fonction des caractéristiques contractuelles du traité i. Détaillons cette méthodologie en notant :
— Ni la V.A représentant la fréquence du générateur du traité i,
— Si la V.A représentant la sévérité du générateur du traité i,
— aRecBi la V.A représentant la récupération du traité i brute de limites annuelles,
— aRecNi la V.A représentant la récupération du traité i.
Nous pouvons alors écrire :

" Ni
! ! #
X
aRecNi = min [max(aRecBi − AADi ; 0); AALi ] = min max 1Ni >0 . Siu − AADi ; 0 ; AALi
u=1
(3.2)

53
Illustrons ce propos en considérant un programme de réassurance à 4 tranches. La structure de
ce programme est présenté en figure 3.1 et spécifie notamment les RoL des traités.
L’illustration se concentre sur la génération des récupérations du traité 3. La distribution de
fréquence du traité 3, notée f , est renseignée à l’horizontale et définit la loi de la V.A N3 . La
distribution de sévérité du traité 3, notée s, est représentée à la verticale entre la priorité (70M ) et
la limite (150M ) du traité 3. Elle définit la loi de la V.A S3 .
La figure montre ensuite les formes des récupérations brutes et nettes de limites annuelles. La
fonction h représente la distribution de la V.A aRecB3 représentant la récupération brute de limites
annuelles du traité 3. Nous supposons que AAD3 = 50 et que AAL3 = 250. La fonction g représente
la distribution des récupérations du traité 3 à savoir de la V.A aRecN3 .
L’espérance de aRecN3 nous intéressera tout particulièrement. Elle représente en effet l’estima-
tion de la récupération attendue du traité 3.

Figure 3.1 – Principe du générateur fréquence sévérité sur un traité

Présentons maintenant les hypothèses prises à priori par le modèle simplifié sur les lois de
fréquence et de sévérité suivies par les V.A Ni et Si .

3.1.2 Les hypothèses du modèle


Considérons le cas général d’un programme constitué de T traités avec T ∈ N∗ . Le modèle
actuellement utilisé repose sur cinq hypothèses :

Première hypothèse : La prime pure d’un traité i, notée P Pi , est fonction de la prime commer-
ciale du traité, notée P Ci , et de l’écart type approché des récupérations du traité :

P Pi = (1 − β).P Ci − α.σ̃(aRecNi ) avec α = 0.2 et β = 0.15 (3.3)

Cette formule est couramment utilisée lors des procédés de tarification en réassurance [4]. En
effet, lors de la tarification, les actuaires peuvent simuler des sinistres selon l’approche "FGU" pour
en déduire la distribution empirique des récupérations et notamment l’espérance de la récupération
du traité. Cette estimation est souvent appelée prime pure. Elle est une composante essentielle du
tarif final mais elle n’est pas unique. D’autres éléments viennent ajuster la prime. Une composante,

54
multiple de la volatilité empirique des récupérations autour de cette prime pure, est ajoutée à la
prime pure. Le facteur de multiplication est noté α. Cette composante est souvent appelée la prime
de risque. Le montant total est ensuite multiplié par un facteur multiplicatif, noté β, représentant
les frais du réassureur au titre de l’affaire.
Les valeurs des coefficients α et β choisies proviennent d’une étude interne d’AGRe.

Deuxième hypothèse : L’espérance des récupérations d’un traité i est égale à la prime. Autre-
ment dit, l’espérance du ratio de pertes du traité i vaut 1 :

E[récupérations(i)]
=1 (3.4)
P Pi
La loi de fréquence et la loi de sévérité des variables aléatoires Ni et Si sont des leviers sur l’espérance
des récupérations. En effet, reprenons l’exemple illustré dans la figure 3.1. En concentrant d’avantage
la loi de fréquence sur 0 et la loi de sévérité vers 0, la distribution des récupérations se concentre
également d’avantage vers 0. Cela permet de faire baisser l’espérence de g. La figure 3.2 illustre
l’influence des lois de fréquence et de sévérité sur cette espérence.
Le générateur fréquence - sévérité doit donc être calibré de manière adéquate pour que cette
hypothèse soit vérifiée. L’hypothèse 2 va contraindre le générateur fréquence sévérité de notre modèle
pour chaque traité i : on affirmera qu’elle impose un équilibre fréquence - sévérité sur le générateur
du traité.

Figure 3.2 – L’influence des distributions respectives de fréquence et de sévérité sur la distribution
des récupérations

Troisième hypothèse : Le modèle doit prendre en compte la forme du programme de réassu-


rance, c’est à dire l’empilement de ses tranches. En effet, lors de la réalisation d’un sinistre, si une

55
tranche i est touchée, les tranches inférieures, si tant est qu’elles existes seront alors complètement
consommées. Cette logique doit être respectée par le modèle.
Cette hypothèse a une conséquence directe sur la modélisation : la mise en place du modèle
doit être algorithmique. En effet, si un sinistre est simulé sur une tranche i, sa répercussion sur
les tranches inférieures doit être prise en compte. L’algorithme parcourt donc le programme de
haut en bas en générant d’abord des sinistres sur la tranche supérieure T du programme. Puis
il prend en compte la sinistralité résultante sur la tranche T − 1 avant de générer de nouveaux
sinistres attachant la tranche T − 1 sans atteindre la tranche T . Et ainsi de suite jusqu’à la première
tranche du programme. La figure 3.5 illustre la dépendance de la sinistralité entre les tranches du
programme.

Figure 3.3 – La dépendance des tranches d’un même programme d’excédent de sinistres dans la
prise en charge de sinistres

Retenons qu’à présent, lorsque nous évoquerons le terme de générateur du traité i, nous parlerons
du générateur spécifique aux sinistres impactant la tranche i sans impacter la tranche i + 1. La
sinistralité totale d’un traité i ne pourra être calculée qu’avec la connaissance de l’ensemble des
générateurs j avec j ∈ Ji; T K.

Quatrième hypothèse : La fréquence des sinistres qui attachent la tranche i mais pas la tranche
i + 1 suit une loi de Poisson de paramètre λi . Les sinistres peuvent de plus être décomposés en
deux types : de type 1 ou de type 2. La répartition entre ces deux types se fait au moyen d’une loi
Binomiale de paramètre Ni et pi où Ni représente la réalisation de la loi de Poisson de paramètre
λi . Cette loi établit la fréquence de réalisation des sinistres du type 2. Plus p est proche de 1 et plus
la part des sinistres de type 2 sera importante. Inversement, plus p est proche de 0 et plus la part
des sinistres de type 2 sera faible. Précisons maintenant les distinctions entre ces deux types :
1. les sinistres de type 1 attachent partiellement la tranche i. Ils sont générés au moyen de :
— une fréquence égale à la différence entre la réalisation de la loi de Poisson et la réalisation
de la loi Binomiale
— une sévérité suivant une loi uniforme sur la capacité de la tranche,

56
2. les sinistres de type 2 consomment complètement et exactement la capacité de la tranche i.
Ils n’attachent donc pas la tranche i + 1. Ils sont produits grâce à :
— une fréquence égale à la réalisation de la loi Binomiale,
— une sévérité égale à la capacité,
Cette hypothèse définit donc le cadre du générateur de chaque traité i.
Notons ∀i ∈∈ J1; T K
— Ni ∼ P(λi ) la V.A représentant la fréquence du générateur du traité i
— Ñi ∼ B(Ni , pi ) la V.A représentant la fréquence des sinistres de type 2 du générateur du
traité i. Ni − Ñi définit donc la fréquence des sinistres de type 1 du générateur du traité i.
— Us,i des V.A uniformes sur [0; 1] indépendantes et identiquement distribuées avec s ∈ J1; Ni −
Ñi K
— Gi la V.A représentant la charge de sinistralité impliquée par le générateur du traité i. Rap-
pellons que cette V.A ne correspond pas à la sinistralité totale du traité i. Cette sinistralité
ne peut être calculée qu’avec la connaissance des générateurs j avec j ∈ Ji; T K
Nous pouvons alors écrire :
  
s=N
X i −Ñi

Gi = Capacitéi . 1Ni >0 . Ñi + Us,j  (3.5)


s=1

Figure 3.4 – Le générateur fréquence coût défini par la quatrième hypothèse du modèle

Cinquième hypothèse : La fréquence des sinistres de type 1 doit être la plus élevée possible.
Cette contrainte s’applique dans l’ordre décroissant de la tranche la plus haute à la tranche la plus
basse.
Pour satisfaire cette hypothèse, nous pourrions être tentés de simplifier la quatrième hypothèse
en posant pi = 0 afin de maximiser la fréquence des sinistres de type 1. Néanmoins, il ne sera pas
toujours possible de respecter l’ensemble des hypothèses avec p = 0. La quatrième hypothèse et
le paramètre p nous offre la flexibilité nécessaire à l’existence d’une solution à ce modèle. Cette
solution doit en effet exister sous la contrainte de la logique du fonctionnement des contrats de
réassurance.

57
Pour comprendre les liens entre les hypothèses, nous proposons de résoudre analytiquement le
problème.

3.1.3 Mise en équation du problème


Les paramètres du modèle sont donnés par les termes de la suite (λi )i∈J1;T K et de la suite (pi )i∈J1;T K .
Le modèle a donc 2.T paramètres.
Soit (λi )i∈J1;T K tel que ∀i ∈ J1; T K, λi ≥ 0
Soit (pi )i∈J1;T K tel que ∀i ∈ J1; T K, pi ∈ [0; 1]
Soit (Ni )i∈J1;T K tel que ∀i ∈ J1; T K, Ni ∼ P(λi )
 
Soit Ñi tel que ∀i ∈ J1; T K, Ñi |Ni = N ∼ B(N, pi )
i∈J1;T K
Notons ∀i ∈ J1; T K :
— aRecBiG la V.A représentant la récupération, brute de limites annuelles, impliquée par le
générateur du traité i,
— aRecBi la V.A représentant la récupération brute de limites annuelles du traité i,
— aRecNi la V.A représentant la récupération du traité i,

Figure 3.5 – La dépendance des tranches prise en compte dans le modèle

En prenant en compte la dépendance entre les tranches illustrée an figure 3.5, nous pouvons
écrire : 

 aRecBT = aRecBTG



 aRecBT −1 = aRecBTG−1 + CapacitéT −1 .NT


 ..


 .

 t=T
X

aRecBj = aRecBjG + Capacitéj . Nt (3.6)

 t=j+1


 ..


 .

 t=T
X

aRecB1 = aRecB1G + Capacité1 .



 Nt
t=2

58
De plus, le modèle doit vérifier les T équations résultantes de la traduction de l’hypothèse 2 :

∀i ∈ J1; T K , E[aRecNi ] = P Pi , avec aRecNi = min(max(aRecBi − AADi , 0), AALi ) (3.7)

En combinant les équations 3.2, 3.5, 3.6 et 3.7, le problème s’écrit :

     

  

    Générateur de  

    type 1  

    Générateur de
 type 2 z }| {   

     z}|{ ˜   
 s=N
X T − NT
       

E min max CapacitéT . 1NT >0 .  NT ˜ + Us,T  −AADT ; 0 ; AALT 
  = P PT

       

 | {z }

     s=1   

    S’il y a génération    

    de sinistres  

     



 | {z }

 Générateur de la tranche T

 ..


 .     





     

       

    Générateur de la tranche j Générateurs des
 

 z }| tranches t > j








  { z }| {  



     s=Nj −Ñj t=T   

     X X   


 E min max Capacitéj . 1Nj >0 . Ñj +
  Us,j +
 Nt  −AADj ; 0 ; AALj  = P Pj

    s=1   
   t=j+1  
       

     

     

    | {z }  

 Le générateur résultant

 est dépendant des tranches t > j



 ..


 .     





     

       
 Générateurs des
    Générateur de la tranche 1 tranches t > 1  

    z }| { z }| {   

        
     s=N 1 − ˜1
N t=T   

  X X 
     


 E min max Capacité1 . 1N1 >0 . Ñ1 +
  Us,j +
 Nt  −AAD1 ; 0 ; AAL1  = P P1

       

    s=1 t=2  

       

     

     

    | {z }  


 Le générateur résultant

 est dépendant des tranches t > 1


(3.8)
AADi AALi
En posant AADni = Capacitéi
et AALni = Capacitéi
, le système devient :

59
     



       

    ˜  
 s=N
X T − NT
     
  ˜
min max 1NT >0 . NT +
E Us,T  −AADnT ; 0
 ; AALnT  = RoLT

   



    s=1  

   | {z }  



 Sinistralité annuelle normalisée

 de la tranche T

 ..


 .     





     

       

    s=Nj −Ñj t=T  
   X X  
E min max 1Nj >0 . Ñj +
 Us,j +
 Nt −AADnj ; 0 ; AALnj  = RoLj

     
    s=1 t=j+1  

   | {z }  



 Sinistralité annuelle normalisée

 de la tranche j

 ..


 .     





       

    ˜  

 s=N
X 1 − N1 t=T
X
     


 E min max 1N1 >0 . Ñ1 +
   Us,1  + Nt −AADn1 ; 0 ; AALn1 

 = RoL1


     

 s=1 t=1

   | {z }  

 Sinistralité annuelle normalisée
de la tranche 1
(3.9)

3.1.4 Une approximation prise pour résoudre le système


Pour résoudre le système, l’approximation donnée par l’équation 3.10 est faite afin de faciliter
les calculs. Nous verrons que cette approximation ne remet pas en cause la convergence du modèle.

E[min(max(aRecBi − AAD; 0); AAL)] = min(max(E[aRecBi ] − AAD; 0); AAL) (3.10)

Nous considérons ensuite que la récupération brute de limites annuelles attendue est toujours
située entre l’AAD et l’AAL. Nous obtenons donc :

min(max(E[aRecBi ] − AAD; 0); AAL) = E[aRecBi ] − AAD (3.11)

Le système devient alors :



1 + pT


 .λT − AADnT = RoLT

 2

 ..


 .

 t=T
 1 + pj
 X
.λj + λt − AADnj = RoLj , avec ∀i ∈ J1; T K λi ≥ 0 et pi ∈ [0; 1]
2 (3.12)
 t=j+1

 ..



 .

 t=T

 1 + p1 X

 .λ 1 + λt − AADn1 = RoL1
 2 t=1

Selon la cinquième hypothèse, dans la meilleure des configurations, nous souhaiterions avoir
∀i ∈ J1; T K pi = 0. Cela nous permettrait en effet de générer uniquement des sinistres uniformes

60
sur la capacité. Plaçons nous dans cette configuration et introduisons la suite (ai )i∈J1;T K définie par
∀i ∈ J1; T K ai := RoLi + AADni . Les termes de la suite (ai )i∈J1;T K reflètent un indicateur de la
récupération attendue sur chaque tranche. Nous considérons que la suite (ai )i∈J1;T K est strictement
décroissante. Nous obtenons les solutions suivantes :


 λT = 2.aT

 ..



 . !

 Xt=T


 λj = 2. aj − λt


t=j+1
.. (3.13)

 .

 !

 t=T
X




 λ1 = 2. a1 − λt

 t=2

Ce système peut se résoudre en remplaçant successivement de haut en bas. Nous pouvons alors
en effet utiliser successivement dans la ligne j les valeurs des (λt )t∈Jj+1;T K .

Toutefois, il est nécessaire de vérifier la condition suivante : ∀i ∈ J1; T K λi ≥ 0. Or, il est possible
que cette condition ne soit pas vérifiée. Précisément, cette condition n’est pas vérifiée pour la
première fois à la ligne k si :
t=T
X t=T
X
∀i ∈ Jk + 1; T K , ai ≥ λt mais que ak < λt (3.14)
t=i+1 t=k+1

En effet, les T − k premières équations nous auraient permis de déterminer des λi admissibles
∀i ∈ k + 1, ..., T . Cependant, nous serions alors bloqués puisqu’il ne serait pas possible d’attribuer
une valeur négative à λk .
Il est donc nécessaire de réduire les valeurs des λi précédemment déterminés. Or, réduire une
valeur de λi implique de choisir un pi non nul et de générer des sinistres de type 2 sur la tranche i.
La cinquième hypothèse du modèle nous impose donc de réduire en priorité la valeur de λk+1 . Nous
allons montrer que la réduction du seul λk+1 permet de trouver une valeur admissible pour λk .
Par décroissance de (ai )i∈J1;T K et en réutilisant l’équation 3.14 pour i = k + 1, nous avons :
t=T
X
ak > ak+1 ≥ λt
t=k+2
P
Il est donc possible de trouver λk+1 > 0 tel que ak ≥ t=T
t=k+1 λt .
Or, toujours selon la cinquième hypothèse de notre modèle 3.1.2, la fréquence des sinistres de
type 2 doit
Pêtre minimal. Nous devons donc maximiser λk+1 Ppour minimiser pk+1 , sous la contrainte
t=T t=T
que ak ≥ t=k+1 λt . Nous résolvons donc l’équation ak = t=k+1 λt et nous obtenons donc :
t=T
X
λk+1 := ak − λt (3.15)
t=k+2
Pt=T
De plus, avec la condition ak = t=k+1 λt , la k ième du système 3.13 nous donne :

λk = 0

Ensuite, l’équation (k + 1) du système 3.12 nous permet d’obtenir :

61
 P 
2 ak+1 − t=T λ
t=k+2 t
pk+1 := −1 (3.16)
λk+1
La preuve en annexe 4.3.3 montre que pk+1 ∈ [0; 1].
Enfin, nous vérifions qu’il est encore possible de continuer à parcourir le système d’équation
Pt=T de
bas en haut en trouvant des solutions admissibles. Nous devons pour cela avoir ak−1 ≥ t=k λt .
P
Cela est bien vérifié puisque t=Tt=k λt = ak et ak−1 > ak .

Nous avons justifié la calibration du modèle en prenant en compte les hypothèses 2, 3, 4 et 5.


Nous allons maintenant détailler le calcul de la prime pure décrit par l’hypothèse 1 et qui est un
élément essentiel du modèle puisqu’elle constitue la cible de la moyenne des récupérations.

3.1.5 Le calcul de la prime pure


Reprenons la formule 3.3 qui exprime la prime pure en fonction de la prime commerciale et de
la volatilité des récupérations :
P Pi = (1 − β).P Ci − α.σ̃(aRecNi ) avec α = 0.2 et β = 0.15
Pour calculer la prime pure, il est nécessaire de calculer l’écart type des récupérations :

σ(aRecNi ) = σ (min(max(Capacitéi .aRecBi − AADi ; 0); AALi ))


Le modèle réalise une première approximation dans le calcul de σ(aRecNi ) : il suppose que
AAD = 0 et que AAL = ∞. Nous obtenons alors aRecNi = aRecBi
Le modèle réalise ensuite une seconde approximation dans le calcul de σ(aRecBi ). Il suppose
que le nombre de sinistres touchant la tranche suit une loi de Poisson de paramètre 2.RoLi et que
les sinistres générés sont tous des sinistres touchant la capacité de moitié. Ainsi, nous avons bien
Capacitéi
E[aRecBi ] = .2.RoLi = P Pi
2
Nous pouvons alors calculer l’écart-type approché de aRecNi
s 2 s 2 r
Capacitéi Capacitéi 2.P Pi P Pi .Capacitéi
σ̃(aRecNi ) = .2.RoLi = . =
2 2 Capacitéi 2
L’équation 3.3 devient donc une équation du second degré :
r
Capacitéi .P Pi
P Pi = (1 − β).P Ci − α. avec α = 0.2 et β = 0.15
2
Nous retenons la solution positive de cette équation, à savoir :
 2
q
Capacitéi

−α. 2
+ ∆
Capacitéi
P Pi = , avec ∆ = α2 . + 4.(1 − β).P Ci
4 2

3.2 Application et analyse


Nous avons dans la première partie introduit la modélisation et explicité ses fondements. Nous
allons maintenant appliquer le modèle à un exemple fictif de programme en excédent de sinistres.
Nous apporterons le soin de détailler les étapes de la paramétrisation du modèle, d’interpréter les
résultats du modèle et de commencer à identifier certaines des limites de la méthodologie.

62
3.2.1 Présentation de l’exemple
Nous prenons l’exemple fictif d’un programme formé de 6 tranches. Les caractéristiques de ce
programme sont présentées sur le tableau 3.6.

Figure 3.6 – Caractéristiques du programme de réassurance pris en exemple

Les paramètres préalables à la calibration du modèle sont les primes pures, les RoL, les AAD
normalisés et les coefficients ai , définis par ai := RoLi + AADni . Nous calculons ces paramètres
pour chacun des 6 traités du programme. Les résultats sont résumés dans le tableau 3.7. Pour une
meilleure compréhension nous explicitons les calculs pour la tranche haute du programme :


Capacité6 50 000 000


 ∆6 = α 2 . + 4.(1 − β).P C6 = 0.22 × + 4 × (1 − 0.15) × 555 000 = 2 887 000

  2  2
2



q
Capacité6
√  q √ 2


 −α. 2
+ ∆ −0.2 × . 50 000 000
+ 2 887 000

 2

 P P 6 = = = 122 191
 4 4
P P6 122191
 RoL6 = = = 0.244%


 Capacité6 50000000

 AAD6 0

 AADn6 = = =0


 Capacité6 50000000

 a = RoL6 + AADn6 = 0.244%
 6

(3.17)

Figure 3.7 – Paramètres préliminaires à la calibration du modèle

Nous observons que conformément à la remarque faite dans la section 3.1.4, la suite (ai )i∈J1;6K
est bien décroissante. Nous sommes donc certains de pouvoir déterminer une solution du modèle en
suivant la démarche explicitée dans la section 3.1.4.

63
3.2.2 Paramétrisation du modèle
Nous pouvons maintenant calculer la suite des λi et la suite des pi . Nous explicitons le calcul
pas à pas pour illustrer la méthodologie de résolution de la section 3.1.3. Nous parcourons donc le
programme de haut en bas, de la tranche 6 jusqu’à la tranche 1, étape par étape. Les résultats sont
également synthétisés dans le tableau 3.8.
1. Nous calculons de manière provisoire les paramètres du générateur de sinistres du traité 6 :
— p6 = 0
— λ6 = 2.a6 ≃ 2 × 0.244 ≃ 0.49
2. Nous calculons de manière provisoire les paramètres du générateur de sinistres du traité 5 :
— p5 = 0
— λ5 = 2.(a5 − λ6 ) ≃ 2 × (0.244 − 0.49) ≃ −0.36
Nous obtenons une valeur de λ5 strictement négative. Cette valeur n’est pas admissible.
Nous ajustons donc de manière définitive les paramètres du traité 5 avant de corriger la
paramétrisation du générateur du traité 6 :
— p5 = 0
— λ5 = 0
3. Nous reprenons les calculs des paramètres du générateur 6 :
— λ6 = a5 ≃ 0.31
— p6 = 2.a
λ6
6
≃ 2×0.244
0.31
≃ 0.58
4. Nous calculons de manière provisoire les paramètres du générateur de sinistres du traité 4 :
— p4 = 0
— λ4 = 2.(a4 − (λ5 + λ6 )) ≃ 2 × (0.60 − (0 + 0.244)) ≃ 0.59
Les paramètres du générateur 5 sont donc confirmés.
5. Nous calculons de manière provisoire les paramètres du générateur de sinistres du traité 3 :
— p3 = 0
— λ3 = 2.(a3 − (λ4 + λ5 + λ6 )) ≃ 2 × (3.73 − (0.59 + 0 + 0.244)) ≃ 5.67
Les paramètres du générateur 4 sont donc confirmés.
6. Nous calculons de manière provisoire les paramètres du générateur de sinistres du traité 2 :
— p2 = 0
— λ2 = 2.(a2 − (λ3 + λ4 + λ5 + λ6 )) ≃ 2 × (6.57 − (5.67 + 0.59 + 0 + 0.244)) ≃ 0.02
Les paramètres du générateur 3 sont donc confirmés.
7. Nous déterminons de manière provisoire les paramètres du générateur de sinistres du traité
1:
— p1 = 0
— λ1 = 2.(a1 −(λ2 +λ3 +λ4 +λ5 +λ6 )) ≃ 2×(14.93−(0.02+5.67+0.59+0+0.244)) ≃ 16.70
Les paramètres du générateur 1 sont admissibles et les paramètres du générateur 2 sont donc
confirmés.
L’ensemble des 12 paramètres du modèle étant déterminés, il est maintenant possible de générer
des récupérations sur les 6 tranches de ce programme. Toutefois, nous avons tenu à comparer la
paramétrisation et les résultats du modèle dans le cas de figure où la structure de dépendance entre
les traités du programme n’est pas prise en compte : la sinistralité totale de chacun des traités
est alors considérée comme indépendante. Ce faisant, nous obtenons également des paramètres que
nous explicitons dans le tableau 3.8.
Nous observons sans surprise que dans le cas où la structure est considérée de manière indépen-
dante, nous avons bien pi = 0. En effet sans la contrainte de l’hypothèse 4 liée à la structure du
programme, les générateurs peuvent être calibrés pour respecter l’hypothèse 2 en ne générant que
des sinistres de type 1. Dans le cas contraire, nous observons que le paramètre p n’est pas nul pour
la tranche 6. C’est en effet la seule tranche où le λ a été calculé à nouveau suite à la première valeur
non admissible de la suite des λi .

64
Figure 3.8 – Paramètres du modèle pour le programme pris en exemple

3.2.3 Observation des résultats


Intéressons-nous aux résultats du modèle pour les 2 cas considérés ci-dessus. Nous avons réalisé
1 million de simulations pour tester la convergence du modèle et obtenir des résultats stables.
Nous avons souhaité observer la sensibilité de la forme de la distribution des récupérations aux
caractéristiques des générateurs fréquence - sévérité des traités. Toutefois, les densités empiriques
des récupérations ne nous ont pas permis de mettre en lumière des différences de forme entre le cas
indépendant et le cas structuré. En effet, la grande majorité des réalisations des récupérations sont
nulles. Les densités présentes toutes un mode élevé en 0 qui masque la forme au delà de 0.
Pour palier ce problème, nous avons étudié de pair une statistique et une distribution empirique
pour chacune des tranches :
— la probabilité d’attachement, c’est à dire la probabilité qu’au moins un sinistre se réalise,
— la densité empirique des valeurs strictement positives des récupérations, correspondant à la
densité de la variable des récupérations aRecNi conditionnellement au fait que aRecNi > 0
Etudiés ensemble, ces deux concepts nous permettent d’avoir une vue à la fois exhaustive et précise
sur la distribution empirique des récupérations. Nous allons donc nous intéresser à ces informations,
dans le but d’observer la sensibilité des générateurs aux paramètres.
La figure 3.9 représente pour les 6 tranches du programme la densité empirique des récupéra-
tions strictement positives. Les densités représentées en bleu sont correspondent aux résultats de la
paramétrisation prenant en compte le programme. A contrario, les densités en rouges correspondent
au cas indépendant. Les trois premiers multiples des capacités de chaque tranche sont représentés
par des lignes verticales en pointillées pour étayer les interprétations. Les fréquences empiriques
d’attachement sont également indiquées.

Intéressons-nous tout d’abord aux fréquences empiriques d’attachement des tranches. Nous re-
marquons que plus la tranche est basse et plus la fréquence d’attachement est élevée. Par exemple,
la tranche 1 a une fréquence d’attachement de 20, 77%. Autrement dit, selon le modèle, un sinistre
touche en moyenne cette tranche une fois tous les 5 ans. A l’inverse, la tranche 6 a une fréquence
d’attachement de 0, 3%. D’après le modèle, un sinistre touche en moyenne cette tranche moins d’une
fois tous les 300 ans.
Nous pouvons également observer que ces fréquences sont inférieures dans le cas de la prise en
compte de la dépendance. En effet, dans ce cas la sévérité est en espérence au moins supérieure à
la sévérité du cas contraire : la fréquence présente donc un profil inverse. Cela nous permet encore
une fois d’illustrer la notion de l’équilibre fréquence - sévérité.
Nous pouvons de plus retrouver analytiquement cette statistique. En effet, comme dans cet
exemple l’AAD est nul pour toutes les tranches, la probabilité d’avoir une récupération positive
est égale à la probabilité de réalisation d’au moins un sinistre non nul. Or, pour une tranche i,
cette probabilité est égale à la probabilité qu’un sinistre attache les tranches i ou supérieures. Cette
probabilité est également égale à la probabilité qu’un générateur quelconque entre la tranche i et

65
Figure 3.9 – Comparaison par tranche des fréquences d’attachement et des distributions empiriques
des réalisations des récupérations strictement positives. En rouge sans la prise en compte de la
structure en bleu avec la prise en compte de la structure

T génère un sinistre. Les lois de fréquences des générateurs sont indépendantes et sont toutes des
lois de Poisson. En les sommant, nous obtenons donc une loi de Poisson dont le paramètre est
la somme des paramètres des différentes lois. Nous pouvons alors nous intéresser à la fonction de
survie de cette loi en 0 pour obtenir la probabilité d’attachement de la tranche i. Cette fonction est
donnée par f : λ 7−→ 1 − e−λ où λ est le paramètre de la loi. Nous appliquons ce résultat pour les
récupérations avec et sans prise en compte du programme et obtenons le tableau de résultat 3.10.
Les probabilités sont quasiment égales aux fréquences observées.

Figure 3.10 – Paramètres du modèle pour le programme pris en exemple sans considération de la
dépendance

66
Sur la forme des densités, nous pouvons observer que, dans les deux cas, très peu de récupérations
supérieures à la capacité de chaque tranche sont observées. Parmi les réalisations de récupérations
positives, la grande majorité des récupérations sont comprise entre 0 exclus et la capacité de chaque
traité.

Nous observons de plus de grande disparité de forme entre le cas indépendant et le cas dépendant.
Nous remarquons en effet que les distributions empiriques tracées en rouge sont presque uniforme sur
la capacité de chaque tranche. Ce résultat est bien cohérent avec la paramétrisation des générateurs.
Dans le cas où la dépendance est considérée nous observons deux formes différentes de distributions
empiriques : les tranches 1, 3, 4 et 6 d’un côté et les tranches 2 et 5 de l’autre. En effet pour la
première catégorie la distribution est presque horizontale entre 0, exclus, et la capacité de chaque
tranche, exclus. Elle est alors située légèrement en dessous de la courbe rouge. Puis un pic est
observé au niveau des capacités des tranches. La masse en moins que la densité bleue présente
entre 0, exclus, et la capacité de la tranche, exclus, ont été déplacées au niveau de la capacité de la
tranche. Ces observations proviennent de deux phénomènes :

— le coefficient p pour la tranche 6,


— les sinistres des tranches supérieures pour les tranches inférieures.

Pour la seconde catégorie nous n’observons qu’un pic au niveau de la capacité des tranches 2 et 5.
Les paramètres λ des générateurs de ces deux tranches sont en effet respectivement nul et égal à
0,02.

Nous avons également sommé les récupérations des différentes tranches pour chaque simulation
afin d’obtenir la distribution empirique des récupérations sur le programme dans son ensemble. Nous
avons représenté les différentes capacités cumulées des tranches par des lignes verticales pointillées.

La distribution représentée en bleue est la distribution de la somme des récupérations des


tranches dans le cas où la structure est prise en compte. La distribution représentée en rouge
est la distribution de la somme des récupérations des tranches dans le cas où la structure n’est prise
en compte. Ces récupérations sont alors indépendantes.

Nous observons que la forme de la distribution bleue est nettement liée aux valeurs des capacités
cumulées. Les paramètres de notre modèle ont bien permis de prendre en considération la structure
du programme. La distribution rouge est simplement représentée pour montrer un exemple de
distribution non liée aux capacités cumulées. Dans ce cas cela est attendu étant donné que la
structure du programme n’a nulle part été prise en compte.

67
Figure 3.11 – Comparaison des distributions empiriques des récupérations du programme, avec et
sans prise en compte de la structure de programme

3.2.4 Analyse et interprétation des résultats


Nous ne considérerons plus le cas indépendant à partir de cette section. Nous avons dans un
premier temps souhaité étudier le ratio récupérations sur prime, homogène à un ratio de pertes.
Toutefois ce ratio est très élevé dans les extrêmes et n’est donc pas facilement interprétable. Nous
avons donc préféré travailler sur le ratio récupérations sur capacité. Les statistiques considérées sont
la moyenne et les quantiles 50% ; 75 % ; 90% ; 95% ; 99,5% et 99,9%. Cet indicateur est d’autant plus
pertinent que la notion de capacité cédée par réassureur est régulièrement utilisée dans la gestion
du risque de crédit envers les réassureurs.
Les résultats sont résumés dans le tableau 3.12. Cette indicateur est interprétable. En effet
on peut voir apparaître les coefficients ai dans la colonne moyenne. Prenons l’exemple du quantile
99,5%. Nous pouvons en déduire que la vision bicentenaire de notre modèle est que ce dernier touche
les 2 premières tranches complètement et la 3ème partiellement. Les tranches 4, 5 et 6 ne sont pas
touchées par l’événement bicentenaire.

Figure 3.12 – Résultats du modèle simplifié

68
3.2.5 Étude pratique de la vitesse de convergence du modèle
Notre modèle a préalablement été calibré de façon à respecter l’hypothèse 2, c’est à dire que pour
chaque tranche, l’espérance des récupérations doit être égale à la prime pure de la tranche. Nous
souhaitons vérifier empiriquement la convergence du modèle pour deux raisons :
— pour nous assurer de la non matérialité de l’approximation 3.10 faite lors de la calibration,
— pour observer la vitesse de convergence de la moyenne empirique des récupérations vers la
cible définie par la deuxième hypothèse.
Nous analysons donc l’évolution de la moyenne empirique en fonction du nombre de simulation
sur laquelle elle est calculée. Nous réalisons cette analyse par tranche et également pour le pro-
gramme dans son ensemble. Dans un premier temps, nous apportons une attention particulière à la
moyenne empirique des récupérations obtenue après 10 000 simulations. En effet, dans le cadre du
modèle interne d’AXA, le nombre de réalisations à produire est de 10 000. Les ratios des récupé-
rations sur prime pure après 10 000 et 1 million de simulations sont résumés dans le tableau 3.13.
Avec 10 000 simulations, les ratios de récupérations des tranches 1 à 4 sont très proches de 100%
mais les ratios de récupérations des tranches 5 et 6 sont plus éloignés. Avec 1 million de simulations,
tous les ratios de récupérations sont très proches de 100%, les ratios des tranches 1 à 4 valent 100%
même si les tranches 5 et 6 restent très légèrement différent à 98%.

Figure 3.13 – Moyennes empiriques des récupérations par tranche après respectivement 10 000 et
1 000 000 de simulations

Nous pouvons déjà en conclure que notre modèle ne comporte pas de biais majeur. Nous pouvons
également conjecturer que la vitesse de convergence du modèle est plus rapide sur les tranches basses
d’un programme. Observons maintenant les évolutions des moyennes empiriques pour chacune des
tranches pour un nombre de simulations allant de 1000 à 1 million. Pour que les graphiques de la
figure 3.14 soient comparables, l’échelle des ordonnées reste inchangée pour chaque graphique. Nous
observons les ratios entre 0,9 et 1,1. De plus, le ratio de récupération cible égal à 1 est représenté
par une ligne horizontale rouge. Enfin, le ratio obtenu après 10 000 simulations est représenté par
une ligne horizontale violette, si toutefois il appartient bien à l’intervalle [0.9; 1.1]. Nous pouvons
observer qu’à part la tranche 4, plus la tranche est basse et plus la convergence est rapide. Nous
pouvons conjecturer que la vitesse de convergence est une fonction croissante de la probabilité
d’attachement.
La figure 3.15 montre la convergence des ratio des pertes sur l’ensemble du programme. Relati-
vement à l’ensemble des vitesses de convergence de chacune des tranches, la vitesse de convergence
est rapide. Le ratio des récupérations de l’ensemble du programme est en effet d’avantage impacté
par le ratio des récupérations des tranches dont la prime pure est élevée. La tranche 1, dont la prime

69
Figure 3.14 – Évolution des moyennes empiriques des récupérations par tranche comparées au
ratio cible de 100%

pure représente 43% de la somme des primes pures du programme contribue fortement à cette vi-
tesse de convergence. La tranche 2, avec 39% y contribue également beaucoup. Nous remarquons
donc que l’influence des tranches supérieures est limitée : les tranches 5 et 6 représentent à elles
deux seulement 3% de la prime pure du programme.

Figure 3.15 – Évolution de la moyenne empirique des récupérations par le programme, comparée
au ratio cible de 100%

70
3.3 Critique des résultats du modèle
Au travers de l’exemple abordé dans la section 3.2, nous avons tout d’abord explicité en détails
la mise en place de la modélisation. Nous avons également pu constater et analyser les sensibilités
des distributions empiriques des récupérations en fonction de la paramétrisation des générateurs
fréquence sévérité de chaque traité. Nous avons proposé un indicateur approprié à la modélisation
pour mettre en lumière ces résultats et les rendre interprétables. Nous avons également pu confirmer
la convergence du modèle et soulever des premières limites concernant sa vitesse de convergence.
Nous allons dans cette section comparer le modèle simplifié avec le modèle pool.

3.3.1 Périmètre de la comparaison


Rappelons tout d’abord la présentation de la modélisation pool faite dans la section 1.3.2. L’équipe
tarification et réassurance d’AGRe dispose de modélisations des risques sous-jacents aux traités
poolés. Les branches couvertes par les traités poolés sont les branches dommage, responsabilité,
transport et marine. La connaissance des risques sous-jacents permet à l’équipe de tarification de
modéliser les récupérations des traités poolés dans le but d’évaluer leur rentabilité et de les retenir
ou de les céder au marché.
Nous allons comparer la modélisation simplifiée et notre modèle avec la modélisation de l’équipe
de tarification. Pour ce faire, nous sélectionnons dans un premier temps l’ensemble des traités poolés.
Cet ensemble représente près de 300 contrats de réassurance. Nous avons tout d’abord modélisé les
récupérations de ces traités grâce à la méthode simplifiée. Nous avons ensuite récupéré les résultats
de la modélisation réalisée par l’équipe tarification.
Nous avons comparé la modélisation simplifiée et la modélisation pool sur l’ensemble des traités
poolés. Nous avons donc sommé pour chaque simulation la récupération de chaque traité.

3.3.2 Premières observations et conjecture


Nous avons donc sommé les récupérations de tous les traités pour comparer les modèles sur
le portefeuille des traités poolés. Le tableau 3.16 montre les écarts entre le modèle simplifié et le
modélisé.

Figure 3.16 – Statistiques des ratio de récupérations sur la capacité entre le modèle pool et le
modèle simplifié

Ces résultats nous poussent à faire deux constats :


— la moyenne des récupérations modélisées par l’équipe de tarification en réassurance est quasi-
ment deux fois supérieure à la moyenne des récupérations simulées par notre modèle simplifié,
— les valeurs extrêmes des récupérations modélisées par l’équipe de tarification en réassurance
sont beaucoup plus importantes que celles des récupérations simulées par notre modèle sim-
plifié. Les récupérations bicentenaires sont par exemple près de quatre fois plus importantes.

71
Intéressons-nous aux écarts concernant les valeurs extrêmes. Cet écart doit s’analyser en deux
temps. Premièrement sur chacun des traités et ensuite sur les simulations agrégées. Individuellement,
nous n’observons pas de différence matérielle. Par contre, c’est au moment de l’agrégation que la
différence se fait. Or, dans les deux modélisations, les programmes de réassurance sont censés être
indépendants. Pourtant les résultats observés montrent bien la présence de corrélation importante,
en tout cas dans les extrêmes entre les programmes de réassurance pour la modélisation pool. Nous
avons donc interrogé l’équipe tarification pour comprendre le processus de modélisation.
La modélisation est faite à partir de la modélisation du risque sous-jacent. Or, une grande partie
du volume de prime des traités poolés concerne des couvertures catastrophes. Les récupérations
extrêmes de ces couvertures sont déduites des mêmes scénarios catastrophes. Cela explique la cor-
rélation implicite entre les récupérations des programmes dans les extrêmes.
Toutefois, le périmètre pour lequel le modèle simplifié est surtout utilisé n’est pas un périmètre
réassurant majoritairement des risques catastrophes. Nous ne trouvons donc pas cohérent de se
baser sur la corrélation implicite des programmes poolés pour en déduire une corrélation a priori
entre programmes. Cette corrélation a priori, qui est pour le moment nulle, devrait être évaluée par
un avis d’expert. En effet, l’historique de la sinistralité d’AGRe ne nous permet pas d’analyser la
dépendance des traités dans un même zone et une même branche.

Intéressons-nous maintenant à l’écart de moyenne. Cet écart est matériel puisque les récupérations
varient du simple au double. De plus, la modélisation du modèle simplifié devrait, globalement, être
plus prudente. En effet, l’équipe de gestion des risques, qui est responsable de la modélisation
simplifiée, devrait avoir une vision du risque au moins aussi prudente que l’équipe de tarification,
qui est responsable de la modélisation pool.

Nous allons donc nous intéresser à la première hypothèse 3.3 de notre modèle qui fixe la cible
de la moyenne des récupérations à savoir la prime pure. Rappelons que la formule 3.1.5 explicite le
calcul de cette prime pure, fonction de la prime commerciale et de la capacité du traité.

3.3.3 Analyse du passage de la prime commerciale à la prime pure


Nous allons dans cette section analyser l’impact quantitatif sur la prime qu’implique la première
hypothèse du modèle. Nous procédons en deux étapes. Nous étudions tout d’abord l’impact à
l’échelle d’un programme de réassurance puis à l’échelle de l’ensemble des contrats de réassurance
d’AGRe.

Reprenons l’exemple du programme de réassurance à 6 tranches pour observer cette évolution


à l’échelle d’un programme de réassurance. Ces évolutions sont renseignées dans le tableau 3.19.
Nous remarquons d’une part que la diminution de prime est significative puisqu’elle est de l’ordre
de 50% à l’échelle du programme. Nous observons également d’autre part que la diminution est
d’autant plus importante que la tranche est haute. Or, relativement aux primes des tranches basses,
les primes des tranches hautes sont déjà faibles. Et il n’est pas forcément souhaitable de creuser
cet écart. Nous remarquons que l’ordre de grandeur de l’évolution de la prime, qui est de 50% est
comparable au rapport de la moyenne entre la modélisation de l’équipe de tarification et celle de
l’équipe de la gestion des risques.

Intéressons nous maintenant à l’évolution globale qu’implique la première hypothèse à l’ensemble


du portefeuille des contrats de réassurance d’AGRe. Sur l’ensemble des contrats de réassurance,
la somme des primes pures représente 40% de la somme des primes commerciales. Cette évolution
confirme la précédente conjecture : elle pourrait expliquer l’écart entre la modélisation de l’équipe
tarification de celle de l’équipe de la gestion des risques.

72
Figure 3.17 – Rapports entre la prime pure définie par l’hypothèse 1 du modèle et la prime
commerciale des tranches

Nous concluons donc que la modification la plus pertinente à apporter au modèle est la modifi-
cation de l’hypothèse 1.

3.3.4 Une proposition d’évolution du modèle


Au regard des ordres de grandeurs des résultats obtenus, nous proposons de considérer que la
prime pure est égale à la prime commerciale. Observons les conséquences d’une telle évolution à
l’échelle d’un programme d’abord puis à l’échelle d’un portefeuille de contrats de réassurance.

Nous réalisons une nouvelle calibration pour le programme pris comme exemple dans cette section
en considérant la prime pure égale à la prime commerciale. Le tableau 3.18 fait la synthèse des
résultats obtenus. Nous observons comme attendu un impact significatif sur la moyenne. Cette
impact doit permettre de corriger le biais initial du modèle. Nous observons également que les
tranches 5 et 6 du programme sont consommées dans un scénario bicentenaire alors qu’elles ne
l’étaient pas au préalable. Cela nous semble être plus réaliste.

Figure 3.18 – Résultats du modèle proposé

Nous réalisons ensuite une nouvelle calibration du modèle pour l’ensemble des traités poolés. Cette
nouvelle calibration nous donne des résultats plus cohérents en terme de moyenne. En effet comme
on peut le voir dans le tableau 3.16, lorsqu’elle est calibrée sur la prime commerciale, la modélisation
simplifiée propose un ratio de limite de 3.82% alors qu’il n’était que de 1,76% lors de la calibration

73
sur la prime pure. Cette nouvelle moyenne est légèrement plus élevée que la modélisation des pools.
Cette différence n’est pas gênante puisque la modélisation de l’équipe de gestion des risques peut être
plus prudente que la modélisation de l’équipe de tarification. Les écarts dans les valeurs extrêmes
sont liés à une corrélation implicite dans les extrêmes des traités poolés. Elle doit toutefois nous
sensibiliser à la nécessité d’introduire une corrélation entre les traités de réassurance. L’historique
n’étant pas assez important pour réaliser ce type d’étude, nous encourageons à faire appel à des
avis d’experts pour déterminer la structure de dépendance des contrats de réassurance.

Figure 3.19 – Statistiques du ratio des récupérations sur la capacité

Nous représentons également dans la figure 3.20 les graphiques de convergence du modèle par
tranche. Nous comparons ces graphiques avec ceux obtenus précédemment. Nous concluons que la
convergence est légèrement meilleure avec la nouvelle configuration. On note en effet que l’ensemble
des ratios des récupérations au bout des 10 000 premières simulations sont tous inclus entre 0,9 et
1,1. Ce constat appuie notre conjecture affirmant que la vitesse de convergence était une fonction
décroissante de la probabilité d’attachement. Cette probabilité reste tout de même faible pour
les tranches hautes et les graphiques montrent bien l’insuffisance des 10 000 simulations pour les
tranches les plus hautes. Nous recommandons donc que le nombre de simulations soit plus élevé. En
effet, même si la convergence à l’échelle du programme est acceptable, l’enjeu de la modélisation des
récupérations est d’avoir une granularité au niveau de chaque tranche, cela afin de pouvoir répartir
les récupérations à la part de chaque réassureur dans chaque tranche. Or, les réassureurs ne sont
pas nécessairement les mêmes dans toutes les tranches d’un programme.
Nous avons dans ce chapitre expliqué la modélisation simplifiée des récupérations au titre des
contrats de réassurance en excédent de sinistres. Nous avons justifié la pertinence de cette métho-
dologie en suivant une démarche critique. Cette démarche nous a également amené à proposer une
évolution de ce modèle.

74
Figure 3.20 – Comparaison des distributions empiriques des récupérations par tranche, avec et
sans prise en compte de la structure de programme

75
Chapitre 4

Application au risque de crédit

Sommaire
4.1 Attribution des expositions par cédante et par réassureur . . . . . . . . 76
4.1.1 Contextualisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
4.1.2 L’importation des données . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
4.1.3 La simulation des récupérations . . . . . . . . . . . . . . . . . . . . . . . . 77
4.1.4 La méthode d’exportation . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
4.2 Les limites du modèle simplifié . . . . . . . . . . . . . . . . . . . . . . . . 79
4.2.1 La modélisation des récupérations . . . . . . . . . . . . . . . . . . . . . . 80
4.2.2 Le passage des récupérations à l’exposition . . . . . . . . . . . . . . . . . 80
4.2.3 La structure de dépendance des contrats de réassurance . . . . . . . . . . 81
4.3 Ouverture sur des indicateurs de qualité de crédit des réassureurs . . . 81
4.3.1 Les notations financières . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
4.3.2 Une couverture du risque de crédit : le CDS . . . . . . . . . . . . . . . . . 85
4.3.3 Comparaison des indicateurs . . . . . . . . . . . . . . . . . . . . . . . . . 86

4.1 Attribution des expositions par cédante et par réassureur


4.1.1 Contextualisation
Les méthodologies de génération des récupérations ont été explicitées dans les chapitres 2 et 3.
Nous allons maintenant nous intéresser à l’implémentation de la méthodologie sur les contrats de
réassurance du groupe AXA. Cette mise en place doit permettre de produire deux résultats. D’une
part elle doit générer un reporting pour suivre le risque de crédit agrégé pour le groupe AXA.
D’autre part elle doit produire des expositions au risque par entité pour calculer ensuite le STEC de
crédit envers les réassureurs par entité. Nous avons optimisé et automatisé le programme permettant
de produire ces résultats.

Nous allons dans un premier temps présenter les évolutions que nous avons apportées au pro-
gramme. Ce programme peut être découpé en trois parties :
— l’importation des données
— la simulation des récupérations
— l’exportation des différents résultats
Nous détaillerons les évolutions apportées au programme pour chacune de ces parties. Nous mon-
trerons ensuite des exemples d’applications que cette optimisation facilite.

76
4.1.2 L’importation des données
La plateforme ACTOR permet à AGRe d’avoir une vue exhaustive des traités et des facultatives
signés par les entités du groupe AXA. Dans le cadre du risque de crédit envers les réassureurs,
l’équipe de gestion doit en extraire les contrats en cours de souscription avant d’appliquer la mé-
thodologie de simulation des récupérations. Des données relatives aux réassureurs et aux cédantes
d’AXA doivent également être importées pour lier les expositions à une cédante et à un réassureur.

L’importation et les filtres de sélections étaient réalisés au moyen d’une manipulation sur logiciel
Access et d’un code en langage R. Nous avons choisi d’unifier cette étape et de la réaliser uniquement
au moyen du langage R. Nous avons utilisé le package RODBC pour appliquer des requêtes formulées
en langage SQL qui nous ont permis d’importer les différentes données. Nous avons de plus réalisé
un code pour filtrer et regrouper de manière adéquate les données.

Cette unification nous a surtout permis d’automatiser le processus d’importation et d’éviter une
manipulation manuelle du logiciel Acess à chaque lancement du modèle.

4.1.3 La simulation des récupérations


Dans le cadre du modèle interne d’AXA, nous devons simuler pour chaque contrat de réassurance
10 000 montants de récupérations. Or, le nombre de contrat est important : il est de l’ordre de 103
pour la réassurance obligatoire et de l’ordre de 104 pour la réassurance facultative. Ainsi, le nombre
de simulations attendues est de l’ordre de 108 .

Le programme existant était déjà automatisé. Il simulait chaque simulation une par une de ma-
nière itérative. Par conséquent, même si le temps de calcul pour chaque simulation n’était pas très
important, le temps de calcul global l’était. En effet, le programme prenait 24 heures à simuler l’en-
semble des expositions. Cette durée étant trop importante pour respecter les missions de l’équipe, la
base de données était séparée en quatre parties pour pouvoir exécuter le programme simultanément
sur 4 ordinateurs. Ainsi le temps de calcul était réduit à 8 heures.

Pour optimiser le temps de simulation, nous avons interprété le résultat à fournir comme une
matrice. Notons A cette matrice, chacun de ses coefficients A(i, j) doit correspondre à la ième récu-
pération simulée au titre du contrat de réassurance j. En effet, le langage de programmation R est
optimisé pour la manipulation de vecteurs et de matrices. Nous avons donc préféré une écriture de
programmation matricielle plutôt qu’itérative afin de contenir le temps de calcul.

Nous avons toutefois été confrontés à la contrainte de mémoire maximum allouée par l’ordinateur.
En effet, la manipulation d’une matrice contenant environ 108 coefficients requiert une mémoire
RAM bien plus performante que celle qui équipe l’ordinateur utilisé pour la simulation. Nous avons
contourné ce problème en utilisant le package ff qui permet d’utiliser le disque dur comme de la
mémoire RAM. Le principe de ce package repose sur une correspondance optimisée entre la RAM
et le disque dur qui est transparente pour l’utilisateur.

Nous avons ainsi pu faire diminuer le temps de simulation des récupérations de 24 heures à 1
heure.

77
4.1.4 La méthode d’exportation
Nous allons maintenant travailler sur la génération des différents résultats nécessaires à la gestion
du risque de crédit dans le groupe AXA.

La première étape consiste au passage des récupérations simulées par contrat de réassurance à
des récupérations par contrat, par cédante et par réassureur. En effet, d’une part, le risque relatif à
un contrat de réassurance est très souvent porté par un ensemble de réassureurs. Nous devons donc
répartir l’exposition à chacun de ces acteurs. D’autre part, certaines entités d’AXA se regroupent
pour réassurer ensemble leurs portefeuilles. Nous devons également répartir l’exposition au risque de
crédit parmi ces porteurs de risque. De plus, les informations binaires de la duration de la branche
de chaque contrat, à savoir branche courte ou longue, et de caractère obligatoire ou facultative de
la cession doivent être conservé.
Cette étape a été également optimisée sur R. Nous obtenons trois tables de correspondance :
— une table contenant autant de lignes que de contrats et autant de colonnes que de réassureurs.
Nous pouvons ainsi lire sur la coordonnée (i, j) la part du j ème réassureur sur le contrat i,
— une table contenant autant de lignes que de contrats et autant de colonnes que de cédantes
AXA. Nous pouvons ainsi lire sur la coordonnée (i, j) la part de la j ème cédante sur le contrat
i,
— une table contenant autant de lignes que de contrats et quatre colonnes.
Si la branche du contrat i est courte, nous pourrons lire sur la coordonnée (i, 1) un 0 et sur
la coordonnée (i, 2) un 1. Et inversement si la branche du contrat i est longue.
Si le contrat i est obligatoire, nous pourrons lire sur la coordonnée (i, 3) un 0 et sur la
coordonnée (i, 4) un 1. Et inversement le contrat i est une facultative.

Toutes les informations relatives à l’exposition au risque de crédit sont donc à notre disposition.
Nous pouvons maintenant nous intéresser aux deux exportations nécessaires à la gestion du risque
de crédit dans le groupe AXA :
— une exportation pour le calcul du STEC,
— une exportation pour le suivi du risque.

Intéressons nous tout d’abord à l’export nécessaire dans le cadre du calcul du STEC pour cha-
cune des entités. Il est nécessaire de transmettre un fichier par entité du groupe. Ce fichier doit
contenir pour chacun des réassureurs de l’entité les récupérations simulées. Nous réalisons donc une
extraction des contrats concernant chaque cédante grâce à la deuxième table de correspondance.
Nous répartissons ensuite les récupérations par contrat à chaque réassureur au moyen de la première
table de correspondance. Nous aggrégons ensuite les récupérations d’une maille contrat et réassureur
à une maille réassureur.

Étudions maintenant la mise en forme des sorties dans une optique de suivi du risque de crédit et
d’aide à la décision pour le comité de sécurité. Le modèle interne d’AXA considère que la holding
d’un groupe de réassurance se portera toujours garante d’une de ses filiales. Ainsi, le risque de crédit
est suivi par groupe de réassureur. Le cahier des charges défini par le comité de sécurité est d’obtenir
les expositions moyennes et bicentenaires au risque de crédit pour chaque groupe à la granularité
suivante :
— par réassurance obligatoire ou facultative,
— par branche courte ou longue.
Nous réalisons tout d’abord une table de correspondance entre réassureur et groupe de réassureur
pour rattacher les filiales des groupes de réassurance à leur groupe. Nous réalisons ensuite une

78
extraction des récupérations pour chaque groupe de réassureur. Nous séparons ensuite les récupéra-
tions concernant la réassurance obligatoire de la réassurance facultative et ensuite les récupérations
de contrat à branche courte et longue. Nous obtenons ainsi un tableau dont la forme est semblable
au tableau 4.1.

Figure 4.1 – Template de reporting de suivi du risque de crédit envers les réassureurs

De plus, nous avons ajouté la possibilité de réaliser ce type de reporting pour une entité en
particulier ou pour un réassureur en particulier.

Les évolutions apportées au programme sont illustrées dans la figure 4.2. Cette figure est divisée en
trois parties qui reprennent la structure du programme constituée de l’importation, de la simulation
et de l’exportation. Le programme permet maintenant de réaliser l’ensemble du processus sans
intervention manuelle.

Figure 4.2 – Evolutions du programme de production des reportings liés au risque de crédit envers
les réassureurs

4.2 Les limites du modèle simplifié

79
4.2.1 La modélisation des récupérations
Notre travail a permis de critiquer la modélisation des récupérations du modèle simplifié et de
proposer des améliorations. Nous en avons conclu que les hypothèses du modèle simplifié n’étaient
pas assez prudentes. Les principales hypothèses remises en cause sont :
— la contrainte d’un ratio de pertes bicentenaire égal à 2 pour les traités proportionnels,
— le calcul d’une prime pure à partir de la prime commerciale pour les traités non proportion-
nels.

Dans le cadre des traités proportionnels, la calibration proposée est ajustée sur l’historique des
ratios de pertes d’AGRe. Nous n’avons pas réalisé d’étude sur l’évolution historique des risques
sous-jacents du portefeuille des traités d’AGRe. Or, le profil de risque d’AGRe a sûrement évolué.
La quantification de cette évolution permettrait d’adapter la base de données sur laquelle notre
calibration s’est appuyée. Notons qu’avec l’acquisition du groupe XL Catlin par le groupe AXA, le
profil de risque d’AGRe est susceptible d’évoluer.
De plus, le nombre de traités sur lesquels nous avons réalisé à la fois la segmentation et les
différentes calibrations est de 1531. Même si nous avons apporté de l’attention aux observations
extrêmes dans nos calibrations, ce nombre d’observations reste assez faible pour la détermination
de quantiles bicentenaires.

En ce qui concerne les traités non proportionnels, l’amélioration proposée reste toujours fondée
sur un nombre important d’hypothèses. Notre travail a toutefois permis d’identifier ces hypothèses
et de comprendre les limites du modèle.
Notamment, le générateur fréquence sévérité du modèle pourrait être raffiné pour que la forme
des distributions des récupérations simulées corresponde davantage à la réalité.

De manière générale, le principe du modèle simplifié qui est de considérer uniquement les infor-
mations contractuelles des traités constitue une limite. Toutefois, ce principe fait avant tout la force
du modèle qui est de pouvoir générer des récupérations sur tous les contrats de réassurance.

4.2.2 Le passage des récupérations à l’exposition


Le modèle simplifié considère que l’exposition au risque de crédit envers les réassureurs est égale
à la récupération des traités. Or, nous avons vu dans le chapitre 1 que la récupération n’est pas la
seule composante de l’exposition.
En effet, la figure 1.14 montre que dans le cas de la réassurance proportionnelle, le résultat
constitue une mesure plus adaptée de l’exposition au risque de crédit envers les réassureurs. Pour la
réassurance non proportionnelle, la figure 1.14 montre que les primes de reconstitutions devraient
être prises en compte pour mesurer l’exposition au risque de crédit.
En ne considérant pas les engagements de la cédante envers les réassureurs, le modèle actuel
surestime l’exposition au risque et reste donc prudent.

En effet, dans les traités proportionnels, la prise en compte du résultat amène à additionner à la
récupération la commission et à soustraire la prime. Cette opération est linéaire et causerait donc
simplement une translation de la distribution.

Du côté des traités non proportionnels, le passage de la récupération au résultat est plus complexe.
En effet, si le montant de la prime initiale de la couverture est connu à l’avance, le montant des
primes de reconstitutions dépend lui de la sinistralité et donc des simulations. Chaque réalisation
devrait donc être adaptée pour calculer le résultat de la couverture. Toutefois, la sensibilité du

80
modèle aux primes de reconstitutions ne devrait pas être élevée. En effet, le montant moyen d’un
sinistre impactant la tranche est d’un ordre de grandeur comparable avec la capacité du traité alors
que l’ordre de grandeur de la prime de reconstitution est d’avantage comparable à la prime du traité.
Or, le rapport entre la prime et la capacité est en général faible.

4.2.3 La structure de dépendance des contrats de réassurance


Le modèle simplifié considère que les récupérations des contrats de réassurance sont indépen-
dantes. Nous n’avons pas remis en cause cette hypothèse faute d’un historique suffisant pour réaliser
une étude sur la dépendance de la sinistralité des traités. Toutefois, cette hypothèse ne nous semble
pas assez conservatrice.

En effet, la sinistralité des traités peut être dépendante en fonction des régions géographiques
et des branches assurées. La dépendance nous semble d’avantage importante pour les facultatives
puisque ces contrats de réassurance portent sur des risques individuels qui sont dépendants. Par
exemple, les risques d’une même localité pourraient être sinistrés simultanément lors de la réalisation
d’une catastrophe naturelle.
Une étude approfondie sur l’historique restreint d’AGRe pourrait permettre de proposer une
structure de dépendance. Un avis d’expert pourrait également être considéré.

4.3 Ouverture sur des indicateurs de qualité de crédit des


réassureurs
L’objectif de cette section est double. Nous allons d’une part réaliser une liste exhaustive des
indicateurs à disposition d’une cédante pour qu’elle puisse évaluer la qualité de crédit de ses réas-
sureurs. Nous allons ensuite comparer ces différents indicateurs pour les critiquer et nuancer leur
portée.

Nous allons dans cette section réaliser une liste des indicateurs permettant de surveiller la qualité
de crédit des réassureurs.

4.3.1 Les notations financières


Les agences de notations de qualité de crédit sont des institutions indépendantes qui ont vocation
à donner un avis sur la qualité de crédit de leurs clients. Les clients payent en effet les agences de
notation pour obtenir une note publique. Ils réalisent cette opération parce qu’ils ont un intérêt à
augmenter la crédibilité de leur santé financière traduite par leurs comptes publics.

En effet, les agences de notations ont accès à des informations financières détaillées et confiden-
tielles de l’entité. Leur notation synthétise leur vision du risque de crédit au regard de l’état interne
de la société. Une entreprise va notamment chercher à augmenter la confiance que ses contreparties
lui portent grâce à une bonne notation. Elle va parfois également être contrainte pour des raisons
réglementaires à être notée.

Les deux agences principales qui notent des réassureurs sont :


— Standars and Poors (S&P)
et
— AM Best

81
Ces agences analysent en détails les comptes et la gestion des risques des réassureurs. Leurs avis
constitue un indicateur essentiel de la qualité de crédit des réassureurs. En plus de cette notation,
les agences émettent également un avis sur l’évolution de la notation. Cet avis anticipe généralement
une évolution stable mais peut également anticiper une évolution à la baisse comme à la hausse de
la notation. Le tableau 4.3 montre les différentes notations de S&P possibles, de la meilleure qualité
de crédit à la plus mauvaise.

Figure 4.3 – Palette de notations de S&P

Nous allons nous intéresser à 7 réassureurs et à leurs notations. Ces 7 réassureurs ont été choisis
pour une question d’accessibilité aux données relatives à la qualité de leur crédit. Ce choix sera expli-
cité en section 4.3.2. Le tableau 4.4 montre leurs notations (rating) et leurs perspectives d’évolution
(outlook) selon S&P et AMBest.

Figure 4.4 – Notation et prévision d’évolution

Nous pouvons tout d’abord remarquer que la notation de S&P offre une meilleure différenciation
puisque 4 notes différentes allant de AA+ à AA− sont données à ces 7 réassureurs alors que AMBest
donne la même note A+ à 6 de ces réassureurs.
Nous observons également que, sur cet échantillon de réassureurs, les hiérarchies des notations
de S&P et de AMBest ne sont pas les mêmes.

Cette notation qualitative ne nous suffit toutefois pas à quantifier le risque de crédit d’un réassu-
reur. Nous allons donc maintenant nous intéresser à des correspondances entre qualité de crédit et
probabilité de défaut.
Nous avons choisi de montrer trois correspondances différentes. Tout d’abord, le tableau 4.5,
publié par S&P [10], représente les probabilités de défaut cumulées d’une entreprise quelconque
pour une certaine notation et à un certain horizon. Ensuite, le tableau 4.6, publié par AMBest
[1], représente les probabilités de défaut cumulées d’un assureur. Enfin, le tableau 4.7, publié par
AMBest, représente les probabilités de défaut cumulées d’un réassureur.

82
Figure 4.5 – Probabilités de défaut cumulées d’une entreprise quelconque selon S&P

Figure 4.6 – Probabilités de défaut cumulées d’un assureur selon AMBest

Figure 4.7 – Probabilités de défaut cumulées d’un réassureur selon AMBest

83
Nous vérifions la cohérence des tableaux en s’assurant qu’à une notation donnée, plus l’horizon
est lointain et plus la probabilité de défaut cumulée est élevée. Ces tableaux sont bien cohérents.

Nous remarquons également que globalement, à un horizon fixé, plus la notation est élevée et
moins la probabilité de défaut est élevée. Seul le tableau de S&P met en lumière des exceptions.
En effet les probabilités de défaut cumulées des réassureurs notés AAA sont supérieures à celles des
réassureurs notés AA+. De même, les probabilités de défaut cumulées des réassureurs notés AA
sont supérieures à celles des réassureurs notés AA-.

Plaçons-nous à une notation et à un horizon fixé sur les 3 tableaux 4.5, 4.6 et 4.7. Nous observons
que la probabilité de défaut cumulée d’une entreprise est plus faible que la probabilité de défaut
cumulée d’un assureur qui est elle même plus faible que la probabilité de défaut cumulée d’un
réassureur.

Ce constat peut étonner étant donné que les assureurs et les réassureurs sont soumis à des
réglementations ayant pour objectif de réduire leurs probabilités de défaut.

Nous pouvons en conclure que la correspondance entre notation et probabilité de défaut doit être
faite avec une grande nuance. En effet, dans le cas du tableau S&P, les probabilités sont issues d’un
grand nombre de défauts concernant des entreprises dont le profil n’est pas du tout similaire aux
réassureurs. Interpréter ces probabilités sur des réassureurs peut se faire avec une grande prudence.
Dans le cas des tableaux AMBest, la méthodologie d’obtention de telles probabilités n’est pas
détaillée et peut donc être fortement nuancée.

En plus de la limite liée au passage d’une note à une probabilité de défaut, une autre limite des
notations est leur inertie temporelle. En effet, sur le marché de la réassurance, les évolutions obser-
vées des notations ont été généralement faites a posteriori de difficultés financières publiquement
connues. Cela a notamment été le cas sur le marché de la réassurance entre 2000 et 2005. Plusieurs
réassureurs ont été en difficulté en 2001 mais leurs notes n’ont été dégradés qu’a posteriori. La
notation reste toutefois un outil essentiel dans la gestion du risque de crédit.

Nous avons explicité les quantifications du défaut des réassureurs selon les agences de notations.
Nous allons maintenant nous intéresser à un autre point de vue : celui du marché financier des CDS.

84
4.3.2 Une couverture du risque de crédit : le CDS
Le Crédit Default Swap (CDS) est un instrument financier permettant notamment de s’assurer
contre le risque de défaut d’une entité. Les clauses régissant les contrats CDS sont normalisées à
l’échelle internationale par l’International Swaps and Derivatives Association (ISDA).

Un CDS est un contrat qui lie deux acteurs : un acheteur et un vendeur. Un troisième acteur est
au centre du contrat mais n’y est pas partie prenante : il s’agit de l’entité de référence. L’acheteur
souhaite protéger une créance de l’entité de référence contre un défaut. Notons E le nominal de
cette créance. L’acheteur signe donc un CDS avec le vendeur. Cet achat se traduit par l’échange
financier suivant :
— l’acheteur verse au vendeur une jambe de prime à intervalle de temps régulier ∆. En général
cet intervalle de temps correspond à un trimestre et 4 jambes de primes sont donc émises
chaque année. Le montant de cette jambe de prime est exprimé par un spread s en points
de base du nominal E. Un point de base du nominal équivaut à 0, 01% du nominal.
— en cas de défaut de l’entité de référence :
1. le vendeur verse à l’acheteur le nominal E,
2. l’acheteur transmet au vendeur sa créance. Le vendeur récupérera alors la valeur de
recouvrement de la créance : E.τrec où τrec est le taux de recouvrement de l’entité de
référence, non connu à l’avance,
3. le montant net du transfert est donc de E.(τrec − 1) du point de vue du vendeur,
4. l’acheteur verse une dernière jambe de prime et arrête alors ses versements. Nous ne
prendrons pas en compte cette subtilité dans nos calculs et nous supposerons que la
jambe de prime est versée tout au long de la couverture.
La figure 4.8 illustre ce propos.

Figure 4.8 – Principe d’un CDS

85
Les CDS sont connus pour être un instrument spéculatif. La cotation d’un CDS est donc à
interpréter avec prudence mais peut présenter une réactivité importante, complémentaire à l’inertie
des notations des agences de notations.

Les cotations des CDS des réassureurs pris en exemple plus haut sont résumées dans le tableau
4.9. Les cotations représentent le prix de la prime annuelle du CDS en points de base.
L’accès aux cotations de CDS est restreint. Nous avons extrait nos informations du site inter-
net assetmacro [6] qui affiche publiquement des informations de cotations. Cependant, le spectre
d’entités juridiques est faible et les dates de cotations ne sont pas homogènes. Par conséquent, nous
avons retenu l’ensemble des réassureurs faisant partit du top 50 mondial et dont la cotation CDS
était disponible sur ce site. Nous avons ainsi retenu 7 réassureurs.
Nous n’avons de plus pas pu extraire les cotations aux mêmes dates. Certaines sont en date du
20 juin 2017 et d’autres du 20 décembre 2017. Nous avons retenu ces dates parce que les volumes
d’échanges de CDS y sont importants. La significativité des cotations est donc importante.
Notons de plus que ce sont les CDS à maturité 5 ans qui sont le plus liquide. Leurs cotations sont
donc davantage représentatives des opinions du marché financier. Nous préférerons donc travailler
sur les cotations annuelles des CDS offrant une couverture sur 5 ans.

Figure 4.9 – Cotations CDS de 7 réassureurs en date du 20 juin 2017 ou du 20 décembre 2017

Nous allons maintenant extraire de la cotation des CDS une probabilité de défaut pour comparer
la quantification de défaut lié aux notations et aux CDS.

4.3.3 Comparaison des indicateurs


Nous allons dans un premier temps extraire des cotations de CDS des probabilités de défaut
annuelles. Nous calculerons ensuite des probabilités de défaut annuelles à partir des probabilités de
défaut cumulées transmises par les agences de notations. Nous comparerons enfin ces probabilités.

Nous travaillons sur les cotations de CDS à maturité 5 ans. Nous allons utiliser une formule
simplifiée donnant la probabilité de défaut annuelle d’une entité, notée paD (CDS) en fonction de son
taux de recouvrement, noté τrec et de la prime unitaire annuelle du CDS, notée pCDS qui la couvre.
Cette formule simplifiée est notamment indiquée dans une revue des techniques concernant les CDS
publiée par la Banque de France [7]
Cette formule s’obtient en considérant la couverture d’un nominal E par un CDS. Soit D la
variable aléatoire valant 1 si l’entité fait défaut au cours d’une année et 0 sinon. Supposons que D
suive une loi de Bernoulli de paramètre paD (CDS). Ce paramètre s’interprète comme la probabilité de
défaut annuelle de l’entité couverte par ce CDS. Nous supposons que cette probabilité est uniforme

86
sur la durée de couverture du CDS. Soit P la variable aléatoire représentant le montant de la perte
du vendeur du CDS.
(
0 si D = 0
P = (4.1)
E.(1 − τrec ) si D = 1
Nous obtenons alors

E[P ] = E.(1 − τrec ).P(D = 1) = E.(1 − τrec ).paD (CDS)

En supposant que la prime annuelle du CDS pCDS est égale à l’espérance de perte du vendeur,
nous obtenons :
pCDS
pCDS = E.(1 − τrec ).paD (CDS) d’où paD (CDS) =
1 − τrec

Le taux de recouvrement d’un réassureur n’est pas connu à l’avance. Nous devons réaliser une
hypothèse sur ce dernier. Une étude sur le risque de crédit des réassureurs publiée par l"Institute
and Faculty of Actuaries" [2] estime que prendre l’hypothèse d’un taux de recouvrement situé entre
20% et 60 % est raisonnable. Nous réalisons donc notre étude avec des taux de recouvrement situés
dans cet intervalle avec un pas de 10%. Nous obtenons ainsi dans le tableau 4.10 les probabilités de
défaut annuelles sur 5 ans pour chacun de nos réassureurs.

Figure 4.10 – Cotations CDS de 7 réassureurs en date du 20 juin 2017 ou du 20 décembre 2017

Nous allons maintenant calculer les probabilités de défaut annuelles sur 5 ans à partir des pro-
babilités de défaut cumulées des agences de notations. Notons la probabilité de défaut annuelle
paD (Rating) et la probabilité de défaut cumulé sur 5 ans pcD (Rating). Sous l’hypothèse que la proba-
bilité de défaut annuelle soit constante sur la période et que les défauts annuels soient indépendants,
ces deux probabilités sont liées par la formule suivante :

1 − pcD (Rating) = (1 − paD (Rating))5


Nous avons donc :
1
paD (Rating) = 1 − (1 − pcD (Rating)) 5
Nous déduisons ainsi les probabilités de défaut annuelles des agences de notations. La tableau
?? les résume.

87
Figure 4.11 – Cotations CDS de 7 réassureurs en date du 20 juin 2017 ou du 20 décembre 2017

Nous pouvons alors comparer les probabilités de défaut annuelles. Nous comparons celles issues
des CDS, celles issues de la notation S&P et celles issues de la notation AMBest. Pour les CDS,
nous avons considéré différents taux de recouvrement et nous obtenons différentes probabilités de
défaut associées. Nous obtenons alors le tableau 4.12

Figure 4.12 – Cotations CDS de 7 réassureurs en date du 20 juin 2017 ou du 20 décembre 2017

Nous observons que les probabilités de défaut issues des CDS sont, peu importe le taux de recou-
vrement considéré, d’un ordre de grandeur bien supérieur aux probabilités de défaut des entreprises
de S&P. Les probabilités de défaut calculées par AMBest sur les assureurs et les réassureurs cor-
respondent davantage aux probabilités issues des CDS. Toutefois, la hiérarchie n’est pas forcément
respectée. Nous pouvons conclure que les ordres de grandeur des probabilités de défaut annuelle des
réassureurs varient du simple au décuple. La confiance que nous pouvons apporter à ces indicateurs
est donc limitée.

88
Nous avons montré que la quantification du risque de crédit des réassureurs est loin de faire
consensus. Nous considérons que tous les indicateurs sont à prendre en compte, mais avec prudence.
Les modèles de quantification du risque de crédit envers les réassureurs pour une cédante peuvent
avoir des structures différentes mais produisent tous un résultat très sensible aux probabilités de
défaut des réassureurs. Nous concluons donc que les limites de tels modèles sont élevées.
La gestion du risque de crédit d’AGRe peut toutefois permettre de respecter l’appétit au risque
du groupe AXA. En effet, l’appétit au risque de crédit envers les réassureurs ne prend pas en compte
les probabilités de défaut des réassureurs mais compare deux indicateurs :
— les récupérations bicentenaires cédées à chaque réassureur,
— les fonds propres de chaque réassureur.
Le comité de sécurité est donc essentiel pour garantir cette prise de risque limite.

89
Conclusion

Notre travail a tout d’abord confirmé l’importance de la quantification des récupérations dans la
gestion et la modélisation du risque de crédit envers les réassureurs. Nous avons de plus proposé des
évolutions à la méthodologie de génération des récupérations des traités en conservant la distinction
entre réassurance proportionnelle et réassurance non proportionnelle.
Pour la réassurance proportionnelle, nous avons utilisé l’historique de la sinistralité des traités
cédés par AGRe. Les données nous ont permis de segmenter le portefeuille des traités proportionnels
d’AGRe en six parties. Nous avons ensuite étudié les ratios de perte à l’ultime sur chacune de ces
parties. La méthodologie proposée discrimine les traités selon leurs caractéristiques et propose de
modéliser les ratios de pertes par des distributions globalement plus prudentes qu’initialement.
Pour la réassurance non proportionnelle, nous avons précisé les hypothèses du modèle simplifié.
Nous avons utilisé la comparaison des résultats du modèle simplifié et de la modélisation pool
pour proposer une évolution des hypothèses. En effet, nous avons recommandé d’utiliser la prime
commerciale et non plus une prime pure comme la cible de la moyenne des récupérations modélisées.
Nous avons enfin montré en ouverture que les modèles de quantification du risque de crédit envers
les réassureurs ont par construction des limites importantes. Une gestion pertinente de ce risque est
donc essentielle.

Notre travail permet à AGRe de mieux connaître son modèle de génération des récupérations qui
est au centre de la politique de gestion du risque de crédit envers les réassureurs du groupe AXA.
L’implémentation d’une nouvelle version du modèle a de plus permis de créer un outil réactif d’aide
à la décision pour le comité de sécurité d’AGRe.
Nous pensons que pour améliorer les modèles quantifiant le risque de crédit envers les réassureurs,
une étude approfondie du risque de défaut est nécessaire. Nous encourageons l’étude des échanges
comptables historique entre le groupe AXA et ses réassureurs pour critiquer les indicateurs existants
de défaut d’un réassureur et ainsi raffiner la mesure du risque de défaut d’un réassureur.

90
Appendices

i
Démonstration de l’admissibilité de pk+1
Montrons que pk+1 ∈ [0; 1] :  
Pt=T
Plaçons nous avant la modification de λk+1 ie nous avons λk+1 = 2. ak+1 − t=k+2 λt . Rap-
pelons alors l’équation 3.14 :
t=T
X t=T
X
∀i ∈ Jk + 1; T K , ai ≥ λt mais que ak < λt
t=i+1 t=k+1

En utilisant la décroissante de la suite (ai )i∈J1;T K , nous obtenons :


t=T
X t=T
X
λt > ak > ak+1 ≥ λt
t=k+1 t=k+2

D’où
t=T
X t=T
X
λk+1 > ak − λt > ak+1 − λt ≥ 0
t=k+2 t=k+2

Nous obtenons donc :


t=T
! t=T t=T
X X X
2. ak+1 − λt > ak − λt > ak+1 − λt ≥ 0
t=k+2 t=k+2 t=k+2
Pt=T
En divisant par la quantité ak − t=k+2 λt qui est positive, nous obtenons :
 P 
2. ak+1 − t=Tt=k+2 λ t
P
ak+1 − t=T t=k+2
Pt=T >1> Pt=T λt ≥ 0
ak − t=k+2 λt ak − t=k+2 λt
P
2(ak+1 − t=T
t=k+2 λt )
Or, l’équation 3.16 a défini pk+1 par : pk+1 := Pt=T
ak − t=k+2 λt
− 1.
Nous obtenons donc :
pk+1 + 1
pk+1 + 1 > 1 > ≥0
2
Soit :

pk+1 > 0 et pk+1 < 1

ii
Bibliographie

[1] AMBest. « Securitization of Reinsurance Recoverables ». In : A.M. Best Methodology (2011).


[2] Richard Bulmer. Reinsurance bad debt provisions for general insurance companies. 2000.
[3] Journal officiel de l’Union européenne. Règlement délégué (UE) 2015/35 de la Commission
du 10 octobre 2014 complétant la directive 2009/138/CE du Parlement européen et du Conseil
sur l’accès aux activités de l’assurance et de la réassurance et leur exercice (solvabilité II). 2014.
[4] G. Gorge. Insurance Risk management and Reinsurance. 2016.
[5] D’Agostino RB Stephens MA. Goodness-of-Fit Techniques. 1986.
[6] Asset Macro. 2018. url : https://www.assetmacro.com.
[7] E. Olléon-Assouan. « Techniques de marché des dérivés de crédit : les swaps de défaut
(credit default swaps) ». In : Banque de France - Revue de la stabilité financière 4 (2004),
p. 100–114.
[8] V. Dupuy P. Thiriez. L’économie de l’assurance et son incidence sur la réparation du pré-
judice économique. 2007.
[9] Swiss Re. sigma No. 5. 2003.
[10] S&P. « 2016 Annual Global Corporate Default Study And Rating Transitions ». In : Rating-
sDirect (2016).

iii

Vous aimerez peut-être aussi