Vous êtes sur la page 1sur 153

Table des matières

Résumé 3

Abstract 5

Note de synthèse 7

Summary 14

Remerciements 20

Introduction 21

I La construction de la compagnie d’assurance virtuelle en Formule stan-


dard 24

1 Présentation du cadre réglementaire 25


1.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.2 Contexte et mise en place . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.3 Objectifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
1.4 Description des piliers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.5 Bilan prudentiel sous solvabilité II et prise en compte de la réassurance . . . . . 28
1.5.1 Actif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.5.2 Passif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

2 Implémentation de la "formule standard" 31


2.1 Présentation des caractéristiques de la compagnie d’assurance virtuelle . . . . . . 31
2.1.1 Construction des triangles de paiement et de charge . . . . . . . . . . . . 32
2.2 Projection des triangles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.3 Détermination du SCR initial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.3.1 Modalités de calcul . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.3.2 Calcul du SCR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.3.3 le risque de souscription non-vie( SCRnl ) . . . . . . . . . . . . . . . . . . 39
2.3.4 Le risque de contrepartie : ( SCRdef ) . . . . . . . . . . . . . . . . . . . . 42
2.3.5 Le risque de marché (SCRmkt ) . . . . . . . . . . . . . . . . . . . . . . . . 44
2.4 Application au modèle et résultats . . . . . . . . . . . . . . . . . . . . . . . . . . 45

3 Mise en place de la réassurance dans le modèle 48


3.1 Introduction à la réassurance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.1.2 Le marché de la réassurance . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.1.3 Objectifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.2 Impact de la réassurance sur le SCR . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.3 Présentation des différents dispositifs de réassurance . . . . . . . . . . . . . . . . 50
3.3.1 Les catégories de réassurance . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.3.2 Tarification de la réassurance . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.4 La mise en place des structures de réassurances . . . . . . . . . . . . . . . . . . 57

1
3.4.1 Structure de réassurance A . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3.4.2 Structure de réassurance B . . . . . . . . . . . . . . . . . . . . . . . . . . 59
3.4.3 Structure de réassurance C . . . . . . . . . . . . . . . . . . . . . . . . . . 60
3.4.4 Structure de réassurance D . . . . . . . . . . . . . . . . . . . . . . . . . . 62
3.5 Conclusion et comparaison des différentes structures . . . . . . . . . . . . . . . . 63
3.6 Impact de la notation du réassureur sur le risque de contrepartie . . . . . . . . . 63
3.7 Méthodologie de détermination du BE cédée . . . . . . . . . . . . . . . . . . . . 65

4 Les limites de l’utilisation de la formule standard 66

II La construction de la compagnie d’assurance virtuelle en modèle in-


terne partiel 67

5 Modélisation du risque de prime et CAT 68


5.1 Détermination du seuil . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
5.2 Sinistralité grave . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
5.2.1 Description du modèle Pareto . . . . . . . . . . . . . . . . . . . . . . . . . 70
5.2.2 Modélisation de la fréquence N par loi de Poisson . . . . . . . . . . . . . 70
5.2.3 Modélisation du coût C par la loi de Pareto . . . . . . . . . . . . . . . . 70
5.2.4 Ajustement de la fréquence . . . . . . . . . . . . . . . . . . . . . . . . . . 71
5.3 La sinistralité attritionnnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
5.4 Sinistralité Catastrophique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
5.4.1 Modélisation de la sinistralité tempêtes . . . . . . . . . . . . . . . . . . . 74
5.4.2 Modélisation des autres risques CAT . . . . . . . . . . . . . . . . . . . . 74
5.4.3 Modélisation des frais et des primes . . . . . . . . . . . . . . . . . . . . . 76
5.5 Détermination du SCR Prime et CAT sur la plateforme Risk Explorer . . . . . . 76

6 Modélisation du risque de réserve dans le modèle interne partiel 77


6.1 Calibrage des paramètres de la distribution de réserves . . . . . . . . . . . . . . . 77
6.2 Détermination du SCR réserve sur la plateforme Risk Explorer . . . . . . . . . . 78

7 Détermination du SCR souscription non-vie sur la plateforme Risk Explorer


79

8 Agrégation générale 80

9 Présentation des résultats 81


9.1 Résultats des calibrages . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
9.1.1 Sinistralité grave . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
9.1.2 sinistralité attritionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
9.2 Comparaison entre la formule standard et le modèle interne partiel . . . . . . . . 81

10 Application de la réassurance au modèle interne partiel 83


10.1 Observations et résultats préliminaires sur les différentes stratégies de réassurance
testées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
10.1.1 Impacts des différentes structures de réassurance sur le SCR . . . . . . . . 83
10.1.2 comparaison des structure A et A bis . . . . . . . . . . . . . . . . . . . . 89

III L’optimisation de réassurance 91

11 Présentation des objectifs et des contraintes 92


11.1 Le cadre d’appétence au risque . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
11.1.1 Définition des concepts clés . . . . . . . . . . . . . . . . . . . . . . . . . . 92
11.1.2 Illustration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
11.1.3 Application à l’étude . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93

2
11.2 Les contraintes d’optimisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
11.2.1 Contraintes pour le premier profil . . . . . . . . . . . . . . . . . . . . . . . 94
11.2.2 Contraintes pour le second profil . . . . . . . . . . . . . . . . . . . . . . . 94
11.3 Objectif d’optimisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94

12 La méthode d’optimisation 96
12.1 Les étapes de l’optimisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
12.2 Paramètres à optimiser . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
12.3 Le nombre de simulations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
12.4 Indicateurs de réassurance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
12.4.1 La "probabilité d’attachement" . . . . . . . . . . . . . . . . . . . . . . . . 99
12.4.2 La "probabilité d’épuisement" . . . . . . . . . . . . . . . . . . . . . . . . . 100

13 Application à la structure D 102


13.1 Traité en excédent de sinistre sur le risque tempête . . . . . . . . . . . . . . . . 102
13.2 Traité en quote-part . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
13.3 Impact global . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115

14 Application à une structure de réassurance plus complexe 116


14.1 Traité en excédent de sinistres sur la LoB responsabilité civile générale . . . . . . 116
14.2 Traité en excédent de sinistres sur la LoB responsabilité civile automobile . . . . 118
14.3 Impact de la réassurance proportionnelle . . . . . . . . . . . . . . . . . . . . . . . 125
14.4 Application d’un traité Stop-Loss . . . . . . . . . . . . . . . . . . . . . . . . . . 127
14.5 Impact global . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131

15 Conclusion 133

Bibliographie 135

Table des figures 139

Abréviations 140

Annexes 141

3
Résumé

La mise en place de Solvabilité 2 a permis aux assureurs d’entrer dans une nouvelle ère. Alors
qu’auparavant, la solvabilité ne représentait en général pas une préoccupation majeure, elle est
devenue aujourd’hui un enjeu fondamental de pilotage des entreprises. Le moindre choc de taux,
le moindre choc sur une ligne d’affaires comme un événement de type «catastrophe naturelle»
peuvent désormais avoir des conséquences lourdes sur le niveau de couverture de son SCR. Pour
le management, cela signifie qu’il convient de mettre en place, en amont, une gestion fine et
dynamique de son ratio de solvabilité.

L’une des mesures qui peut être prise est d’adapter sa stratégie de réassurance, car dans
ce nouveau contexte la réassurance devient encore plus qu’avant un puissant outil de capital
management.

Sous l’ancienne réglementation, Solvabilité 1, l’impact de la réassurance était relativement


modéré. En effet, d’une part les traités non-proportionnels n’avaient pas d’impact significatif et
quant aux traités proportionnels, ils étaient pris en compte uniquement jusqu’à 50% du taux de
cession en "non-vie".
Maintenant sous Solvabilité 2, la réassurance est particulièrement mise en valeur et contribue
(en théorie) sans limite à l’amélioration de la marge de solvabilité. Ainsi avec la mise en place
de la nouvelle réglementation, la réassurance est devenue, outre un outil de pilotage de ses
risques, un véritable outil de gestion du capital à long terme.

Ce mémoire a pour objectif de développer d’une part un modèle en formule standard, puis
un modèle interne partiel, adaptable aux sociétés d’assurance non-vie disposant à la fois de ré-
assurance proportionnelle et non-proportionnelle, afin de proposer des solutions de réassurance
optimisant le gain en capital et respectant les objectifs stratégiques de l’entreprise.

Afin de mesurer l’impact de cette décision, nous disposons d’un logiciel de modélisation
actuarielle, Risk Explorer. Les étapes de cette optimisation sont les suivantes :
• Détermination claire des objectifs, des contraintes et du profil de risque pour le programme
d’optimisation ;

• Détermination du nombre de simulations à effectuer ;

• Mise en oeuvre d’une méthode de tarification pour les traités de réassurance non-proportionnelle ;

• Optimisation par ligne d’activité, et non pas "globale" (ie : Toutes les LoB en simultané).
Pour les traités non-proportionnels, la méthodologie se présente sous la forme suivante :
• Étude de la distribution des sinistres individuels concernés par le traité ;

• Détermination des niveaux de rétention et de capacité à tester, ainsi que le pas de test ;

• Comparaison des différents traités en faisant varier la rétention et la capacité.


Il résulte de cette démarche une liste de traités respectant les contraintes fixées et pouvant
être des solutions potentielles au programme de réassurance. Il faut donc analyser plus en détail
ces traités pour déterminer celui (ou ceux) maximisant la fonction objectif.

4
Pour les traités proportionnels, une approche légèrement différente est adoptée, et qui sera
décrite dans le corps de mémoire.

Cette étude présente ainsi un processus d’optimisation de structures mélangeant à la fois


de la réassurance proportionnelle et non-proportionnelle. Cependant, nous restons conscient des
limites du modèle : en particulier, il reste toujours une partie non modélisable (Pouvoir de né-
gociation entre les deux parties, disponibilité des traités sur le marché.)

Mots clés : Solvabilité 2, Formule standard, Modèle interne partiel, capital de solvabilité re-
quis (SCR), Réassurance non-proportionnelle, réassurance proportionnelle, Appétence au risque,
arbitrage et optimisation de réassurance.

5
Abstract

The implementation of Solvency 2 has allowed insurers to enter in a new era. Whereas pre-
viously, solvency generally not represented a major concern, it has now become a fundamental
issue of corporate control. The slightest shock rate, the slightest impact on a business line as
a natural disaster type of event can now have serious consequences for the level of coverage of
the SCR. For management this means should be put in place, upstream, a fine and dynamic
management of its solvency ratio 2.

One of the measures that can be taken is to adapt its reinsurance strategy, because in this
new context reinsurance is even more than before a powerful tool of capital management.

Under the old rules, Solvency 1, the impact of reinsurance was relatively moderate. Indeed,
on the one hand the non-proportional treaties had no significant impact and as for proportional
treaties, they were taken into account only up to 50 % of transfer pricing in "non -life". Under
Solvency 2, reinsurance is particularly development and contribute without limit to improve the
solvency margin. Thus the implementation of the new regulations, the reinsurance has become,
in addition to its risk management tool, a real tool for managing capital in the long term.

Therefore this report aims to develop firstly a model in standard formula and a partial
internal model, adaptable to non-life insurance companies with both proportional and non -
proportional reinsurance to offer reinsurance solutions optimizing the capital gain and the stra-
tegic objectives of the company.

To measure the impact of this decision, we have an actuarial modeling software, Risk Explo-
rer. The steps of this optimization are :

• clear identification of objectives, constraints and the risk profile for the optimization pro-
gram ;
• Determination of the number of simulations we have to perform ;
• Implementation of a pricing method by simulation on non-proportional reinsurance trea-
ties ;
• Optimization by business line, not "global".

For non-proportional treaties, the methodology is presented in the following form :


• Study of the distribution of individual claims covered by the treaty ;
• Determination of retention levels and capacity to test and the step used for test ;
• Comparison of different treaties by varying the retention and capacity.
The result of this process a list of treaties respecting the constraints set and can be potential
solutions to the reinsurance program. We must further analyze these treaties to determine that
(or those) maximizing the objective function.

For proportional treaties, a slightly different approach is adopted, and which will be descri-
bed in the dissertation coprs

6
Thus, this dissertation presents an optimization process of non-proportional and propor-
tional reinsurance. However we remain aware, there is still a non-modeled part (counteparties
bargaining power, treaty’s avaibility on the market)

Keywords : Solvency 2, Standard formula,Partial internal model, solvency capital require-


ment (SCR), Non-proportional reinsurance, proportional reinsurance,Risk appetite , arbitrage
and optimizing reinsurance strategies.

7
Note de synthèse

Mots clés : Solvabilité 2, Formule standard, Modèle interne partiel, capital de solvabilité
requis (SCR), réassurance non-proportionnelle, réassurance proportionnelle, appétence au risque,
arbitrage et optimisation de réassurance.

Contexte :

La mise en place de Solvabilité 2 a permis aux assureurs d’entrer dans une nouvelle ère. Alors
qu’auparavant, la solvabilité ne représentait en général pas une préoccupation majeure, elle est
devenue aujourd’hui un enjeu fondamental de pilotage des entreprises. Pour le management, cela
signifie qu’il convient de mettre en place, en amont, une gestion fine et dynamique de son ratio
de solvabilité.
L’une des mesures qui peut être prise est d’adapter sa stratégie de réassurance, car dans ce nou-
veau contexte la réassurance devient encore plus qu’avant un puissant outil de capital manage-
ment. Sous l’ancienne réglementation, Solvabilité 1, l’impact de la réassurance était relativement
modéré. En effet, d’une part les traités non-proportionnels n’avaient pas d’impact significatif et
quant aux traités proportionnels, ils n’étaient pris en compte uniquement jusqu’à 50% du taux
de cession en "non-vie". Sous Solvabilité 2, la réassurance est particulièrement mise en valeur et
contribue sans limite à l’amélioration de la marge de solvabilité. Ainsi avec la mise en place de la
nouvelle réglementation, la réassurance est devenue, outre un outil de pilotage de ses risques,
un véritable outil de gestion du capital à long terme.

Problématique :

En plus de la réassurance proportionnelle, la non-proportionnelle joue désormais un rôle si-


gnificatif et devient un outil puissant de contrôle et de gestion du capital. L’étude de son impact
sur les indicateurs de solvabilité et sur le bilan prudentiel permet aux entreprises d’assurance
non-vie d’évaluer les gains liés à la mise en place d’un tel dispositif. À cela s’ajoute la question
de l’arbitrage. Auparavant, il était essentiellement effectué entre le niveau de cession du risque
et le coût de celle-ci. Désormais, cette réflexion est intensifiée par l’introduction d’un nouveau
facteur de décision : le gain en capital.

L’objectif du mémoire est donc de modéliser une compagnie d’assurance en formule standard,
puis en modèle interne partiel, afin de déterminer des solutions de réassurance optimisant le gain
en capital tout en respectant les objectifs stratégiques de la compagnie.

Démarche :

Modélisation sous Formule standard

Les différentes étapes de la création du modèle en Formule standard sont les suivantes :

• Détermination des caractéristiques de la compagnie d’assurance non-vie ;

• Construction et projection des triangles de charge et de paiement ;

• Détermination du SCR initial ;

8
• Application de structures de réassurance et observation des impacts sur les SCR ;

Limites de la formules standard

L’inadaptation de la formule standard à la réassurance non-proportionnelle ainsi que l’ab-


sence d’une approche simulatoire du modèle en Formule standard, nous ont conduit à développer
un modèle interne partiel.

Modélisation sous Modèle interne partiel

Les différentes étapes du développement du Modèle interne partiel sous le logiciel Risk ex-
plorer sont les suivantes :

• Calibrage de la sinistralité (attritionnelle, grave, catastrophique) pour chacune des LoB ;

• Modélisation du risque prime et CAT ;

• Modélisation du risque de réserve ;

• Application de structures de réassurance et observation des impacts sur les SCR.

Développement du programme d’optimisation :

Les différentes étapes réalisées pour le développement du programme d’optimisation sont les
suivantes :

• Définition du cadre d’appétence au risque ;

Dans le cadre de l’étude, nous avons définis 2 profils de risque :

– Averse au risque : La compagnie souhaite minimiser son exposition, et donc est prête
à faire d’avantage de réassurance ;
– Risquophile : La compagnie est prête à prendre d’avantage de risque, et donc à moins
se couvrir.

Chacun de ces deux profils, va être caractérisé par 2 caractéristiques qui vont correspondre
aux contraintes du programme d’optimisation.

• Les contraintes ;

– Un seuil de résultat net moyen de réassurance sous lequel l’assureur ne souhaite


pas passer, pour chacune des LoB ;
– Un seuil de quantile à 99,5% de la distribution de la charge nette sous lequel l’assureur
souhaite passer, pour chacune des LoB.

• Détermination de l’objectif ;

L’intérêt a été porté sur le gain en capital qu’apporte la réassurance, et plus précisément
sur la rentabilité d’une structure de réassurance, qui sera décrite par le ratio gain en
SCR sur résultat cédé moyen.
Ainsi, l’objectif est de déterminer la structure de réassurance donnant le meilleur ratio
gain en SCR sur résultat cédé moyen tout en respectant les contraintes précédentes.

Nous avons fait l’hypothèse de regarder exclusivement le gain en SCR "souscription non-
vie", et non pas le gain sur le SCR total. Cette hypothèse permet d’évaluer plus justement
les impacts de la réassurance, car après la phase d’agrégation des différents SCR, les im-
pacts se retrouvent "dilués".

9
• Méthodologie d’optimisation ;

La méthodologie d’optimisation mise en place, est un mécanisme d’optimisation progressif,


consistant à déterminer LoB par LoB les valeurs optimales des paramètres des différents
traités considérés. Il en résulte des optimums pour chacune des LoB.

• Les paramètres à optimiser ;

Pour les traités "non-proportionnels" (traité en excédent de sinistres et Stop-Loss), on re-


tient comme paramètre la rétention et la capacité, qui sont les paramètres les plus
représentatifs de ces traités. On considère dans le cadre de l’étude, des traités avec des
reconstitutions gratuites et illimités.
Pour les traités proportionnels, on considère le taux de cession comme paramètre à opti-
miser.

• Nombre de simulations à effectuer ;

Cette problématique "temps-machine" sur le temps nécessaire pour faire tourner un mo-
dèle, est encore un enjeu crucial et déterminant pour les assureurs, qui peuvent mettre des
jours à faire tourner leurs modèles les plus complexes. Comme nous allions être amené à
réaliser un très grand nombre de tests, il était capital de réduire au maximum le temps
nécessaire pour faire tourner le modèle en diminuant le nombre de simulations effectuées,
tout en gardant un niveau de précision satisfaisant. Pour justifier cette démarche, la mé-
thodologie mise en place consiste à observer la stabilité des différents indicateurs que l’on
utilise, afin d’en déduire à partir de combien de simulations on obtient un résultat stable.

• tarification des traités non-proportionnels ;

Principales conclusions :

Pour un niveau de rétention fixée il existe un unique niveau de capacité permettant de


maximiser le ratio gain SCR sur le résultat cédé moyen.
Par exemple, pour des traités non proportionnels de rétention 35 Me et de capacité allant
de 100 à 700 Me, nous observons les résultats suivants :

10
Figure 1 – Évolution du ratio "gain en SCR sur résultat cédé moyen" avec application d’un traité XS de rétention
35 M e et capacité variable

On observe que le ratio « gain en SCR/résultat cédé moyen », va avoir tendance à augmenter
avec l’extension de la capacité du contrat. Par contre, comme pour le quantile, à partir d’un
certain seuil il n’est plus optimal d’augmenter la capacité du traité. Il semblerait qu’à partir d’un
seuil la hausse tarifaire liée à l’agrandissement de la capacité n’apporte pas ou peu de gain en
SCR supplémentaire. On peut aussi remarquer un "creux important" après la premier pic (en
partant de la droite du graphique), traduisant une chute du ratio. Cette baisse peut s’expliquer
que le passage d’un niveau de capacité à l’autre à entraîner un gain en SCR relativement faible
par rapport au coût nécessaire pour l’acquisition du traité.
Même si d’un niveau de rétention à l’autre, l’aspect du graphe peut changer on retrouve néan-
moins les caractéristiques décrites précédemment.

Impact de la réassurance proportionnelle :

On considère un traité en quote-part s’appliquant à la suite d’un traité en excédent de


sinistre. Le taux de cession du traité QP s’applique sur les montants nets de la réassurance XS
de la manière suivante :

M ontant cédé QP = (M ontant brut de réassurance − montant cédé XS) · T aux de cession

Nous décidons alors d’analyser l’optimalité de différentes stratégies de réassurance compo-


sées d’un traité XS suivis d’un traité quote-part avec des taux de cession de 10% et 50%.

Par exemple, pour une rétention de 8 Me et une capacité variable, on observe les
résultats suivants :

11
Figure 2 – Impact de l’ajout d’un traité en quote-part sur le quantile à 99,5% de la charge nette et le résultat
net moyen

On constate sur ce graphique que l’ajout de la quote-part permet de diminuer de manière


significative, d’une part le quantile à 99,5% de la charge nette et de l’autre le résultat net
moyen. Ces deux indicateurs sont affectés de la manière suivante :

Pour une quote-part avec un taux de cession de θ :

Quantile 99, 5%Après quote−part = Quantile 99, 5%avant quote−part · (1 − θ)

Le même raisonnement s’applique pour le résultat net moyen.


La quote-part a donc un impact sur le volume. Ces résultats se généralisent pour tous les niveaux
de rétention.
Maintenant, nous allons considérer une représentation graphique «Ratio gain en SCR sur
résultat cédé/Quantile à 99,5% ». Pour un niveau de rétention de 4 Me et une capacité
variable, on a les résultats suivants :

Figure 3 – Impact de l’ajout d’un traité en quote-part sur le ratio "gain en SCR sur résultat cédé moyen

Globalement, on observe ici que l’ajout de la quote-part a rarement un impact positif sur le
ratio, par rapport à la situation sans quote-part. Pour les deux niveaux de quote-part, on observe
un maintien du niveau de ratio compris entre 1,6 et 1,7. Ces niveaux de ratios équivalant entre
les deux cessions différentes, s’explique par le fait que "l’économie" de résultat cédé moyen pour
la cession à 10% (vis à vis de celle à 50%) se compense par le gain en SCR réalisé qui lui sera
plus faible pour la cession à 10%.

Si on se concentre sur le couple (rétention, capacité) : (4 Me,15 Me) (points indiqués sur le
schéma avec les étiquettes) qui correspond à la solution du programme d’optimisation pour le
profil averse au risque, on se rend compte que l’ajout d’une quote-part n’a pas d’impact positif

12
sur l’indicateur. Ces résultats se généralisent pour tous les niveaux de rétentions et de capacité.

Ajout d’un traité Stop-Loss

Enfin, nous avons testé de nombreux traités Stop-Loss, s’appliquant d’une part sur la charge
nette issue du traité en excédent de sinistres observée précédemment, mais aussi sur la charge
attritionnelle de la LoB. Les principales conclusions tirées sur ce point sont les suivantes : D’une
part à même niveau de plafond, différents traités Stop-loss donnent des niveaux de ratio simi-
laires. De plus, on observe qu’indiscutablement l’ajout de ce type de traité a un impact
positif sur l’indicateur considéré.

Figure 4 – Évolution du ratio « gain en SCR sur résultat cédé » selon le niveau de rétention et de capacité du
traité Stop-Loss pour le profil « averse au risque ». La droite bleue représente le niveau de ratio de la stratégie
précédente sans le traité Stop-Loss.

Des résultats similaires ont été observés pour l’autre profil de risque.

Limites de l’étude et axes d’amélioration :

La principale limite du modèle est liée au logiciel utilisé, Risk explorer. En effet, dans le cadre
de l’optimisation, il était compliqué de considérer plus de 2 paramètres en simultané. Dans cette
situation, il aurait été nécessaire d’observer et de tester de très nombreuses combinaisons de
ces paramètres dans l’espoir d’obtenir un résultat cohérent. Cette problématique était d’autant
plus renforcée du fait qu’il n’était pas possible d’automatiser via le logiciel, les combinaisons a
effectuer. Par conséquent, tout devait se faire manuellement. De plus, pour chaque simulation
à tester, il était nécessaire de faire tourner deux fois le modèle. Une première fois, pour effectuer
la tarification des traités et enfin une seconde pour obtenir les indicateurs désirés. Ainsi considé-
rer plus de 2 paramètres en même temps était une méthodologie qui ne pouvait être appliquée
justement, car bien trop chronophage et laborieuse.

Une autre limite de l’étude, est le "raffinement" des couples solutions (rétention,capacité)
obtenues. En effet on considère un pas de test discret (et non pas un pas continu) dans
les tests des niveaux de rétention et de capacité. Même si un premier raffinage a été effectué, il
serait très probablement possible de trouver une solution encore plus précise.

Enfin, il reste toujours une partie non modélisable (Pouvoir de négociation entre les deux
partis ainsi que la disponibilité des traités sur le marché).

13
De la méthodologie d’optimisation développée, il résulte des optimums "locaux", c’est
à dire des optimums LoB par LoB. Ainsi lorsqu’on souhaite, on obtenir une vision globale à
l’échelle de la compagnie, (c’est à dire une vision inter-LoB), on a donc une combinaison
d’optimums "locaux" , et non pas un optimum "global" a proprement parlé, qui sont de
toute évidence deux choses distinctes.

La seconde piste de travail pourrait être de tester de nouvelles structures de réassurance et


d’autres agencements entre les différents types de traités dans l’attente d’obtenir une solution
plus optimale.

Pour aller plus loin :

Pour aller plus loin, on pourrait approfondir les 3 points suivants :

• Stratégie de réassurance
Implémenter un algorithme plus simple, pour éviter d’avoir à effectuer de très nombreux
tests afin de converger plus rapidement vers la solution optimale.

• Fiscalité
L’existence d’un arbitrage sur la fiscalité : le mécanisme de réassurance, permet de réaliser
un gain fiscal. Un étude plus approfondie de ce phénomène pourrait être intéressante.

• Distribution de dividendes
Le taux de dividende est un élément qui pourrait être pris en considération dans l’opti-
misation. En effet, si une compagnie a des objectifs très stricts et des actionnaires exigeants,
un conflit d’intérêt se pose. Si la compagnie fait davantage de réassurance cela améliora
sa solvabilité, mais cela aura aussi comme incidence de diminuer en moyenne son résultat
et par conséquent les dividendes distribués.

Enfin l’étude pourrait être étendue à une compagnie d’assurance ayant une activité vie.

14
Summary

Keywords : Solvency 2, Standard formula,Partial internal model, solvency capital require-


ment (SCR), Non-proportional reinsurance, proportional reinsurance,Risk appetite , arbitrage
and optimizing reinsurance strategies.

Context :

The implementation of Solvency 2 has allowed insurers to enter a new era. Whereas pre-
viously, solvency generally not represented a major concern, it has now become a fundamental
issue of corporate control. For management this means should be put in place, upstream, a fine
and dynamic management of its solvency ratio.
One of the measures that can be taken is to adapt its reinsurance strategy, because in this new
context Reinsurance is even more than before a powerful tool emph capital management. Under
the old rules, emph 1 Solvency, the impact of reinsurance was relatively moderate. Indeed, on
the one hand the non-proportional treaties had no significant impact and as for proportional
treaties, they were taken into account only up to 50 % of transfer pricing in emph "not -life".
Under emph Solvency 2, reinsurance is particularly development and contribute without limit
to improve the solvency margin. So with the introduction of the new regulations, the textbf
reinsurance has become, in addition to its risk management tool, a real tool for managing capital
in the long term.

Problematic :

In addition to reinsurance proportional, the non- proportional now plays a significant role
and becomes a powerful tool to control and capital management. The study of its impact on in-
dicators solvency and prudential balance sheet allows non-life insurance companies to assess the
gains related to the establishment of such a device. Added to this is the question of arbitration.
Previously, it was essentially made between the level of transfer of the risk and the cost. Now,
this reflection is intensified by the introduction of a new deciding factor : the capital gain.

The purpose of the memory is to model an insurance company in standard formula, then
partial internal model to determine reinsurance solutions optimizing the capital gain while mee-
ting the strategic objectives the company.

Step :
Modeling in Standard Formula

The different stages of the creation of the model standard formula were as follows :

• Determining the characteristics of the non-life insurance company ;


• Construction and projection of triangles of charge and payment ;
• Determination of initial SCR ;
• Application of reinsurance structures and observation of impacts on SCR ;

Limits of the Standard Formula

15
the inadequacy of the standard formula to non-proportional reinsurance as well as the absence
of simulatoire model approach in standard formula, have led us to develop a partial internal model
.
modeling of the partial internal model

The different stages of development of the emph partial internal model in the software Risk
explorer are :
• Calibration fo claims (attritional, serious, catastrophic) for each LoB ;
• Modelling risk premium and CAT ;
• Modelling risk reserve ;
• Application of reinsurance structures and observation of impacts on SCR.
Development of the optimization program :

The different steps performed for the development of the optimization program are :
• Setting the framework appetite for risk ;

As part of the study, we have defined two risk profiles :


– Averse to risk : The company wants to minimize exposure, and is ready to reinsurance
advantage ;
– Risquophile : The company is ready to take advantage of risk, and therefore less cover.
Each of these two profiles, will be characterized by two features which will correspond to
the constraints of the optimization program.
• constraints ;

– determining a threshold of textbf average net result of reinsurance under which the
insurer does not wish to go ;
– determining a threshold of quantile 99.5 % of the distribution of the net load below
which the insurer wishes to go, for each LoB.

• Determination of the goal ;

The interest has been focused on the capital gain brings reassurance, and more specifi-
cally on profitability of reinsurance structure, which is described by the ratio gain SCR
on average yielded results.

Thus, the goal is to find the best ratio gain SCR sold on average result so that the average
net technical result and quantile 99.5 % of the net charge will not exceed their thresholds
respectively.

We hypothesized watch the gain SCR only for the SCR "non-life underwriting", and not
the gain on the total SCR. This assumption allows to evaluate more precisely the impact
of reinsurance, because after the aggregation phase of the different SCR, the impacts are
found "diluted".

• Optimization Methodology ;

The optimization methodology implemented, is a progressive optimization mechanism of


determining LoB LoB by the optimal parameter values of the various treaties considered.
The result is optimum for each of the LOB.

16
• parameters to optimize ;

For "non-proportional" treaties (excess of loss and Stop-Loss), is retained as parameters


retention and capacity, which are the most representative parameters of these treaties.
It is considered as part of the study, treaties with Free and unlimited reconstructions.
For proportional treaties, we consider the transfer rate.

• number of simulations to be performed ;

This problematic "machine time" on the time needed to run a model, is still a crucial and
defining issue for insurers, which can take days to run their most complex models. As we
were being asked to carry a large number of tests, it was important to minimize the time
required to run the model by reducing the number of simulations, while maintaining a
satisfactory level of precision.To justify this approach, methodology implementation is to
observe the stability of the indicators that are used to derive from how many simulations
we obtain a stable result.

• pricing of non-proportional treaties ;


Main conclusions :

For a fixed level of retention there is a unique level of capacity to maximize the ratio emph
SCR gain on the result given way.

For example, for non-proportional 35 million and retention capacity from 100 million to 700
million, we see the following results :

Figure 5 – evolution of the ratio "SCR gain on average yielded results" with application of a treaty XS retention
35M e and variable capacity

It is observed that the ratio "gain in SCR / result yielded average", will tend to increase with
the extension of the contract capacity. By cons, as quantile, from a certain point it is no longer
optimal to increase the capacity of the treaty. It would seem that from a threshold the price
increase related to the expansion of capacity does not provide or little gain additional SCR. One
can notice a "large hollow", reflecting a drop in the ratio. This decrease can be explained that
the transition from one level of capacity to the other driving a gain in relatively small SCR com-
pared to the cost required for the acquisition of the Treaty. Although a retention level to another,

17
the appearance of the graph can change is nevertheless found the characteristics described above.

Impact of proportional reinsurance

Consider a quota share treaty applying to the result of a treaty excess of loss. QP treaty of
cession rate is applied to the net amount of the reinsurance XS follows :

Amount sold QP = (gross amount of reinsurance−amount transf ered XS)·transf er rate QP

We decide to analyze the optimality of various reinsurance strategies consist of a treaty XS


followed by a share treaty with 10 % transfer rate and 50 %.

For example, for a retention 8M e and a variable capacity, the following results were
observed :

Figure 6 – Impact of the addition of a treaty QP on quantile 99.5 % of the net charge and the average net
income

We see in this chart that the addition of the share reduces significantly the one hand quan-
tile 99.5 % of the net charge and the other the average net income. Both indicators are
assigned as follows :

For a share with a transfer rate of theta

Quantile 99.5%Af ter = shareQuantile 99.5%bef ore share · (1 − theta)

The same applies to the average net income.


therefore the share has an impact on the volume. These results generalize for all retention levels.

Now let’s consider a graphical representation "Ratio "SCR gain on average yielded results"
/ Quantile 99.5 %." For a retention level of 4M e and variable capacity, we have the following
results :

18
Figure 7 – Impact of the addition of a treaty QP on the ratio "SCR gain on average yielded results"

Overall, here we see that the addition of the QP rarely has a positive impact on the ratio,
compared to the situation without QP. For both levels QP, there is a maintenance level ratio
between 1.6 and 1.7. These levels equivalent ratios between the two different sales is explained
by the fact that "the economy" means yielded results for the sale to 10 % (with respect to the
50 %) is compensated by the gain SCR realized that it will be lower for the sale to 10 %.

If we focus on the couple (retention,capacity) : (4M e, 15M e) (points indicated on the


chart with labels) which corresponds to the solution of the optimization program for profile risk
averse, we realize that the addition of a QP has no positive impact on the indicator. These
results generalize to all levels of retention and capacity.

Adding a treaty Stop-Loss

Finally, we tested many treaties Stop-Loss, applying on the one hand on the net charge of the
treaty excess of loss previously observed, but also on the attritional charge. The key findings on
this point are as follows : Firstly for a same ceiling level, various treaties Stop-loss give similar
levels of ratio. Moreover, we observe that adding this treaty has a positive impact on the
observed indicator.

Figure 8 – Evolution of the ratio "gain on SCR result yielded" according to the retention level and Stop-Loss
Treaty ability to profile "risk averse". The blue line represents the level of the previous strategy ratio without the
treaty Stop-Loss.

19
Similar results were observed for the other risk profile.

Limits of the study and areas for improvement

The main limitation of the model is related to the software used, Risk explorer. Indeed, in the
context of optimization, it was difficult to consider more than 2 parameters simultaneously. In
this situation, it was necessary to observe and test numerous combinations of these parameters
in the hope to get a consistent result. This problem was particularly reinforced by the fact that
it was not possible to automate via software, combinations has done. Therefore, everything
must be done manually. In addition, for each simulation test, it was necessary to run the mo-
del twice. The first time, to make the pricing of treaties and finally a second to get the desired
indicators. So consider more than 2 parameters simultaneously was a methodology that could
be applied just as well too time-consuming and laborious.

Another limitation of the study is the "refining" of the solutions couples (retention capacity)
obtained. Indeed it is considered a discreet step (and not continuous step) in testing levels
of retention and capacity. Even if a first refining was carried out, it would probably be possible
to find an even better solution.

Finally, there is always a non-modeled part (bargaining power between the two parties and
the availability of the treaties on the market).

The optimization methodology developed, it follows optimum "local", ie the optimum LoB
by LoB. Thus, when desired, obtain a global vision across the company (ie inter-vision LoB)
So we have a combination of "local" optimums, and not a "global" optimum, which are
obviously two separate things.

The second line of work could test new reinsurance structures and other arrangements bet-
ween different types of treaties in order to obtain a more optimal solution.

To go further

To go further, we could develop the following 3 points :

• Reinsurance strategy
Implement a simpler algorithm, to avoid having to carry out many tests in order to converge
more quickly to the optimal solution.

• Taxation
The existence of an arbitration on taxation : the reinsurance mechanism allows for a tax
gain. A more in-depth study of this phenomenon could be interesting.

• Distribution of dividends
The dividend rate is an element that could be taken into consideration in optimization.
Indeed, if a company has very strict objectives and demanding shareholders, a conflict of
interest arises. If the company does more reinsurance it will improve its creditworthiness,
but it will also have the effect of lowering its earnings on average and consequently the
dividends distributed.

Finally, the study could be extended to an insurance company with a life activity.

20
Remerciements

Avant toute chose, je tiens à exprimer ma grande gratitude à Monsieur Emmanuel Dubreuil,
associé chez Pwc, pour m’avoir donné l’opportunité de réaliser mon mémoire d’actuariat au sein
de l’équipe RVMS de Pwc. Je le remercie également pour sa disponibilité, son expertise ainsi
que ses précieux conseils et ses nombreuses références en la matière.

Je souhaite ensuite adresser mes remerciements à Christelle Andriantavy et Gabrielle Terré,


pour leurs suivis continus, leurs conseils avisés ainsi que leurs corrections régulières tout au
long de l’élaboration de ce mémoire. Un grand merci aussi à Amir Kamal, pour son expertise
complémentaire en réassurance.

Mes remerciements s’adressent également à mon référent universitaire, Monsieur Pierre Car-
daliaguet, pour sa disponibilité, ainsi que pour le temps consacré à la relecture de mon mémoire.

En dernier lieu, j’adresse des remerciements particuliers à toute l’équipe RVMS, ainsi qu’à
leurs dirigeants pour le partage de leurs connaissances tout au long du stage, mais aussi pour
leurs accueils chaleureux et pour tout ces très bons moments passés en leur compagnie.

21
Introduction

L’implémentation de la nouvelle réglementation Solvabilité 2 en janvier 2016 à destination


du secteur de l’assurance, représente une mutation de l’entreprise d’assurance en profondeur,
en impactant aussi bien son fonctionnement, que sa stratégie. En particulier, ce nouvel environ-
nement réglementaire bouleverse les exigences en solvabilité. C’est pourquoi, il est d’un enjeu
capital pour les acteurs du marché de l’assurance de définir la position à adopter face à Solva-
bilité II.

L’une des mesures qui peut être prise est d’adapter sa stratégie de réassurance, car dans
ce nouveau contexte la réassurance devient encore plus qu’avant un puissant outil de capital
management.

Le mécanisme de réassurance permet à une compagnie d’assurance de transférer une partie


du risque auquel elle est confrontée de par son activité. Le coût de cette protection implique
néanmoins un arbitrage pour la compagnie, qui devra être en mesure de déterminer la structure
"optimale" selon un certain nombre de critère à déterminer.

Sous l’ancienne réglementation, Solvabilité 1, l’impact de la réassurance était relativement


modéré. En effet, celle-ci visait essentiellement à réduire la volatilité des sinistres et à rendre
plus homogène la communauté de risques conservés par la cédante. Elle a également la capacité
de réduire le besoin en capital. Cependant, cet avantage était limité à la réassurance proportion-
nelle et à hauteur, uniquement, de 50% des primes et de 15% des réserves. Quant aux traités
"non-proportionnels", ils n’avaient pas d’impact significatif.
Sous Solvabilité 2, la réassurance est particulièrement mise en valeur et contribue sans limite à
l’amélioration de la marge de solvabilité. En effet, une dimension supplémentaire est accordée à
la réassurance non-proportionnelle et à son impact sur le niveau de fonds propres réglementaires,
puisque les cédantes peuvent désormais comptabiliser intégralement ce transfert de risque. Les
spécifications techniques de calcul sont explicitées dans la nouvelle Directive.
L’étude de son impact sur les indicateurs de solvabilité et sur le bilan prudentiel permet aux
entreprises d’assurance non-vie d’évaluer les gains liés à la mise en place d’un tel dispositif.
À cela s’ajoute la question de l’arbitrage. Auparavant, il était essentiellement effectué entre le
niveau de cession du risque et le coût de celle-ci. Désormais, cette réflexion est intensifiée par
l’introduction d’un nouveau facteur de décision : le gain en capital.

L’objectif du mémoire, va donc consister à développer un modèle adaptable aux compagnies


assurant des risques non-vie, à partir duquel, nous déterminerons les caractéristiques des traités
de réassurance optimisant le besoin en capital du point de vue de la cédante.

Afin de réaliser cette étude, nous avons en grande partie utilisé le logiciel Risk explorer, qui
se trouve être parfaitement adapté pour la mise en place de ce genre de modèle. En effet, Risk
explorer est un logiciel de modélisation des risques destiné au secteur de l’assurance et de la
réassurance des biens/IARD.

Pour mener à bien notre étude, nous commencerons tout d’abord par décrire la méthodo-
logie adoptée pour modéliser une compagnie d’assurance spécialisée dans l’activité "non-vie" (à
la fois l’actif et le passif) qui soit la plus représentative du marché français. La modélisation se
fera en formule standard, la formule générique définie par l’EIOPA pour la détermination des

22
exigences en solvabilité. Nous appliquerons diverses structures de réassurance, associant à la fois
réassurance proportionnelle et non-proportionnelle, sur le modèle afin d’observer les impacts sur
les exigences en solvabilité et le ratio de solvabilité.

Néanmoins dans le cadre du mémoire, l’application du modèle en formule standard a ra-


pidement atteint ses limites, en particulier liées à l’inadaptation de la formule standard à la
réassurance non-proportionnelle.

Ainsi dans une seconde partie, la compagnie d’assurance sera développée en modèle interne
partiel via le logiciel Risk explorer.
Comme pour le premier modèle, diverses structures de réassurance, associant à la fois réassu-
rance proportionnelle et non-proportionnelle, seront testées afin d’observer les impacts sur les
exigences en solvabilité.

Enfin dans la dernière partie, un programme d’optimisation avec contraintes sera développé
et nous observerons l’influence de la politique d’appétence au risque sur les solutions optimales.

23
Première partie

La construction de la compagnie
d’assurance virtuelle en Formule
standard

24
Chapitre 1

Présentation du cadre réglementaire

Préambule à la première partie :

Cette partie est consacrée au développement des différentes étapes qui ont été réalisées pour
la création de la compagnie d’assurance virtuelle non-vie utilisée dans le cadre du mémoire. Nous
avons décidé de modéliser une compagnie virtuelle, dans l’objectif de pouvoir travailler sur un
cas générique qui soit à la fois représentatif du marché, sans être trop complexe.

1.1 Définition
La solvabilité d’une compagnie d’assurance est sa capacité à répondre de ses engagements
envers les bénéficiaires des contrats. La principale difficulté du secteur est l’inversion du cycle
de production. En assurance, on fixe le prix du produit (ie. la prime d’assurance) avant que
son coût (ie. le montant de la prestation versée) ne soit connu.

1.2 Contexte et mise en place


C’est dans le courant des années 70, que la notion d’exigence de solvabilité apparaît pour la
première fois dans le domaine de l’assurance. Mais il faut attendre l’année 2002, pour l’applica-
tion réglementaire dans le secteur, avec le lancement officiel de Solvabilité I.

C’est en novembre 2009 qu’a été adoptée par le Parlement Européen, la nouvelle réglementa-
tion dans le domaine des assurances : Solvabilité II. Juridiquement, cette nouvelle reglementation
a été mise en place par la Directive 2009/138/CE du Parlement européen et du Conseil, mo-
difiée en dernier lieu par la directive 2014/51/UE du Parlement européen et du conseil du 16
mars 2014 (Omnibus II). Cette directive a été transposée en droit local (ie. dans tous les pays
européens). En France, cela signifie que certains articles du Code des assurances ont été ajoutés,
d’autres modifiés ou encore supprimés.

Solvabilité II a pour objectif principal la meilleure adaptation des fonds propres exigés des
compagnies d’assurance et de réassurance face aux risques auxquels elles sont exposées dans leur
activité. Elle s’inspire des réformes Bâle II et III qui ont lieu dans le secteur bancaire.

Initialement prévu en 2010, c’est seulement après une très longue et complexe phase d’implé-
mentation, que le 1er janvier 2016 Solvabilité II a été officiellement introduit au sein de toutes
les compagnies d’assurance et de réassurance à travers l’Europe (exception faite des entreprises
de petite taille avec moins de 5 M d’euros de primes qui restent sous l’ancien régime Solvabilité
I). Cette réforme a pour vocation de protéger la solvabilité de l’entreprise, mais aussi et surtout
de protéger les assurés.

Jusqu’au 31/12/2015, la réglementation en vigueur était Solvabilité I. Des faiblesses ont été
repérées dans ce cadre réglementaire, notamment :

25
– Une vision uniquement rétrospective du bilan (la solvabilité future repose sur des chiffres
historiques) plutôt qu’une approche économique ;

– Aucune motivation réelle à une analyse approfondie des risques ;

– Les exigences de capitaux ne traduisent pas les risques encourus par la compagnie, la
«culture du risque» dans les compagnies était encore peu ancrée dans les mentalités ;

– Hétérogénéité des règles de solvabilité d’un pays européen à l’autre.

1.3 Objectifs
Suite à ces constatations, il a été décidé de créer la nouvelle réglementation Solvabilité II
basée sur les principes fondamentaux suivants :

– Harmonisation des règles au sein de l’Union Européenne, mais aussi avec le secteur finan-
cier ;

– Promouvoir des bonnes pratiques de gestion des risques, et une meilleure communication
entre les régulateurs et les assureurs.

Les objectifs principaux clairement affichés avec la mise en œuvre de Solvabilité II, ont été
établis dès 1999 dans le document officiel de la Commission Européenne :

– Un cadre prudentiel européen harmonisé dans le secteur de l’assurance ;

– Une meilleure protection des assurés ;

– Un cadre prudentiel plus adapté aux risques réels pesant sur les compagnies d’assurance ;

– Un pilotage et gestion des risques ;

– Un traitement plus cohérent entre secteurs bancaire et assurantiel ;

– Une «approche tournée vers le futur», avec un point de vue économique sur le bilan (C’est-
à-dire basée sur la market value) ;

– L’exigence requise en capital est fonction du profil du risque de l’entreprise ;

– La prise en compte par les assureurs d’une grande diversité de risques (financier, technique,
opérationnel, stratégique, contrepartie. . . ) ;

– Création d’un marché de l’assurance européen et compétitif.

Ce projet, à la portée ambitieuse, peut sembler plutôt contraignant au premier abord pour
les entreprises en leur imposant de nombreuses règles, mais en réalité vécu positivement par les
assureurs. On peut citer entre autres :

– La réduction voire la suppression d’anciennes contraintes de régulation qui ne sont plus


nécessaires, encourageant les compagnies à mieux gérer leur activité ;

– Amélioration de la confiance des investisseurs dans le marché assurantiel, mais aussi de


celle des clients ;

– Accès à une allocation de capital optimale.

26
1.4 Description des piliers
Solvabilité II repose sur 3 piliers :

Figure 1.1 – Les trois piliers de Solvabilité 2

Le premier pilier définit le calcul des provisions techniques ainsi que les exigences quanti-
tatives en matière de fonds propres, le MCR et le SCR :

• Le SCR correspond au montant de fonds propres nécessaire pour éviter la ruine à l’horizon
1 an avec une probabilité de 99,5% ;

• Le MCR, peut être vu comme la borne inférieure du SCR. C’est le minimum de capital que
l’entreprise doit détenir en permanence, sous peine d’une sanction immédiate de l’autorité
de contrôle.

Le deuxième pilier s’intéresse d’une part au système de gouvernance :

• Introduction de l’organe d’administration de gestion et de contrôle (ou AMSB). La notion


d’AMSB a été transposée en droit français, et cet organe peut donc être :

– Le Conseil d’administration ;
– Le directeur général.

• Principe des quatre yeux et nécessité de désigner 2 dirigeants effectifs

• Introduction de fonctions clés (Audit, Actuariat, Gestion des risque, Conformité)

Le second pilier s’intéresse aussi à l’évaluation interne des risques et de la solvabilité (ou
ORSA : Own Risk and Solvency Assessment), processus introduit par l’article 45 de la directive
Solvabilité 2.
Il consiste pour les organismes d’assurance et de réassurance à mener une évaluation dans le
cadre de leur gestion des risques et de leur stratégie commerciale.
Cette évaluation porte sur 3 éléments :

• Le besoin global de solvabilité ;

• Le respect permanent des exigences de capital et des exigences concernant les provisions
techniques ;

• La mesure dans laquelle le profil de risque de l’entreprise s’écarte des hypothèses qui sous-
tendent le capital de solvabilité requis (SCR).

De plus ce pilier permettra aux autorités de contrôle de détecter à l’avance les entreprises
les plus à risques, et de leur imposer une marge de solvabilité supplémentaire : le capital add on.

Enfin, le 3ème pilier correspond aux exigences de divulgation et de transparence des infor-
mations relevant des 2 précédents piliers, au public (actionnaires, analystes, agences de notation)
mais aussi au régulateur.

27
1.5 Bilan prudentiel sous solvabilité II et prise en compte de la
réassurance
Au niveau du bilan de la compagnie d’assurance, la nouvelle réglementation Solvabilité 2
permet de passer d’un bilan avec une vision comptable à un bilan avec une vision économique
comme le reflète le schéma ci-dessous :

Figure 1.2 – Évolutions du bilan entre la réglementation Solvabilité 1 et 2

1.5.1 Actif
L’arrivée de la nouvelle réglementation a considérablement changé la vision du bilan d’une
compagnie d’assurance, notamment en passant d’une vision rétrospective (principe du coût
historique) à une vision dite économique (principe de la valeur de marché ou fair value).

1.5.2 Passif
Provisions techniques
Conformément à l’article 77 de de la Directive 2009/138/CE, «la valeur des provisions tech-
niques est égale à la somme de la meilleure estimation et de la marge de risque»

P rovisions techniques = BE + risk margin

Best estimate : C’est aussi dans l’article 77 de de la Directive 2009/138/CE, qu’est défini
le calcul des provisions en vision Best Estimate : C’est «la moyenne pondérée par leur probabilité
des flux de trésorerie futurs, compte tenu de la valeur temporelle de l’argent [. . . ], calculée brute,
sans déduction des créances découlant des contrats de réassurance.»

Dans le bilan sous la réglementation Solvabilité 2, les BE apparaissent généralement bruts


de réassurance.

Ainsi le BE correspond à la somme du BE cédé au réassureur et du BE conservé par l’assureur

BEbrut = BEconservé + BEcédé

Par écriture comptable, on constate une augmentation de l’actif du bilan, correspondant à


la cession de réassurance. Cette créance doit se percevoir comme étant le BE cédé, corrigé d’un
ajustement dont l’objectif est de prendre en considération les pertes possibles d’un défaut de la
contrepartie. En effet, le mécanisme de réassurance n’induit pas un transfert au réassureur de la
responsabilité de l’engagement qui a été pris par l’assureur auprès de ses clients. Ainsi, en cas de
défaut du réassureur, c’est bien l’assureur qui devra assurer ses engagements auprès de ses clients.

D’après l’article 61 tiré du règlement délégué (UE) 2015/35, l’expression simplifiée de cet
ajustement se présente sous la forme suivante :

28
PD
AdjCD = −M ax((1 − RR). .D.BEcédé ; 0)
1 − PD
Avec,

P D : correspond à la probabilité de défaut de la contrepartie sur les 12 prochains mois

RR : représente un taux de recouvrement (fixé, RR=0,5)

D : correspond à la duration des montants recouvrables au titre des contrats d’assurances

BEcédé : correspond au Best Estimate cédé au(x) réassureurs

Naturellement, on a la relation suivante, entre les différents BE :

BEcédé = BEbrut − BEnet

Où BEbrut et BEnet correspondent respectivement au Best Estimate avant et après réassu-


rance.

Risk margin :

La risk margin vient s’ajouter au BE, et peut être perçue comme une marge de sécurité sup-
plémentaire au Best Estimate. Elle se calcule comme étant la somme des SCR futurs actualisés
en étant en hypothèse de run-off, que l’on multiplie par le coût du capital, qui correspond à la
part reversée aux actionnaires et fixée à 6%. Ainsi pour un CoC de 6%, cela signifie que pour
1e investi, un actionnaire récupère annuellement 0,06e. L’hypothèse de run-off, signifie qu’il
n’y plus de nouvelles affaires dans le portefeuille.

X SCRt
RM = CoC.
t>=0
(1 + rt+1 )t+1

Avec,

Coc : correspond au taux du coût du capital

SCRt : correspond au SCR pour l’année t

rt+1 : correspond aux taux d’intérêt sans risque pour l’échéance t+1 années.

Néanmoins, l’expression précédente étant légèrement complexe pour une évaluation pratique,
il existe des simplifications, décrites dans l’article 58 du règlement délégué (UE) 2015/35 et qui
seront utilisées dans le cadre du mémoire.

En t = 0, RM0 = CoC.k.D0 .BEL0

Elle est basée sur l’hypothèse de proportionnalité entre le BE et le SCR à n’importe


quelle date, c’est à dire SCRt = k.BELt

Avec,

D0 : correspond à la duration de l’engagement

29
k : correspond au coefficient de proportionnalité entre le SCR et le BE

Au final, on obtient donc l’équation suivante :

RM0 = CoC.D0 .SCR

Etant donné que la marge pour risque dépend du SCR, il en découle que celle-ci se retrouve
impactée par le dispositif de réassurance.

Fonds propres
Les fonds propres correspondent aux ressources dont dispose la compagnie.

On distingue le Solvency capital requirements (SCR), qui est le montant minimal ré-
glementaire que doit détenir l’assureur, auquel s’ajoute le "capital surplus" , correspondant à
l’excédent de fonds propres.

Le développement d’un montage de réassurance peut permettre à l’assureur de réduire l’ex-


position de ses fonds propres en diminuant la probabilitée le défaut.

De plus, une partie des fonds propres va être consommée par l’ajustement effectué au niveau
des provisions techniques à la charge du réassureur.

La réassurance dans Solvabilité II a un impact direct sur le besoin en capital, en permettant


d’avoir une réduction du SCR et donc d’améliorer le ratio de solvabilité (le rapport des fonds
propres sur le SCR). Ce gain en SCR s’explique par l’effet de levier dont bénéficie la réassurance
sous Solvabilité II. Ce point sera décrit plus en détail dans la partie consacrée à la mise en place
de la réassurance.

30
Chapitre 2

Implémentation de la "formule
standard"

Pour rappel, l’objectif de ce mémoire est de mesurer l’efficacité de différents programmes de


réassurance en terme de gain en SCR, puis de mettre en place un programme de réassurance
ainsi qu’une méthodologie permettant d’obtenir une structure optimale. Dans ce chapitre, nous
allons développer notre modèle en formule standard, qui est la formule générique proposée par le
régulateur, basée sur des hypothèses standards censées pouvoir s’appliquer pour tous les acteurs
du marché de l’assurance.

2.1 Présentation des caractéristiques de la compagnie d’assu-


rance virtuelle
Pour l’application pratique de notre étude, nous avons créé de toute pièce une compagnie
d’assurance, afin qu’elle soit la plus représentative possible des caractéristiques que présentent le
marché français de l’assurance non-vie. Pour cela, nous avons tout d’abord commencé à étudier
le marché français, afin de retenir les compagnies qui nous semblaient être les plus représenta-
tives, en possédant une activité qui soit diversifiée sans être non plus trop complexe pour notre
modélisation.

Nous avons retenu un échantillon de compagnies d’assurance dont les caractéristiques sont
relativement homogènes et représentatives du marché.

Pour notre étude, et toujours dans la finalité d’être au plus près de la réalité du marché,
nous avons utilisé les données du rapport FFA.

Le chiffre d’affaire total en assurance non-vie en France s’élève aux alentours de 50 milliards
d’euros. Nous avons décidé que notre compagnie virtuelle avait une part de marché de 3%, lui
offrant ainsi un chiffre d’affaire de 1,5 milliards d’euros.

Nous avons retenu les branches d’activités (Lob : Line of Business), les plus représentatives
des activités d’assurance Non Vie pour les compagnies françaises.

Comme il est défini dans l’annexe 1, des Actes Délégués sur Solvabilité 2, les lignes d’activité
retenues couvrent les engagements suivants :

La LoB 4 (Assurance de responsabilité civile automobile) couvre «les engagements d’assu-


rance couvrant toute responsabilité découlant de l’utilisation d’un véhicule à moteur terrestre
(y compris la responsabilité du transporteur).»

La LoB 5 (Autres assurances des véhicules moteurs) correspond aux «engagements d’assu-
rance couvrant tout dommage subi par les véhicules à moteur terrestres.»

31
La LoB 7 (Assurance Incendie et autre dommages aux biens) correspond aux «engagements
d’assurance couvrant tout dommage subi par les biens ne relevant ni de la LoB 5, ni de la 6
(MAT), par suite d’un incendie, d’une explosion, des forces de la nature y compris les tempêtes,
la grêle ou le gel, d’un accident nucléaire, d’un affaissement de terrain ou d’un autre événement
tel que le vol.»

La Lob 8 (Assurance de responsabilité civile générale) correspond aux «engagements d’as-


surance couvrant tous les domaines, sauf ceux des lignes d’activités 4 et 6.»

En se basant sur les chiffres du rapport de la FFA, le chiffre d’affaire de notre compagnie
virtuelle va se décomposer de la manière suivante entre les LoB : 26% sur la LoB 4, 34% sur la
LoB 5, 30% sur la LoB 7 et enfin 10% sur la 8.

On obtient ainsi l’état simplifié C1 de notre compagnie :

Figure 2.1 – État C1 simplifié de notre compagnie

2.1.1 Construction des triangles de paiement et de charge


La seconde phase de l’élaboration de la compagnie virtuelle porte sur la construction de ses
triangles de paiements ainsi que ceux de ses charges (nettes de recours et brutes de réassurance).
Les triangles contiennent la sinistralité (charges ou paiements) par année de survenance, mais
aussi par année de développement. A partir de ces informations, on peut être en mesure de
déterminer les cadences d’écoulement mais surtout les "coûts ultimes" des sinistres, et donc de
réaliser le provisionnement de la compagnie.
Pour cela, pour chacune des LoB nous avons sélectionné des triangles provenant des «candi-
dats» retenus, dans l’objectif d’obtenir les «triangles» de la compagnie virtuelle. Bien entendu
les données ont été anonymisées.

Pour avoir nos «propres triangles», il a été nécessaire de les retravailler de manière à rester
cohérent avec ce qui a été fait précédemment. C’est pourquoi, nous avons dû déterminer un
«facteur d’échelle». En effet, nous voulions que la sinistralité issue des triangles soit similaire
à celle de notre état C1.

Dans un premier temps, l’approche qui a été retenue pour ajuster nos triangles a été la
suivante :

• Nous nous sommes basés sur les montants des prestations versées (au titre de l’année
2014) quelle que soit l’année de survenance, pour les LoB qui nous concernent issues du

32
rapport FFA. Nous avons ensuite ajusté ces données en se basant sur le fait que la
compagnie virtuelle représente 3% du marché. Par rapport à nos triangles, ces montants
peuvent se voir comme étant la somme de la dernière diagonale (décumulée) du triangle.
Ainsi le coefficient d’ajustement pour chacun des triangles ne sera autre que le rapport
entre le montant de prestation «cible» et le montant de prestation réellement observé.

Illustration sur un exemple :


Triangle de paiement (net de recours et brut de réassurance) (en millions d’euros)

Supposons qu’ici, le montant de prestation cible est de 50 millions. Dans notre exemple, la
somme de la dernière diagonale, en décumulant est de 46 millions

Ainsi ici, notre coefficient sera


50
θ= ≈ 1, 09
46
Au final, le triangle retravaillé sera :

Néanmoins cette méthodologie présentait certaines limites, dans le sens où on perdait la


cohérence avec nos données initiales sur la sinistralité.

C’est pourquoi il a été nécessaire de réfléchir à une nouvelle approche.

La seconde méthodologie qui a été adoptée est la suivante :

Pour chacun des triangles retenus initialement, nous avons calculé pour chaque année calen-
daire (c’est-à-dire en observant les triangles par diagonale), la part de la charge de sinistralité
relative à l’année en cours (c’est-à-dire les éléments situés en première colonne) par rapport à la
somme de leurs diagonales respectives (correspondant à l’intégralité de la charge de sinistralité
sur l’année calendaire correspondante).

Pour chaque ligne d’activité, on observe les résultats suivants :

33
Figure 2.2 – Parts de la sinistralité relative à l’année en cours et de celle relatives aux années antérieures, par
rapport à la sinistralité totale sur l’année calendaire

Pour les lignes d’activités 5 et 7, on observe une sinistralité relative à l’année en cours im-
portante, qui illustre bien que ce sont des branches courtes, c’est-à-dire dont le déroulement
est rapide.

A l’inverse, pour la LoB 4, on observe une sinistralité relative à l’année en cours faible qui
illustre bien que c’est une branche longue.

Néanmoins, pour la LoB «responsabilité civile générale», on observe une sinistralité relative
à l’année en cours relativement élevée, par rapport aux attentes que l’on pouvait avoir, cette
ligne étant généralement longue.

Remarque : Les triangles considérés sont cumulés. Il donc important de décumuler les mon-
tants avant d’effectuer les calculs.

Puis, on applique les résultats obtenus précédemment (1ère ligne), aux sinistralités calen-
daires déterminées dans l’état C1.

On obtient les résultats suivants :

Figure 2.3 – Montant de la sinistralité relative à l’année en cours, pour chaque loB

Ensuite la méthodologie est globalement la même que la précédente :

Illustration avec un exemple :

Supposons que notre triangle initial retenu pour la LoB RC auto est le suivant :

Ainsi dans notre triangle «corrigé», on souhaiterait avoir 28, comme coefficient en bas du
triangle (à la place du 34). Par conséquent ici, notre facteur serait :
28
θ= ≈= 0, 82
34

34
On appliquerait ce facteur par la suite à tous les coefficients du triangle, pour obtenir notre
triangle de travail.
Néanmoins, comme avec la méthodologie précédente, on perdait aussi la cohérence avec nos
données initiales. En effet, sur certaines branches (par exemple en responsabilité civile générale),
on pouvait observer une forte évolution de la charge ultime d’une année de survenance à l’autre,
qui traduisait non pas une augmentation de la sinistralité mais davantage une augmentation du
portefeuille.

Finalement, il a été nécessaire de développer une troisième et dernière méthodologie afin de


répondre au mieux à nos objectifs.

Pour cela, on se base sur l’hypothèse que les 3 dernières années sont globalement les plus
représentatives.

L’objectif de cette méthode de réajustement est dans un premier temps de déterminer la


charge ultime des triangles initiaux, puis de déterminer le coefficient à appliquer sur ces der-
nières de telle manière à ce que le loss ratio S/P moyen sur les trois dernières années (pour
chacune des LoB) soit égal au loss ratio S/P déterminé initialement.

2.2 Projection des triangles


La projection des triangles a été réalisée à partir d’un outil interne pour Excel, qui fait des
calculs standards de chain-ladder. Cependant, une analyse plus poussée concernant les coeffi-
cients de développement à retenir a été réalisée, par rapport à une méthode de chain-ladder
standard où le calcul est explicité dans la formule ci-dessous. Cette analyse a pour objectif de
supprimer les coefficients anormaux, qui sont généralement associés à des années atypiques en
termes de sinistre.

Pour rappel, la méthode Chain-Ladder consiste à supposer que le comportement observé par
le passé de l’évolution des règlements sera similaire dans le futur.

Pour développer les triangles, on va calculer sur les données historiques pour chaque année
de développement le coefficient multiplicatif qui les a fait passer du montant de cette année de
développement à l’année de développement suivante.

Ces coefficients s’appellent facteurs de développements, et sont estimés par la formule sui-
vante :

PN −k
Si,k+1
λk = Pi=1
N −k
i=1 Si,k
Avec,
Si,j : le montant des sinistres survenus l’année i et réglés après j année de développement.
N : la durée maximale de la branche concernée.

Prenons l’exemple d’une branche auto de durée de 5 ans :

35
Après projection, on obtient le «triangle projeté» suivant :

Une fois la projection réalisée, nous avons pu déterminer précisément les cadences d’écoule-
ment pour chacune des LoB. Les cadences d’écoulement correspondent à la vitesse à laquelle les
sinistres sont intégralement pris en charge pour l’assureur. Pour des branches dites «courtes»,
telle que la LoB autres assurances des véhicules à moteur, les cadences sont très rapides.
En effet, ce type de sinistre est en général déclaré prestement par les assurés, et est facilement
évalué par les assureurs. Au contraire, pour les branches dites «longues», par exemple la «res-
ponsabilité civile automobile», il est beaucoup plus délicat d’évaluer correctement les montants
des sinistres pour les assureurs, ce qui explique les cadences «lentes».

Le tableau ci-dessous indique les cadences cumulées par année de développement pour cha-
cune des lignes d’activités retenues :

Figure 2.4 – Tableau des cadences de développement par LoB

Pour les LoB Assurance Incendie et autres dommages aux biens et Autres assurances des
véhicules à moteur, qui sont des branches typiquement courtes, c’est la méthode des paie-
ments qui a été retenue. C’est à dire que l’on va retenir les triangles des paiements pour la
méthode chain-ladder.

A contrario pour les LoB Responsabilité civile automobile et responsabilité civile générale, qui
elles sont des branches relativement longues, c’est la méthode des charges qui a été retenue.
Ici, ce sont donc les triangles des charges qui sont utilisés pour la méthode de chain-ladder.

Avec les projections, nous avons donc en notre possession les Best estimate de provisions
pour chacune des LoB. Le calcul du BE a été effectué de la manière suivante :

Une fois les projections des triangles réalisées, nous détenons les charges ultimes pour chaque
année de survenance. Puis, nous obtenons les PSAP (provisions pour les sinistres à payer) en
faisant les différences entre les charges ultimes et les éléments diagonaux pour chaque année de

36
survenance. Elles sont ensuite réparties dans le temps à l’aide des cadences d’écoulement, et
actualisées. L’actualisation a été effectuée en se basant sur les courbes des taux communiquées
par l’EIOPA : courbe des taux SWAP (Voir annexe A). Ainsi, la somme de ces flux actualisés
correspond au BE de réserve.

2.3 Détermination du SCR initial


La réglementation Solvabilité 2, a mis en place une nouvelle méthodologie en termes d’exi-
gence de solvabilité pour les compagnies, qui va leur imposer un certain niveau de fond propre,
le SCR (Solvency capital requirements)

2.3.1 Modalités de calcul


Les modalités de calcul se présentent sous deux formes :

D’une part la formule standard, proposée par l’EIOPA et qui est censée pouvoir être exploi-
table par n’importe quelle compagnie. Le principe général est de déterminer le niveau de fonds
propres à détenir aujourd’hui, de telle manière à avoir dans un an des fonds propres positifs
dans 99,5% des cas, à partir d’hypothèses de mesure et de corrélations des différents risques,
sans faire de projection de fonds propres.

L’approche en formule standard se décompose en trois étapes :

– Une cartographie des risques en 5 modules, eux-même divisés en plusieurs sous-modules


(voir figure 5 ci-dessous) ;
– Un calcul de capital pour chaque module et sous-module ;
– Une agrégation des capitaux à partir de matrices de corrélations linéaires imposées par les
textes de l’EIOPA.
Les compagnies d’assurance ont aussi la possibilité de développer un modèle interne total,
que l’entreprise doit développer elle-même afin de modéliser tous les risques. Le principe général
ici, est de déterminer une Value at Risk à 99,5% pour le risque de ruine économique de l’assureur
à horizon d’un an.

Entre les deux, il existe une autre modalité de calcul qui est le modèle interne partiel,
qui comme son nom l’indique consiste à modéliser uniquement une partie des risques, la partie
non-modélisée restant en formule standard. Après la formule standard, cette modalité sera en-
suite adaptée à notre compagnie. Actuellement aucune compagnie, n’est encore intégralement en
modèle interne (ce qui signifie que la formule standard est encore utilisée pour certains aspects).

Dans les faits, les assureurs les plus importants sur le marché optent pour l’option du modèle
interne. La première raison est qu’il reflète bien mieux leurs propres risques, la formule standard
étant calibrée avec des paramètres issus de statistiques moyennes observées sur le marché. La
seconde raison est l’optimisation de leur capital et par conséquent l’immobilisation du capital.
Le modèle interne doit être homologué par les autorités de contrôle.

Il est important de rappeler qu’il est nécessaire de devoir calculer les capitaux de solvabilité
requis pour notre compagnie d’assurance virtuelle dans différents cas.

En effet, dans un premier temps le calcul du SCR doit se faire brut de réassurance (on
part de l’hypothèse qu’à l’instant initial, la compagnie virtuelle ne dispose d’aucun programme
de réassurance) puis dans un second temps le calcul du SCR net de réassurance permet de
déterminer le gain en SCR dû à la structure de réassurance adoptée. Ce gain en SCR est l’un
des critères principaux qui nous permettra d’analyser l’optimalité du plan de réassurance.

37
2.3.2 Calcul du SCR
La formule standard stipule que le SCR est la somme de 3 éléments :

SCR = BSCR + SCRopérationnel + Ajustcapacité d’absorption des pertes

le BSCR
Le BSCR(Basic solvency capital requirement), est l’agrégation de 6 modules de risque :

Figure 2.5 – Cartographie des risques

– Risque de souscription non-vie ;

– Risque de souscription vie ;

– Risque de souscription santé ;

– Risque de marché ;

– Risque de contrepartie ;

– Risque d’actif intangible.

Quant au risque de marché, il sera aussi décrit dans l’étude mais de manière relativement
simple. Ce point sera abordé plus en détail, dans la suite du mémoire. L’agrégation des différents
risques se fait ensuite à partir d’une matrice de corrélation fournie par l’EIOPA. L’objectif de
l’agrégation consiste à prendre en compte la dépendance entre certains risques.

sX
BSCR = Corri,j .SCRi .SCRj + SCRintangible
i,j

Avec,
SCRi : correspond au SCR du module i ;

Corri,j : correspond au coefficient de corrélation entre les modules i et j ;

38
SCRintangible : correspond à l’exigence de capital pour les risques liés aux immobilisations
incorporelles (On néglige ce SCR dans notre étude)

Le SCR opérationnel
Il s’agit du SCR correspondant aux risques non inclus dans le BSCR, typiquement les failles
ou l’inadaptation des processus internes, des fautes du personnel, des systèmes ou tout autre
événement externe. Néanmoins l’impact de réassurance sur ce dernier est nul ou faible. Dans le
cadre de notre mémoire, nous considérerons l’impact comme étant négligeable.

Ajust capacité d’absorption des pertes


Il s’agit ici de prendre en compte la compensation éventuelle entre les pertes imprévues et une
baisse des provisions techniques ou des impôts différés ou une combinaison des deux. Dans notre
mémoire, il ne sera pas pris en considération. Les impôts différés correspondent aux impôts à
venir sur les résultats futurs qui sont intégrés dans la valorisation de marché du bilan solvabilité 2.

Ce mémoire se concentre plus particulièrement sur l’impact de la réassurance sur deux mo-
dules de risque : le risque de souscription non-vie, et plus particulièrement le risque de prime
et réserve ainsi que le risque de contrepartie. Par conséquent dans les parties qui suivent, nous
détaillerons les particularités ainsi que les modes de calcul de ces modules.

2.3.3 le risque de souscription non-vie( SCRnl )


Le risque de souscription non-vie regroupe l’ensemble des risques qui sont pris par l’assureur
lors de la distribution de contrats d’assurance non-vie. Il est composé de 3 sous-modules : le
risque de primes et de réserves, le risque de rachat et le risque catastrophe.

Définitions
Le risque de réserve correspond au risque de sous-provisionnement. Il réside ainsi dans la
nature aléatoire de l’évaluation des sinistres et à leur mauvaise estimation.

Le risque de prime correspond au risque de sous-tarification. Il représente le risque que le


coût des futurs sinistres soit supérieur aux primes perçues.

Le risque de rachat (supposé nul dans cette étude) correspond au risque que de nombreux
assurés mettent un terme à leurs contrats de manière simultanée. Ce risque est associé aux
contrats pluriannuels (Cf : la loi Hamon 1 ). En assurance non-vie, il s’agit majoritairement de
contrats courts durant un an contrairement aux contrats vie. Le risque de résiliation est donc
relativement faible et peut donc être négligé.

Le risque de catastrophe correspond à la réalisation d’évènements extrêmes, ne surve-


nant que très rarement et qui n’ont pas été pris en compte dans le risque de primes et de réserves.

Calculs
Le risque de primes et de réserves (SCRnlpremres )

Le calcul est défini dans l’article 115 du règlement délégué 2015/35/CE, comme étant :

1. Loi instaurée le 1er janvier 2015 offrant la possibilité aux assurés de résilier leur contrat d’assurance quand
ils souhaitent une année après la souscription

39
SCRnl prem res = ρ(σ).V
On obtient l’approximation suivante pour ρ(σ) par développement limité,
p
exp(N0,995 . ln(σ 2 + 1))
ρ(σ) = √ − 1 ≈ 3σ
σ2 + 1
Au final on obtient,

SCRnlpremres = 3 · σ · V

σ : représente le coefficient de variation du risque de primes et de réserves

V : représente la mesure du volume pour le risque de prime et de réserve

N0,995 : représente la mesure du volume pour le risque de prime et de réserve

Des valeurs pour σ sont données par LoB dans les annexes des actes délégués (voir annexe
C et E). Elle est séparée entre sa partie prime et sa partie provision. On les note σ(prov,lob) et
σ(prime,lob) . (Voir en annexe)
Ensuite, à partir de ces valeur de σ(prov,lob) et σ(prime,lob) , on peut déterminer la valeur
globale sur toute la LoB, notée σLoB .

q
( σprime,LoB .Vprime,LoB )2 + 2α.σprime,LoB .σprov,LoB .Vprime,LoB .Vprov,LoB + (σprov,LoB .Vprov,LoB )2
σLoB =
Vprime,LoB + Vprov,LoB

Enfin,
sP
LoBMrc σr σc Vr Vc
σ=
V2
Où,
les Mrc correspondent aux corrélations entre les différentes LoB (voir annexe B)

Pour une LoB donnée, le volume se calcule de la manière suivante :

VLoB = (Vprime,LoB + Vprov,LoB ).(0, 75 + 0, 25DIVLoB )

Avec,
P 2
j (Vprime,j,LoB + Vprov,j,LoB )
DIVLoB = P
( j Vprime,j,LoB + Vprov,j,LoB )2
Avec,
Vprime,LoB : représente la mesure de volume pour le risque de prime de la LoB ;
Vprov,LoB : représente la mesure de volume pour le risque de réserve de la LoB ;
DIVLoB : représente le facteur de diversification géographique de la LoB

La mesure du volume par LoB sur le risque de prime s’écrit :

t.emises , P t.acquise , P t−1.acquise ) + P P N A


Vprime,LoB = max(PLoB LoB LoB

Avec,

40
t.emises : Primes émises de l’année prochaine ;
PLoB
t.acquise
PLoB :Primes acquises de l’année prochaine ;
t−1.acquise
PLoB : Primes émises de l’année écoulée.

Dans notre étude, on va considérer des garanties annuelles commençant le 1er janvier. Par
conséquent, on a des PPNA nulles.

Le risque CAT (SCR CAT ) Le risque de catastrophe va prendre en compte les évène-
ments extrêmes, qui ne surviennent que très rarement et qui n’ont pas été pris en compte dans
le risque de primes et de réserves. Il est lui-même composé de 4 différents sous-modules couvrant
respectivement le risque de catastrophe relatif aux périls naturels, les risques relatif à l’activité
humaine et d’autres événements catastrophiques. Dans notre étude, nous nous focaliserons sur
le premier module : Catastrophes naturelles.

Le SCRCAT se calcule de manière standard en réalisant une agrégation entre les différents
sous-risques cités précédemment.

Le schéma ci-dessous présente plus précisément les modules ainsi que les sous-modules qui
composent le risque CAT :

Figure 2.6 – Schéma récapitulatif de la constitution du risque CAT

Plus précisément,

• Risque de catastrophe naturelle


Par définition, les catastrophes naturelles sont des évènements de faible fréquence et de

41
forte sévérité tels les tremblements de terre, les tempêtes, la sécheresse, la grêle ou encore
les inondations.

• Risque relatif à l’erreur humaine


Les catastrophes humaines " man made ", sont des sinistres liés à des activités humaines
tels que l’explosion d’une usine ou un acte terroriste. Dans le cadre de notre mémoire, on
ne considère pas les catastrophes «man-made».

Dans les deux cas ces évènements sont difficiles à capturer statistiquement. Il n’est pas
facile d’établir une base de données historique suffisante du fait de leur faible fréquence.
Afin de pallier cette difficulté, la sinistralité catastrophique est modélisée.

2.3.4 Le risque de contrepartie : ( SCRdef )


Ce module correspond au risque qu’une contrepartie ne soit plus en mesure de faire face à
ses engagements vis-à-vis d’une autre compagnie. Cela décrit donc les pertes possibles dues au
défaut ou aussi à la baisse de notation des contreparties.

La Directive divise les expositions au risque de contrepartie en deux groupes appelés expo-
sition de type 1 et les expositions de type 2. Dans notre étude, comme c’est le risque de défaut
lié aux contrats de réassurance qui nous intéresse, c’est l’exposition de type 1 sur lequel nous
allons nous concentrer dans le cadre du mémoire, car elle concerne les expositions auprès des
réassureurs.
Le capital réglementaire requis pour ce module est calculé comme suit (Cf. Journal officiel
de l’union Européenne [2015], article 200) :

 √ √
√ 3. V ⇔ V ≤√7%.LGD


SCRdef,1 = 5. V ⇔ 7%.LGD
√ < V ≤ 20%.LGD


LGD ⇔ V > 20%.LGD
Avec,√
σ = V : représente l’écart-type de la distribution des pertes des expositions de type 1 ;

V : correspond à la variance de la distribution des pertes des expositions de type 1 ;

LGD : correspond à la perte en cas de défaut pour une exposition de type 1.

Calcul de la variance de la distribution des pertes d’exposition de type 1, V


Cas 1) un seul réassureur
La détermination de la variance de la distribution des pertes des expositions de type 1, dans la
situation où il y a un seul réassureur, revient tout simplement à considérer une variable aléa-
toire suivant une loi de Bernoulli de paramètre Pd , correspondant à la probabilité de défaut du
réassureur.
Par conséquent, on a :

V = Pd .(1 − Pd ).LGD2
Avec,
LGD : Correspond à la perte en cas de défaut pour une exposition de type 1, dont le calcul
est développé un peu plus loin.

42
Cas 2) Plusieurs réassureurs

Comme il est décrit dans l’article 200 règlement délégué (UE) 2015/35, ce calcul de la
variance de distribution des pertes des expositions de type 1 pour plusieurs contreparties revient
à:

V = Vinter + Vintra
Avec,

X P k .(1 − P k ).P j .(1 − P j )


d d d d
Vinter = j j .T LGDj .T LGDk
(j,k) 1, 25.(Pdk + Pd ) − Pdk Pd

la somme couvre toutes les combinaisons possibles (j,k) des différentes probabilités de défaut
des expositions sur signature unique.

T LGDj et T LGDk représentent la somme des pertes en cas de défaut sur les expositions de
type 1 pour les contreparties dont la probabilité de défaut est, respectivement, de Pdj et Pdk .

Où,
Pd : probabilité de défaut qui dépend de la notation attribuée par les agences de notation.
Ci-dessous ce trouve le tableau référençant les probabilités de défaut par notation, extrait de
l’article 199 du règlement délégué (UE) 2015/35.

Figure 2.7 – Probabilité de défaut en fonction de la notation

Et,
X 1, 5P j .(1 − P j ) X
Vintra = d d
. LGDi2
j 2, 5 − Pdj )
Pdj

• la première somme couvre toutes les probabilités différentes de défaut des expositions sur
signature unique, telles que visées à l’article 199 ;

• la seconde somme couvre toutes les expositions sur signature unique dont la probabilité
de défaut est de PDj ;

• LGDi représente la perte en cas de défaut de l’exposition sur signature unique i.

Dans notre étude nous allons nous cantonner à N = 1 ou N = 2, c’est-à-dire que la compagnie
est réassurée auprès de deux réassureurs différents, avec des caractéristiques propres. Cela va
permettre d’étudier l’impact de la notation du réassureur sur le risque de contrepartie.

La perte en cas de défaut (LGD) :


D’après l’article 192 du règlement délégué 2015/35, la perte en cas de défaut sur un
contrat de réassurance se calcule de la manière suivante :

LGD = max (50%.(REcoverable + 50%.RMre ) − F.Collateral; 0)

43
Avec,

REcoverable :correspond à la meilleure estimation des montants recouvrables découlant du


traité de réassurance. On peut le voir comme le BEcédé ;

RMre : correspond à l’effet d’atténuation du risque résultant du traité de réassurance ;

Collateral : correspond à la valeur pondérée des sûretés à propos du traité de réassurance ;

F : correspond à un facteur visant à prendre en compte l’effet économique du contrat de


sûreté.

Par hypothèse, dans le cadre du mémoire nous prendrons,

RMre = 0

Collateral = 0

F =0

2.3.5 Le risque de marché (SCRmkt )


Ce module recouvre les risques relatifs aux niveaux et aux volatilités des marches financiers
et doit refléter les risques correspondant à la différence de duration entre l’actif et le passif de
la compagnie d’assurance. Il doit être calculé comme étant la combinaison d’au moins les 6
sous-modules suivants :

– Risque de taux (sensibilité de la valeur des actifs et des passifs aux taux et à leur volatilité) ;

– Risque action (de même pour les actions) ;

– Risque immobilier (de même pour l’immobilier) ;

– Risque de spread (de même pour les primes de risque crédit au-delà de la courbe des taux) ;

– Risque de taux de change (de même pour les taux de change) ;

– Risque de concentration (manque de diversification, poids prépondérant d’un faible nombre


d’assurés) ;

Ainsi la formule est la suivante :


q q
SCRmkt = max t M Xup,
Xup t
Xdown Mdown Xdown
up

Avec Xup (respectivement Xdown ) est le vecteur des SCR individuels en cas de hausse (res-
pectivement en cas de baisse) des taux. Mup (respectivement Mdown ) la matrice des corrélations
entre les différents modules en cas de hausse (respectivement baisse) des taux.

On sépare ainsi le risque à la hausse et le risque à la baisse, et on conserve le pire des cas.

Dans notre mémoire, et toujours dans le soucis de rester cohérent avec nos données crées
précédemment, nous avons utilisé la méthodologie suivante pour déterminer le SCR marché :

– Retenir un SCR marché parmi les candidats retenus pour créer notre compagnie fictive

– Puis nous avons retenu le «proxy» suivant :

44
SCRmkt.f ictif SCRmkt.candidat

SCRnon−vie.f ictif SCRnon−vie.candidat
SCRmkt.candidat · SCRnon−vie.f ictif
SCRmkt.f ictif ≈
SCRnon−vie.candidat

2.4 Application au modèle et résultats


A ce niveau-là de l’étude, nous sommes en mesure de connaître le passif de notre compagnie.
Le Best estimate total étant connu à partir des projections sur les triangles, ainsi que la Risk
margin. Le niveau de fonds propres a lui été fixé de manière arbitraire, tout en restant
cohérent. Ainsi la connaissance de la valeur de notre passif, nous donne celle de l’actif, que
nous avons ensuite dispersé comme suit (cf : rapport FFSA) :

– Obligations : 60% ;

– Actions : 25% ;

– Les placements immobiliers (fond immobilier et immeubles) : 8% ;

– Autres actifs (monétaire, produits dérivés) : 7%.

Ainsi le bilan de notre compagnie d’assurance virtuelle est le suivant :

Figure 2.8 – bilan de la compagnie d’assurance virtuelle (sans réassurance)

L’actif de la compagnie se décompose de la manière suivante :

45
Figure 2.9 – Composition de l’actif

Le SCR en situation initiale est composé des modules suivants :

Figure 2.10 – Composition du SCR en situation initiale, sans réassurance

On peut observer que le SCR souscription non-vie à un poids très conséquent sur le SCR
total. De plus ici le SCR contrepartie est nul, car on considère qu’en situation initiale la compa-
gnie ne dispose d’aucune structure de réassurance, et dans le cadre du mémoire uniquement les
expositions auprès des réassureurs sont considérées.
Quant au SCR souscription non-vie, il se décompose de la manière suivante :

46
Figure 2.11 – Composition du SCR souscription non-vie en situation initiale, sans réassurance

Détermination des résultats de la compagnie


Pour rappel, nous avons retenu les hypothèses suivantes :

• Primes totales = 1,5 Mde


• Frais = 25%* Prime = 375 Me
• loss ratios

– Autres assurances des véhicules à moteur : 81% ;


– Responsabilité civile automobile : 81% ;
– Incendie et autres dommages aux biens : 75%.
– Responsabilité civile générale : 80% ;

Au final, le résultat technique s’écrit donc :

Résultat technique = P rimes − sinistres − f rais = −61M e

Nous avons donc un résultat technique négatif. Ce qui n’est pas anormal dans le cas présent,
car les quatre lignes d’activités ont un ratio combiné supérieur ou égal à 100%.

De plus, globalement c’est un fait que les compagnies d’assurance non-vie ne sont pas par-
ticulièrement rentables au niveau de la souscription. C’est pourquoi nous allons introduire le
résultat opérationnel.

Il représente le profit de l’entreprise provenant de son activité traditionnelle d’assurance. Il


s’agit de la capacité de l’entreprise à dégager de la marge en «régime de croisière». Son objectif
est de mesurer la capacité de l’entreprise à être rentable et de comprendre d’où vient la marge
de l’entreprise.

De façon simplifiée, il est donné par :

Résultat OP = P rimes − sinistres − f rais + marge financière


Pour cela, nous avons dû poser les hypothèses suivantes, afin de déterminer la marge finan-
cière :
• Rendement des actions : 4%
• Rendement des obligations : 2%
Le résultat opérationnel est donc de 41 Me.

47
Chapitre 3

Mise en place de la réassurance dans


le modèle

Maintenant que la compagnie d’assurance virtuelle non-vie a été créée dans le premier cha-
pitre, nous allons pouvoir mettre en place différentes structures de réassurance, mélangeant à
la fois réassurance proportionnelle et non-proportionnelle. Les structures seront testées sur le
modèle en formule standard et en modèle interne partiel. Nous observerons les divers impacts
de la réassurance sur les exigences en solvabilité.

3.1 Introduction à la réassurance


3.1.1 Définitions
Le principe de la réassurance est qu’une société d’assurance cède tout ou partie de son por-
tefeuille, et donc ses primes et ses sinistres, auprès d’un ou plusieurs réassureurs.
La société d’assurance est appelée la cédante car elle réalise une cession auprès d’un ou plusieurs
réassureurs, ces derniers effectuant quant à eux une acceptation.
Enfin le réassureur, peut lui aussi se faire réassurer auprès d’un autre réassureur, on parle alors
de rétrocession.

Le schéma ci-dessous représente le fonctionnement du mécanisme de réassurance :

Figure 3.1 – Schéma du mécanisme de réassurance

3.1.2 Le marché de la réassurance


Au niveau mondial, alors que l’assurance réalise un chiffre d’affaire de 4 800 Milliard d’euros,
la réassurance fait environ 250 Milliards euros de chiffre d’affaire, soit 5% du total. En effet,
les taux de cession sont relativement bas étant donné que les assureurs cèdent majoritairement
leurs risques de pointe.

48
C’est un marché particulièrement concentré, où les cinq leaders (à savoir Munich Re, Swiss
Re, Hannover Re, Berkshire et Scor) totalisent à eux seuls près de 55% du chiffre d’affaire mon-
dial.

De plus, ce marché à la particularité d’être très cyclique. Si on a plusieurs années sans d’im-
portants sinistres, les réassureurs ont des gains importants entraînant l’arrivée de nombreux
nouveaux entrants. Cela a pour conséquence de faire baisser les prix, et donc la rentabilité en-
traînant la sortie de nombreux acteurs du marché en cas de forte sinistralité.

Même si en ce moment la marché est dans un cycle plutôt calme, certains éléments laissent
présager une explosion de la demande de la réassurance dans les prochaines années : l’augmen-
tation de la fréquence ainsi que de l’intensité des catastrophes naturelles, le net développement
du taux de pénétration d’assurance dans les pays en développement qui de plus sont particu-
lièrement affectés par ce type d’évènements. C’est pourquoi, il est d’un enjeu capital d’être en
mesure d’utiliser justement le mécanisme de réassurance.

Le ratio combiné en réassurance contrairement en assurance est beaucoup plus faible (en
général entre 85% et 95%), mais la volatilité est forte d’une année à l’autre. Ainsi en 2001, avec
les attentats du World Trade Center, les ratios combinés ont explosé atteignant les 128%.

3.1.3 Objectifs
Voici une liste, non exhaustive des objectifs et des intérêts d’une structure de réassurance
pour une compagnie d’assurance :

• Mutualisation sur des risques atypiques ou possédant peu ou pas d’historiques (terrorisme,
cyber-risque,. . . ) ;

• Mutualisation des gros risques (catastrophes naturelles entre autre) ;

• Lissage du résultat d’une compagnie d’assurance dans le temps, en réduisant l’écart-type


de la distribution du résultat avec la suppression des «valeurs extrêmes» ;

• Réduction de la probabilité de ruine : La réassurance a pour conséquence de diminuer le


résultat d’une compagnie en moyenne. Par conséquent, il y a donc une probabilité
d’avoir un résultat négatif plus élevée (mais c’est sans prendre en compte les fonds propres).
Ce que l’on va «perdre» en résultat, on le «gagne» en coût du capital (ce que l’on doit
distribuer aux actionnaires). En effet, dans le cadre de Solvabilité II, la réassurance permet
de réaliser des gains sur le SCR, en réduisant la quantité de fonds propres à détenir. C’est
ce point-là qui va plus particulièrement nous intéresser dans notre étude.

3.2 Impact de la réassurance sur le SCR


Sous Solvabilité I, le bénéfice de la réassurance était limité. La réassurance proportionnelle
permet de réduire l’exigence de marge jusqu’à 50 % en non-vie. La situation est différente pour
la réassurance non proportionnelle ; elle est prise en compte uniquement les années suivants un
sinistre majeur. Son impact sur l’exigence de marge était donc relativement faible.

Avec l’arrivée de Solvabilité II, la donne a changé. La réassurance est prise en compte dans
le bilan, par une créance de réassurance. Elle est calculée en faisant la différence entre les Best
Estimate brut et net de réassurance, et est ajustée en fonction de la probabilité de ruine des
réassureurs.

Le bilan économique est aussi affecté par le programme de réassurance au niveau du passif
avec la réduction du résultat dans les fonds propres.

49
Cet actif génère une charge en capital au titre du risque de contrepartie.
C’est pourquoi, le SCR défaut (SCRdéfaut ) , est bien entendu lui aussi concerné par le programme
de réassurance, mais cette fois-ci cela va engendrer une «perte» pour l’assureur. En effet, le ré-
assureur émetteur du traité de réassurance est une nouvelle source de risque pour l’assureur, qui
nécessite de revoir à la hausse les besoins en capitaux pour le risque de contrepartie. L’évalua-
tion de ce risque fait intervenir, entre autres, la notation du réassureur ou le ratio de solvabilité
pour déterminer la probabilité de défaut, ainsi que les nantissements du réassureur dans le calcul
des pertes en cas de défaut. Le calcul doit être mené pour chaque réassureur et pour chaque Lob.

Dans le SCR souscription non-vie, tous les sous-modules sont affectés par la mise en place
d’un programme de réassurance, car tous les calculs de SCR sont effectués à partir de montants
nets de réassurance, qui par définition seront plus faibles entraînant par conséquent une écono-
mie du capital à détenir.

Enfin, le SCR Marché est concerné sur deux points : d’une part à l’actif car le montant des
placements au bout d’un an est fonction du résultat net de la cédante. Mais aussi au passif,
avec les sous-modules Interest et Illiquidity, qui utilisent les montants nets de réassurance. De
plus, une partie des fonds propres va être consommée par l’ajustement effectué au niveau des
provisions techniques à la charge du réassureur.

3.3 Présentation des différents dispositifs de réassurance


3.3.1 Les catégories de réassurance
Les trois catégories de réassurance sont :

La réassurance facultative
La cédante cède et le réassureur couvre tout ou partie du risque couvert par une police d’as-
surance unique. Les conditions de la couverture sont discutées entre le réassureur et l’assureur,
et chacun des deux partis a son mot à dire. Ce processus est utilisé notamment pour les grands
risques industriels et les risques spéciaux faisant appel à des connaissances particulières ou dans
le cas des risques de technologie de pointe.

La réassurance obligatoire
La réassurance est obligatoire lorsque la négociation est axée sur une branche d’assurance,
l’assureur s’engageant à céder tous les risques relevant de cette branche et le réassureur s’enga-
geant à les accepter. Alors on peut dire que dans le cadre de traité, la cédante est obligée de
céder et le réassureur d’assumer une part bien précise des risques assurés par la cédante.

La réassurance facultative-obligatoire
En réassurance FACOB, l’assureur a la faculté de décider de l’opportunité de réassurer un
risque et ce, dans des proportions acceptables. Le réassureur, quant à lui, n’a pas le choix et
s’engage à accepter toutes les affaires que la cédante lui attribuera à condition que l’engagement
ne soit pas supérieur à un montant déterminé à la souscription.

Les différents systèmes de réassurance


On distingue deux types : réassurance proportionnelle et réassurance non proportionnelle.

La réassurance proportionnelle
Un traité de réassurance est dit proportionnel lorsque la charge de sinistre cédée est propor-
tionnelle à la charge brute de sinistre. Le même principe s’applique pour les primes.

50
Il existe trois grands types de traité :

• Le traité en quote-part

Le réassureur perçoit un certain pourcentage des primes, et en contrepartie il rembourse


le même pourcentage des sinistres. De plus il verse une commission de réassurance corres-
pondant à un pourcentage des frais de l’assureur.

Le traité en quote-part a un fonctionnement contra-cyclique : c’est-à-dire que lorsque l’as-


sureur gagne de l’argent, il en reverse une partie au réassureur. Quand c’est l’assureur qui
perd de l’argent, il en reçoit du réassureur.

Exemple :

Prenons un traité en quote-part à 50% sur un risque quelconque : L’assureur verse 50%
des primes aux réassureurs, qui en contrepartie prend en charge 50% des sinistres.

Figure 3.2 – Schéma du mécanisme du trait en quote-part

• Le traité en excédent de plein


Le principe consiste à couvrir de manière proportionnelle chaque contrat du portefeuille.
Le taux de cession peut varier d’un contrat à l’autre. L’idée pour l’assureur est donc de
céder un pourcentage d’autant plus élevé que le risque est lourd.
• Le traité loss portfolio transfer (LPT)
C’est un traité de réassurance dans lequel l’assureur cède ses polices qui ont déjà générées
des sinistres, à un réassureur. Dans un LPT, un réassureur accepte une partie des engage-
ments de l’assureur à travers le transfert d’une partie de ses réserves.

Exemple du fonctionnement du traité LPT et impact sur le bilan :

Nous supposons qu’avant l’application du traité nous avons 100 en réserve.

Suite à l’exercice du traité LPT 80%, on va céder 80 de nos réserves ( soit 80% des réserves)

Le «prix» à payer pour le traité est de 70, correspondant à la valeur actualisée des réserves.

Ainsi la cédante doit transférer 70 «d’actif» au réassureur. Suite à cette action, une créance
de réassurance est créée dans le bilan de la cédante. En général, le versement de 70 est
payé en «cash». Néanmoins, il y a possibilité de diminuer l’impact sur le «cash» pour la
cédante en acceptant :

– Un dépôt partiel de «cash» (par exemple 50) pour lequel la cédante devra payer un
taux d’intérêt annuel au réassureur. C’est ce que l’on appelle la «collatéralisation» ;
– Les 20 restants à payer en cash. Il y a donc une collatéralisation de 30 ( ie : Les 80
de réserve transférée moins les 50 collatéralisé par le dépôt en «cash»).

51
Figure 3.3 – Schéma des impacts du LPT sur le bilan S II

– Les réserves brutes (Gross loss reserves) figurent toujours au passif du bilan de la
cédante, quant aux réserves cédées, elles figurent en tant que créances de réassurance
(reinsurance receivable) en échange des actifs financiers payés au réassureur ;
– Quand la créance de réassurance excède le montant payé au réassureur (qui dans
notre exemple vaut 70), la différence figure généralement dans le passif du bilan de
la cédante en tant « profit différé » (deferred profit, qui dans notre exemple vaut 10).

Par conséquent, globalement l’impact du traité LPT sur le bilan économique de la cédante
sera neutre ou relativement faible, en fonction du montant du profit différé.

Dans le cadre de notre mémoire, nous allons considérer que l’impact du traité LPT est
négligeable sur le bilan de notre compagnie d’assurance virtuelle

La réassurance non-proportionnelle
Contrairement à la réassurance proportionnelle, dans le cas d’un traité de réassurance non-
proportionnelle, ce que paie le réassureur n’est pas proportionnel à ce que paie l’assureur.

Dans ce système, deux paramètres sont déterminants : la rétention et la capacité.

Le premier correspond au seuil de montant de sinistre en dessous duquel l’assureur prend


en charge les sinistres en question. La rétention est en général choisie de façon à n’avoir que
quelques sinistres réassurés par an.

Le second correspond au montant maximal que peut prendre en charge le réassureur. Ainsi
une fois le plafond (rétention + capacité) dépassé, le montant revient à la charge de l’assureur.

• Traité en excédent de sinistres («excess of loss»)


Principe :
L’essentiel de la volatilité d’un assureur IARD vient en général de quelques sinistres les
plus lourds mais aussi d’une dérive de la fréquence des sinistres «moyens». L’idée du traité
en excédent de sinistre est donc de protéger l’assureur contre ces phénomènes.

Les couvertures peuvent être fournies en :

– Excédent de sinistre par risque :

Sinistre lié à un risque d’une police d’assurance. Dans le cas d’un besoin de capacité
ou protection contre un risque majeur.
– Excédent de sinistre par événement :

52
Sinistre lié à plusieurs risques formant un évènement ou un cumul total. Cela apporte
une protection contre un événement défini dans sa nature, dans l’espace et dans le
temps.

De plus, ces deux types de couvertures peuvent être complétés de clauses supplémentaires,
entre autre on peut citer la clause de reconstitution.

Cette clause permet de renouveler la garantie, c’est-à-dire qu’elle permet à la cédante de


céder un montant de sinistre qui dépasserait la rétention, dans la limite de la capacité.
En cas d’exercice de la garantie supplémentaire, la cédante doit verser au réassureur une
prime de reconstitution, déterminée par un taux de prime de reconstitution fixé à la sous-
cription. Ce taux correspond à un pourcentage de la prime versée initialement par l’assu-
reur.

En théorie, les reconstitutions peuvent être calculées selon une méthode prorata capita
(proportionnelle au montant reconstitué), prorata temporis (proportionelle au temps res-
tant à couvrir jusqu’à la fin de la période de couverture) ou au double prorata.

Dans le cadre de notre mémoire nous considérerons des traites avec reconstitutions gra-
tuites et illimitées 1 .

Exemple :
Considérons un programme avec les caractéristiques suivantes :

9 000 000XS1 000 000

Supposons que l’assureur enregistre trois sinistres, qui sont :

– Risk A : 4 Me
– Risk B : 6 Me
– Risk C : 11 Me

Dans les cas d’un traité en excédent de sinistre par risque,

1. Par soucis de simplicité du modèle

53
Figure 3.4 – Application du traité XS en couverture par risque

Au final, pour l’assureur sa charge nette est de 4 Me (correspondant aux zones en bleu
foncé sur le graphique). Quant au réassureur, sa charge est de 17 Me (correspondant
aux zones en bleu clair sur le graphique).

Supposons maintenant que ces trois pertes proviennent d’un même évènement,

Dans le cas d’un traité en excédent de sinistre par événement :

Figure 3.5 – Application du traité XS en couverture par évènement

Au final, pour l’assureur, sa charge nette est de 12 Me (correspondant aux zones en bleu
foncé sur le graphique). Quant au réassureur, sa charge est de 9 Me (correspondant aux
zones en bleu clair sur le graphique).

• Le Stop-Loss
Le principe consiste à couvrir l’assureur contre une déviation de sa charge, qu’elle vienne
des gros ou des petits sinistres. Le Stop-Loss est souvent exprimé en terme de ratio S/P.

54
Le réassureur s’engage alors à protéger, à hauteur d’un certain montant, les résultats dé-
passant le ratio S/P cible au-delà duquel l’assureur est obligatoirement en perte.

On peut aussi souligner que le Stop-loss peut aussi fonctionner de manière similaire à un
traité par excédent de sinistre, en disposant d’une rétention et d’une capacité. Néanmoins
contrairement, à ce dernier qui s’applique individuellement sur les sinistres, celui-ci s’ap-
plique directement sur la charge brute totale.

exemple :

Considérons un traité Stop-Loss avec les caractéristiques suivantes :

10 000 000 SL 20 000 000


Supposons que la charge brute totale sur laquelle va s’appliquer le traité vaut 40 Me

Figure 3.6 – Application du traité Stop-Loss

Au final, pour l’assureur, sa charge nette est de 20 Me (correspondant aux zones en


bleu foncé sur le graphique). Quant au réassureur, sa charge est aussi de 20 Me (cor-
respondant aux zones en bleu clair sur le graphique).

3.3.2 Tarification de la réassurance


Les différentes méthodes de tarification décrites ci-dessous sont loin d’être exhaustives, mais
nous avons retenus celles faisant partie des plus appliquées sur le marché.

Réassurance proportionnelle
Pour le traité quote-part, la tarification est relativement simple. La part de prime à céder au
réassureur correspond à la part de sinistre pris en charge par le réassureur. Par exemple pour
un traité quote-part 50%, l’assureur doit céder la moitié de ses primes.

Réassurance non-proportionnelle
• le Burning Cost

55
Le Burning Costest une méthode basée sur la sinistralité historique. L’idée consiste à re-
garder ce qu’aurait coûté le traité sur les années antérieurs.

Le Burning Cost d’un traité est donné par :

00
S
BC =
P
Avec,

00
S : La charge cédée au réassureur via le traité
P : la prime brute

Ainsi on procède de la manière suivante :

Pour les années précédentes, on considère les primes brutes et les sinistres, puis on observe
ce qu’aurait rapporté le traité cette année-là. Il ne faut pas oublier de corriger les primes
et les sinistres en As if. C’est-à-dire avec prise en compte l’inflation.

Exemple :

Ainsi en moyenne, le traité coûte 3,7% des primes brutes.

Le réassureur a aussi la possibilité d’estimer des quantiles pour limiter d’avantage son
exposition. Ainsi dans 90% des cas le Burning cost est inférieur à 6%. Par conséquent,
en demandant 6% des primes, le réassureur n’a que 10% des cas où il fait des pertes.

La grande force du Burning cost réside dans la simplicité de sa mise en place. Néanmoins,
celui-ci trouve ses limites, dès lors qu’il s’agit de tarifier des contrats qui jouent relative-
ment peu.

Dans le cadre de notre compagnie d’assurance virtuelle, cette méthode était difficilement
applicable à cause de l’absence d’un historique de prime et de sinistre.

• Monte Carlo
C’est une méthode par simulation. L’idée consiste à simuler la charge par des méthodes
de type Monte-Carlo, puis d’appliquer la réassurance. C’est cette méthode de tarifi-
cation qui a été retenue dans le cadre du mémoire.

Pour cela, il faut tout d’abord estimer des lois pour les fréquences et les coûts des sinistres.
Puis il faut simuler un certain nombre de sinistres ainsi que leurs coûts. Enfin pour chaque
trajectoire, en déduire les charges brutes, nettes et cédées.

Il existe différents principes de prime. Pour l’étude, nous avons retenus le principe de
l’écart-type, où la prime s’écrit :
q
P (S) = E(S) + α V ar(S)

56
Avec, α = 0,3

Et , S correspondant à la variable aléatoire des montants de cessions.

3.4 La mise en place des structures de réassurances


Dans le cadre de notre mémoire, en formule standard nous avons décidé de mettre en place
différentes structures sur la compagnie d’assurance virtuelle.

Remarque : On considère que pour toutes les structures de réassurance, la notation du réas-
sureur est la même, à savoir une notation de A.

3.4.1 Structure de réassurance A


Description
• Application d’un traité Excess of Loss sur le risque catastrophe (LoB incendie et autres
dommages concernée uniquement) ;

• Abattement (de 80%) prévu par la formule standard sur la volatilité afin de tenir compte
de la réassurance non proportionnelle sur la Responsabilité civile automobile et la respon-
sabilité civile générale.

En Formule standard, la prise en compte de la réassurance non-proportionnelle (en parti-


culier l’application de traité excess of loss) pour les branches «responsabilité civile auto» et
«responsabilité civile générale», s’effectue en réalisant un abattement de 80% sur la volatilité
appliquée pour le risque de prime :

Ainsi, pour la branche «responsabilité civile automobile», on passe d’une volatilité de 10%
à 8%.

Quant à la branche «responsabilité civile générale», on passe d’une volatilité de 14% à 12%.

Caractéristiques du traité XS CAT :

• Rétention : 35 Me ;

• Capacité : 665 Me ;

• Taux de prime : 5, 15%.

On va considérer que cette réassurance n’impacte pas le BE de prime. On garde le même


que sans réassurance. En effet, il n’était pas possible de modéliser correctement l’impact du
traité sur le best estimate, à partir des informations disponibles .

Bilan et composition du SCR


Le bilan de la compagnie après application de la structure A est le suivant :

57
Figure 3.7 – Bilan de la compagnie avec application de la structure A

On constate bien qu’ici les cessions en réassurance sont inexistantes à l’actif du bilan, car
comme indiqué ci-dessus il n’était pas possible de modéliser correctement l’impact du traité sur
le BE de prime

Le SCR non-vie se décompose comme ceci entre les sous-SCR :

Figure 3.8 – Composition du SCR non-vie après application de la structure A

58
Figure 3.9 – Composition du SCR après application de la structure A

On observe donc une réduction de SCR de 19,6% par rapport à la situation initiale sans
réassurance.

3.4.2 Structure de réassurance B


Description
• Application d’un traité quote-part sur le risque de prime dans le module non-vie (toutes
LoB) à 50%

Bilan et composition du SCR


Le bilan de la compagnie après application de la structure B est le suivant :

Figure 3.10 – Bilan de la compagnie avec application de la structure B

59
Figure 3.11 – Composition du SCR non-vie après application de la structure B

Figure 3.12 – Composition du SCR après application de la structure B

On observe donc une réduction de SCR de 9,2% par rapport à la situation initiale sans
réassurance.

Dans cette réassurance, c’est le BE de primes va être affecté. Il est affecté de manière
identique au taux de cession du traité quote-part. Ainsi dans le cas présent, le BE de primes
sera divisé par deux.

3.4.3 Structure de réassurance C


Description
• Application d’un traité LPT sur le risque de réserve (Toutes LoB) à 30%.

Bilan et composition du SCR


Le bilan de la compagnie après application de la structure C, est le suivant :

60
Figure 3.13 – Bilan de la compagnie avec application de la structure C

Figure 3.14 – Composition du SCR non-vie après application de la structure C

Figure 3.15 – Composition du SCR après application de la structure C

On observe donc une réduction de SCR de 9,8% par rapport à la situation initiale sans

61
réassurance. Dans cette structure, c’est le BE de réserve qui est impacté. Il est affecté de
manière identique au taux de cession du traité. Ainsi, dans le cas présent le BE de réserve
sera réduit de 30%.

3.4.4 Structure de réassurance D


Description
• Application des 3 structures de réassurance précédentes de manière combinée, à savoir :

– Un traité excess of loss (XS) sur le risque catastrophe (pour la Lob incendie et autres
dommages aux biens) ;
– Abattement (de 80%) prévu par la formule standard sur la volatilité afin de tenir
compte de la réassurance non proportionnelle sur les LoB responsabilité civile auto-
mobile et générale ;
– Un quote-part à 50%, pour l’impact sur le SCR prime, dans le module non-vie ;
– Un loss portfolio transfert (LPT) à 30%, pour l’impact sur le SCR réserve, dans le
module non-vie.

Bilan et composition du SCR

Figure 3.16 – Bilan de la compagnie avec application de la structure D

Figure 3.17 – Composition du SCR non-vie après application de la structure D

62
Figure 3.18 – Composition du SCR après application de la structure D

On observe donc une réduction de SCR de 41% par rapport à la situation initiale.

Dans cette structure, cela a un impact sur le BE de primes et de réserves. D’une part,
le BE prime est affecté par le traité en quote-part à hauteur du taux de cession, de l’autre le
BE réserve est affecté par le traité Loss portfolio transfer.

3.5 Conclusion et comparaison des différentes structures


Voici un tableau récapitulatif des ratios de solvabilité obtenu, pour chacune des stratégies
mise en place préalablement :

Figure 3.19 – Tableau des ratios de solvabilité par stratégie

La stratégie D (qui pour rappel combine les trois structures A, B et C) permet d’augmenter
de près de 117% le ratio de solvabilité par rapport à la situation initiale sans réassurance.
Individuellement, c’est l’application des traités non-proportionnel (structure A) qui semble avoir
le poids le plus important dans l’augmentation du ratio de solvabilité avec une hausse de 43%.
Pour les autres structures, le traité LPT (à 30%) ainsi que le traité quote-part (à 50%) représente
respectivement 19% et 18% .

3.6 Impact de la notation du réassureur sur le risque de contre-


partie
Comme il l’a été décrit précédemment, la notation du réassureur est prise en compte dans la
détermination du SCR de contrepartie. En se basant sur une structure de réassurance donnée,
nous allons observer l’évolution du SCR de contrepartie selon la notation du réassureur.
La structure de réassurance retenue sera la structure D (détaillée à la page 62) où le Best esti-
mate cédé est d’environ 828 millions d’euros.
Ainsi, dans le cas de cette structure le risque de contrepartie évolue de la manière suivante :

63
Figure 3.20 – Évolution du risque de contrepartie, en fonction de de la notation du réassureur

Pour un même traité qui diffère seulement par la notation du réassureur, on remarque que
pour une notation comprise entre triple A et A, la différence n’est pas significative même si
la notation AAA est bien sûr plus optimale. En allant plus loin, on peut dire que le risque de
contrepartie reste relativement marginal vis-à-vis des autres SCR pour ces notations.

Néanmoins à partir de la notation BBB, le SCR contrepartie commence à prendre de l’im-


portance, pour ensuite «exploser» à partir d’une notation B.

En effet, par rapport à une notation triple A : On observe une augmentation de 994 %
pour une notation triple B, une augmentation de près de 4 000% pour une notation
BB, et enfin de près de 7 360% pour les notations inférieures.

Néanmoins dans la pratique, la grande majorité des réassureurs dispose d’une notation supé-
rieure à triple BBB, comme le montre le graphe ci-dessous tiré d’une étude la fédération française
des sociétés d’assurance :

Figure 3.21 – Notations des 25 réassureurs les plus importants

C’est pourquoi dans le cadre de notre mémoire nous considérerons, le/les réassureur(s) avec

64
une notation A.

3.7 Méthodologie de détermination du BE cédée


Pour rappel, on souhaite calculer les Best Estimate cédé, car ils sont nécessaires pour la
détermination du SCR contrepartie.

La première méthode qui a été adoptée est une approche «Gross to Net».

L’idée est de déterminer le poids de la cession en réassurance par LoB, c’est-à-dire le ratio
«sinistres cédés / sinistres bruts» à partir des données provenant d’un des candidats retenus,
puis d’appliquer ce ratio aux BE bruts pour chacune des LoB.

Néanmoins cette méthodologie présentait un défaut majeur, et loin d’être négligeable dans le
cadre de notre étude. Cette approche imposait de mettre en place une stratégie de réassurance
relativement similaire à celle mise en place dans les données observées pour rester cohérent. Par
conséquent, cette approche présentait un aspect «statique», car elle ne nous permettait pas de
tester différents montages de réassurance.

La seconde approche mise en place, va consister à déterminer le Best estimate prime, puis
d’évaluer les impacts sur les Best estimate en fonction de la stratégie mise en place. En effet, le
Best estimate, qui va figurer dans notre bilan après réassurance sous Solvabilté 2, ne sera autre
que :

BEtotal = BEprime + BEréserve


En fonction du type de structure de réassurance appliqué, les impacts sur les Best estimates
différent. Ainsi, par exemple un traité en quote-part affectera exclusivement le BEprime , tandis
qu’un traité loss portfolio transfer affectera uniquement le BEréserve .
Un fois ces différents impacts mesurés, on peut déterminer le Best estimate net de réassurance,
et donc le Best estimate cédé en faisant la différence entre le Best estimate brut et net de réas-
surance.

Les BEréserve ayant été déterminés dans le second chapitre, il reste à déterminer les BEprimes .
Dans un premier temps, l’approche qui a été retenue a été de déterminer un proxy, avec le ratio
«BE prime / BE réserve» sur les données d’un des candidats retenus, puis ensuite de l’appliquer
à nos Best estimate réserve pour obtenir nos propres Best estimate prime.

Néanmoins, une seconde approche a été développée car il semblait plus cohérent que les BE
de primes dépendent des volumes de primes. C’est pourquoi nous avons décidé d’observer sur
nos données client le ratio «BE de primes/primes», et d’appliquer celui-ci sur notre volume de
primes pour en déterminer notre BE de primes.

65
Chapitre 4

Les limites de l’utilisation de la


formule standard

Néanmoins l’application de la formule standard dans le cadre de notre mémoire a rapidement


atteint ses limites, pour les raisons suivantes :

• le «statisme» du modèle, ne nous permet pas de faire des simulations et d’obtenir des
distributions (Par exemple, celle du résultat net de réassurance) ;

• L’inadaptation de la formule standard à la réassurance non-proportionnelle. Par exemple


les traités en excédent de sinistres par risque sont applicables uniquement sur 3 LoB en
formule standard, et se traduisent par un abattement de 80% de la volatilité.

C’est pourquoi, dans le cadre de l’étude il nous a été nécessaire de développer un modèle
interne-partiel.

66
Deuxième partie

La construction de la compagnie
d’assurance virtuelle en modèle
interne partiel

67
Chapitre 5

Modélisation du risque de prime et


CAT

Préambule à la seconde partie :

Cette partie a pour objectif de détailler les caractéristiques ainsi que les calculs de l’ensemble
des termes du modèle interne partiel. Dans le cadre du mémoire, nous allons modéliser le risque
de prime, le risque catastrophe ainsi que le risque de réserve. Puis nous appliquerons diverses
structures de réassurance afin d’observer les impacts sur les SCR.

Nous avons utilisé le logiciel Risk explorer, qui se trouve être parfaitement adapté pour la
mise en place de ce genre de modèle. En effet, Risk explorer est un logiciel de modélisation des
risques destinés au secteur de l’assurance et de la réassurance des biens/IARD . La méthode
de génération des variables aléatoires sous ce logiciel est décrite en annexe (voir annexe
F).
La sinistralité globale pour chaque ligne d’activité, va être divisée en plusieurs catégories :

• La sinistralité attritionelle, correspondant aux sinistres «standards», qui sont le plus


courants pour l’assureur pour des montants de sinistres inférieurs à un certain seuil. Ces
derniers sont généralement modélisés par des modèles statistiques standards de type nor-
mal, log-normal ou gamma. Cette sinistralité ne sera pas concernée pas le mécanisme de
réassurance non-proportionnelle, dans le cas de traité en excédent de sinistre car
elle est inférieure à la rétention. Néanmoins, elle peut très bien être couverte par un traité
Stop loss. De plus, elle est aussi concernée par les traités proportionnels ;

• La sinistralité dite grave, dépassant un certain seuil et correspondant à une sinistralité


de fréquence faible et de sévérité importante. Elle est modélisée par une distribution à
queue lourde ;

• La sinistralité catastrophique, correspondant à la sinistralité de pointe, caractérisée


par une fréquence extrêmement faible, mais de sévérité extrêmement importante. Cette
sinistralité n’est en effet pas nécessairement observable sur un historique de données. Pour
cela, nous avons utilisé des sorties du logiciel RMS, qui est un outil de modélisation spé-
cialité dans la sinistralité catastrophe. C’est cette sinistralité qui va nous permettre de
calibrer le SCR CAT.

5.1 Détermination du seuil


La modélisation distincte de la sinistralité attritionelle et grave, nécessite de fixer un seuil.
Le choix du seuil est décisif. Si on prend un seuil trop élevé, il y aura très peu de sinistres graves
observés, et les estimateurs seront peu robustes. De l’autre côté, si on prend un seuil trop bas,

68
l’estimation risque de mal capter le comportement de la queue de distribution.

Méthode du «mean excess plot» :

Cette méthode consiste à observer le comportement de la variable du coût lorsqu’elle est


au-dessus du seuil. Elle peut se noter comme une fonction, qui s’écrit :

M E(t) = E(C − t|C > t)


Avec C, la variable du coût et t le seuil.

Pour les lois à queue fine, la fonction M E(t) décroît, voir tend vers 0. Pour une loi à queue
épaisse, telle que la loi Pareto ou Pareto généralisée, la fonction M E est croissante. Plus la
fonction est croissante, plus la loi est à queue épaisse.

A cause de l’absence de données exploitables, le «mean excess plot» n’a pu être réalisé que
sur la LoB responsabilité civile automobile. Voici la représentation de cette fonction sur le gra-
phique ci-dessous :

Figure 5.1 – Représentation de la fonction « mean excess plot » pour la LoB responsabilité civile automobile.
Les ordonnées correspondent au niveau du seuil(en Me).

Le seuil à retenir correspond, au seuil à partir duquel la courbe ME est affine (représentée
ici par la droite bleue). Nous allons donc retenir un seuil de 1Me.

Pour les autres LoB, le choix du seuil s’est fait en observant les pratiques de marché :

Figure 5.2 – Seuil des sinistres graves

5.2 Sinistralité grave


Le sinistres graves sont modélisés individuellement, afin de pouvoir appliquer les traités de
réassurance non proportionnels mais aussi lorsque la queue de distribution de la charge de si-
nistre ne peut pas être correctement modélisée par une charge de sinistre agrégée.

69
On suppose que la sinistralité grave des différentes lignes d’activités va être modélisée par un
modèle de Poisson–Pareto, dont le calibrage des paramètres se fera à partir d’un historique
de sinistralité selon la Lob.

5.2.1 Description du modèle Pareto


Le modèle Poisson-Pareto, est particulièrement adapté dans les situations où les sinistres
sont de sévérité forte et de fréquence faible.

Notations et hypothèses :

Soit N, la variable aléatoire désignant le nombre de sinistres,

Ci est la variable aléatoire du coût du sinistre i, brut de réassurance et dépassant le seuil à


l’ultime, vu à l’ultime.

Et S la charge totale,
N, C1 , ..., CN sont indépendantes,
Les Ci ont même loi,
N
X
S= Ci siN > 0 ou 0 sinon
i=1

5.2.2 Modélisation de la fréquence N par loi de Poisson


Le choix de la loi de fréquence se justifie par le fait que c’est une des lois les plus adaptées
afin de modéliser des évènements dont l’espérance et la variance sont proches. De plus, c’est la
loi la plus simple à estimer, puisque λ représente le nombre de sinistres moyen par année.

λn −λ
N ∼ P(λ) ⇔ P(N = n) = ·e
n!
E(N ) = V ar(N ) = λ

L’estimation du paramètre, se fait par un estimateur via la moyenne

n
1 X
λ̂ = . Xi
n i=1
Où,

n : correspond à la taille de notre historique (nombre d’années dans l’historique)

Xi : décrit le nombre de sinistres observés l’année i

5.2.3 Modélisation du coût C par la loi de Pareto


Le choix de la loi de Pareto se justifie par le fait que c’est une loi à queue très épaisse.
Ainsi lorsqu’un échantillon suit une loi de Pareto, l’essentiel des poids vient de quelques sinistres
extrêmes.
( α
α. yxo
α+1 si y > xo
C P ar(α, x0) ⇔ f (y) =
0 sinon
(
α
α. α−k .xok si k < α
E(C k ) =
∞ sinon

70
Si α < 1, E(C) = ∞ , la prime est infinie et le risque est non assurable, et les données
sont peu exploitables car la loi des grands nombres et le Théorème central limite ne sont plus
valables. Cependant dans la pratique on fixe un plafond dont la méthodologie a été détaillée
précédemment.

Le paramètre α permet de déterminer la vitesse à laquelle la densité va tendre vers 0, c’est-


à-dire la lourdeur de la queue. Ainsi plus α est faible, plus la queue est épaisse.

Le paramètre x0 correspond au seuil de modélisation des sinistres graves, c’est-à-dire que


tous les sinistres modélisés auront une valeur supérieure à x0. C’est donc le seuil de modélisation
des graves.

On estime α par la méthode du maximum de vraisemblance :


n
Y
L(α) = f (α, xi )
i=1
n
Y α x0 α+1
L(α) = .(
)
i=1
x0 xi
On passe à la fonction de vraisemblance au logarithme,
n
X x0
ln(L(α)) = nln(α) − nln(x0) + (α + 1) ln( )
i=1
xi
Par la condition du premier ordre, on obtient :
n
∂ln(L(α)) n X x0
=0⇔ + ln( ) = 0
∂α α i=1 xi

De plus, on a bien ∂ln(L(α))


∂α = − αn2 < 0 , la fonction est donc bien concave, justifiant ainsi
l’existence du maximum.

Enfin à partir de la condition du premier ordre, on a le résultat suivant :


n
α̂ = Pn xi
i=1 ln( x0 )

Les xi correspondent à la suite des sinistres observés dans l’historique étant supérieurs au
seuil.
Remarque : Nous faisons l’hypothèse, qu’il n’y a pas de sinistralité grave sur la LoB autres
assurances des véhicules à moteur.

5.2.4 Ajustement de la fréquence


Dans l’objectif de préserver au mieux la cohérence avec notre portefeuille fictif, un ajustement
a été réalisé sur le calibrage de la fréquence. Pour rappel, nous sommes partis des données brutes
d’une compagnie pour le calibrage, et maintenant nous souhaitons représenter notre propre si-
nistralité.

Pour cela nous avons observé le ratio «Nombre de sinistre grave / Prime» sur la compagnie
«cible», puis nous avons appliqué le ratio sur notre prime fictive.

Après re-calibrage, notre paramètre de fréquence passe de 8 à 10 sur la LoB Responsabilité


civile automobile.

Une observation du marché, nous permet d’affirmer que globalement le montant des sinistres
graves est indépendant de la taille du portefeuille. Il n’est donc pas nécessaire de réaliser un
ajustement sur le paramètre de coût.

71
5.3 La sinistralité attritionnnelle
On suppose que la sinistralité attritionelle pour chacune des LoB va suivre une loi log-
normale.
SoitXi ∼ LogN (µ, σ 2 ), ∀i Xi > 0

σ2 2 2
E[X] = eµ+ 2 et V ar(X) = (eσ − 1).e2µ+σ
Ce choix de loi se justifie de la manière suivante : la loi Log-normale a des propriétés statis-
tiques qui correspondent bien aux données :

– Elle a une queue de distribution intermédiaire, ainsi de temps en temps un sinistre peut
s’écarter fortement de la moyenne ;

– C’est une loi présentant une asymétrie positive et prenant des valeurs positives. Ces pro-
priétés sont donc parfaitement adapter à la situation, car les coûts des sinistres prennent
des valeurs positives.

La charge des sinistres attritionels n’est pas directement calibrée de manière individuelle,
mais seulement de manière agrégée.

La méthodologie va donc consister en un premier temps à déterminer la charge attritionnelle


par année de survenance et par Lob. Cela nécessite d’établir :

– La charge totale par année de survenance sur la LoB (qui correspond à l’ultime des triangles
projetés) ;

– La charge grave par années de survenance sur la Lob.

Au final on a,

charge attritionnelle = charge totale − charge grave


On répète l’opération pour chacune des années de survenance.

Exemple de la mise en place :

Méthode des moments sur la loi Log-normale :

Le calibrage des paramètres de la loi Log-normal va être réalisée avec la méthode des mo-
ments (démonstration en annexe G).

La loi Log-normale possédant deux paramètres, il est nécessaire d’avoir les deux premiers
moments, c’est-à-dire l’espérance et la variance.
σ2
(
E(X) = eµ+ 2
2 2
V ar(X) = (eσ − 1).e2µ+σ
Après application de la méthode, on obtient l’estimation suivante pour les deux paramètres
de la loi :

72

\ σ̂ 2
rln(E(X)) −
µ̂ =

2

V\
ar(X)
 σ̂ =
 ln( \ + 1)
e2ln(E(X))

Avec,

\ = 1 . Pn Xi
E(X) n i=1
ar(X) = 1 . n (Xi − E(X))
V\ \ 2
P
n i=1
Et X1 , ..., Xn un échantillon suivant une LogN (µ, σ 2 )

Ainsi, le calibrage des paramètres a été réalisé sur la sinistralité attritionelle agrégée. A par-
tir de la loi de sinistralité, on va déterminer celle du S/P car en pratique, le calibrage se fait
directement sur le Loss ratio attritionel. Pour passer des paramètres « calibrés » à partir de la
sinistralité, à ceux en se basant sur le S/P attritionel , nous avons cherché à déterminer la loi
de S/P en sachant que :

S une variable aléatoire, tel que S ∼ LogN (µ, σ 2 ).La densité d’une loi log-normale s’écrit :

1 (lnx − µ)2 1
f (x; µ, σ) = √ .exp(− 2
) = fy (ln(x); µ, σ)
xσ 2π 2σ x

(ln(x) − µ)2
Z ∞
S x 1
E( )= . √ .exp(− )dx
P 0 P xσ 2π 2σ 2
x
Changement de variable : on pose y = P ⇔ x = y · P et dx = P.dy
R ∞ yP )−µ)2
= 0 P .
1√
yP σ 2π
.exp(− (ln(yP
2σ 2
)P dy
R ∞ yP 2
= 0 P . yσ
1


.exp(− (ln(y)−(µ−ln(P
2σ 2
)))
)dy

S
Par identification, on trouve bien que P suit aussi une loi log-normale, avec comme paramètre

S
∼ LogN (µ − ln(P ), σ 2 )
P
Néanmoins, cette méthodologie n’est cohérente que lorsque notre portefeuille est à peu près
stable d’une année de survenance à l’autre. C’est pourquoi, pour les LoB présentant une évolu-
tion conséquente de leur portefeuille, il était nécessaire d’adopter une autre méthodologie.

Exemple :

Le calibrage des paramètres de la Log-Normale s’effectue comme précédemment en utilisant


la méthode des moments, mais sur les loss ratio attritionels observés dans l’historique.

5.4 Sinistralité Catastrophique


Dans le modèle interne, la sinistralité due à des événements de nature catastrophique est
prise en compte en approche simulatoire.

En effet, ces risques ne peuvent pas être appréhendés par une approche classique coût/fréquence,
et requièrent une table d’événements stochastiques associant une fréquence et une loi de coût

73
propres à chaque événement : ces tables d’événements (ou Event Loss Tables), concernent la
tempête Europe.

Les sorties des modèles catastrophes reposent sur la «resimulation» d’événements historiques
(par exemple Lothar et Martin) ainsi que d’événements «fictifs» générés par le logiciel sur les
expositions actuelles de notre portefeuille. Cette étape est essentielle afin de valider les sorties
du modèle.

Pour tous les périls modélisés, la table d’événements stochastiques se présente de la manière
suivante :

Figure 5.3 – Table d’évènements stochastiques

A noter que les montants présentés ici, sont bruts de réassurance. Chaque événement est
caractérisé par :

– Une probabilité de survenance qui est modélisée par une loi de Poisson de moyenne «fré-
quence», cette loi est donnée directement par le modèle catastrophe ;

– Le montant de l’évènement est lui-même aléatoire, il dépend de la vulnérabilité des expo-


sitions à l’événement, modélisée par un taux de dommage suivant une loi béta.

Dans le cas où un événement impacte plusieurs entités simultanément, la table d’événement


se présente sous la forme suivante :

Figure 5.4 – Table d’évènements stochastiques avec plusieurs entités

Ainsi dans cet exemple, l’événement 2 impacte les deux entités 1 et 2 contrairement à l’évé-
nement 1 qui impacte seulement l’événement 2.

5.4.1 Modélisation de la sinistralité tempêtes


La modélisation de la sinistralité relative aux tempêtes est réalisée à l’aide de tables de
données issues du logiciel de modélisation RMS. Le logiciel prend en entrée de son modèle les
sommes assurées par zone CRESTA (départements).

5.4.2 Modélisation des autres risques CAT


L’Etat offre à tous les assureurs via une structure dédiée, la CCR (Caisse centrale de réas-
surance) , une couverture de réassurance , pour les risques de catastrophes naturelles en France.
On parle de la «garantie Cat nat CCR».

Cette garantie couvre une liste d’évènements définis par la loi. On peut citer entre autre :
les inondations, les séismes, les ouragans.

74
Néanmoins les tempêtes, ne sont pas prises en charge par la CCR.

Dans notre étude, nous avons décidé de retenir, les 3 périls suivants (en plus de tempête), à
savoir : l’inondation, les tremblements de terre et la sécheresse. En effet, nous avons décidé de
ne pas modéliser le risque grêle, celui-ci représentant un poids relativement faible par rapport
aux autres périls.

L’idée va consister ici à calibrer une loi de fréquence, plus particulièrement une loi log-
normale dans l’objectif d’aboutir à des résultats cohérents avec ce qui a été obtenu en formule
standard, à savoir :

Figure 5.5 – Valeur des risques CAT en formule standard

Ces coûts peuvent être vus comme étant les événements bicentenaires (c’est-à-dire avec une
probabilité de réalisation de 0,5%).
Puis on procède à l’agrégation des 3 périls en utilisant la formule suivante, en considérant que
les périls sont indépendants entre eux :
q
Cout2inondation + Cout2tremblementdeterre + Cout2secheresse
Par hypothèse, nous considérons que les primes relatives aux CAT NAT représentent 10%
des primes totales sur la Lob incendie et autres dommages aux biens.
Comme pour le calibrage des paramètres sur la partie attritionelle, celui est réalisé sur des Loss
ratio et non pas sur un montant de sinistralité. Le quantile à 99,5% de la distribution du Loss
ratio sur la partie CAT s’écrit donc :
q
Cout2inondation + Cout2tremblementdeterre + Coutsecheresse
q99,5% =
Pcatnat
Nous considérons que le loss ratio moyen sur la sinistralité CAT, correspond au Loss ratio
moyen sur toute la LoB incendie et autre dommage aux biens

S S
cat nat moyen = LoB incendie et autre dommage aux biens moyen = 75%
P P
A partir de ces deux données :

– Le quantile à 99,5% de la distribution du Loss ratio sur la partie CAT ;

– La moyenne de la distribution du Loss ratio sur la partie CAT

On peut calibrer les 2 paramètres de la loi log-normale, et on obtient :

75
Après calibrage, on observe donc les différences suivantes entre le calibrage initial en formule
standard et celui réalisé pour le modèle interne partiel :

L’écart observé sur le quantile à 99,5% de la distribution du loss ratio S/P est voulu. Il a pour
objectif de mettre avant le gain qu’apporte le développement d’un modèle interne partiel au
niveau de la connaissance de sa sinistralité.

5.4.3 Modélisation des frais et des primes


La modélisation des primes brutes de réassurance est déterministe et correspond au vo-
lume anticipé dans le business plan des différentes LoB. On conserve les volumes de prime de la
formule standard.

Concernant les frais, seront considérés les frais d’acquisition, de gestion et ceux d’adminis-
tration. L’ensemble de ces frais est calé de façon déterministe, correspondant à un pourcentage
des primes. On conserve les frais de la formule standard (A savoir 25% des primes).

5.5 Détermination du SCR Prime et CAT sur la plateforme


Risk Explorer
• Détermination du SCR prime sur la plateforme Risk Explorer

Une fois les paramètres de toutes les lois déterminés, il a été décidé d’effectuer 50 000 simu-
lations. Ce nombre de simulations a été retenu car il nous permet d’avoir un échantillon de
taille correcte, et donc un bon niveau de précision tout en ayant un temps «algorithmique
» raisonnable.

Finalement, notre SCR prime sous modèle interne partiel correspondra à l’opposé du quan-
tile à 0,5 % de notre échantillon des résultats techniques sur le risque de prime.

Ainsi, pour chaque LoB i, on a le résultat suivant :

i
SCRprime = −V aR0,5% (RTi ) − E(RTi )

• Détermination du SCR CAT sur la plateforme Risk Explorer

Comme il l’a été dit précédemment, la LoB incendie et autres dommage aux biens est
concernée par de la sinistralité CAT, à savoir : Tempête, Inondation, tremblement de terre
et sècheresse.

L’approche retenue pour déterminer le SCR CAT, est la même que celle pour le risque de
prime.

A savoir, retenir l’opposé du quantile à 0,5 % de notre échantillon des résultats techniques
sur le risque CAT et centrer.

76
Chapitre 6

Modélisation du risque de réserve


dans le modèle interne partiel

6.1 Calibrage des paramètres de la distribution de réserves


Par hypothèse, on suppose que les réserves de la compagnie d’assurance virtuelle vont suivre
une loi log-normale, dont on va chercher à calibrer les paramètres.

Le choix de la loi Log-normale, se justifie comme précédemment pour la sinistralité attri-


tionnelle, avec ses propriétés statistiques particulièrement intéressantes. De plus, c’est une loi
utilisée couramment sur le marché. La méthodologie adoptée a été la suivante :

Nous avons tout d’abord retenues des données de marché, tirées d’un benchmark concernant
les coefficients de variations (CoV) à retenir par LoB.

Les coefficients de variation s’expriment avec la formule suivante :

σ0
CoV =
BE
0ù,

BE : correspond au best estimate de la LoB concernée.

σ 0 : correspond à l’écart-type

Les Best estimate et les coefficients de variation étant connus, on est en mesure de déterminer
les écarts-type par LoB.
Au final, on a l’espérance (⇔ le BE) et l’écart-type de notre loi log-normale.

A partir des formule de l’espérance et de la variance de la loi d’une log-normal, on obtient


les expressions suivantes pour les paramètres de la loi :

1 V ar(X)
µ = ln(E(X)) − .ln(1d + )
2 (E(X))2
V ar(X)
σ 2 = ln(1 + )
(E(X))2

77
6.2 Détermination du SCR réserve sur la plateforme Risk Ex-
plorer
Une fois les paramètres de notre loi déterminés, nous avons décidé d’effectuer 50 000 simu-
lations.

Ce nombre de simulation, nous permet d’avoir un échantillon de taille correcte, et donc un


bon niveau de précision tout en ayant un temps «algorithmique» raisonnable.

Une fois les réalisations effectuées, on peut ensuite déterminer les boni/mali, c’est-à-dire les
plus ou moins-values par rapport à notre Best Estimate pluggé initialement sur la plateforme
(Pour rappel, il correspond à la moyenne de notre loi préalablement calibrée).

Finalement, notre SCR réserve sous modèle interne correspondra à l’opposé du quantile à
0,5 % de notre échantillon de boni/mali, soit le pire «mali» dans 99,5% des cas.

78
Chapitre 7

Détermination du SCR souscription


non-vie sur la plateforme Risk
Explorer

Au final, une fois les SCR primes obtenus pour chacune des LoB, on réalise une première
diversification entre LoB pour obtenir le SCR prime total, pour cela on utilise les matrices de
corrélation de la formule standard. (Voir annexe B)

Le même raisonnement est appliqué pour obtenir le SCR réserve.

Enfin une seconde diversification entre le SCR prime et le SCR réserve est effectuée, puis une
dernière entre le SCR obtenus précédemment et le SCR CAT. Toutes les diversifications sont
réalisées avec les matrices de corrélation de la formule standard.

79
Chapitre 8

Agrégation générale

Pour les autres SCR à savoir SCR marché, contrepartie et opérationnel, on les conserve en
formule standard. Ainsi l’agrégation générale, se fait de manière similaire à ce qui est fait en
formule standard. C’est-à-dire que la diversification est faite avec les matrices de corrélation de
la formule standard.(Voir annexe B)

80
Chapitre 9

Présentation des résultats

9.1 Résultats des calibrages


9.1.1 Sinistralité grave
On obtient les résultats suivants, pour le calibrage des lois de fréquence et de coût pour la
sinistralité grave :

Figure 9.1 – Calibrage de la fréquence des sinistres graves

Figure 9.2 – Calibrage du coût des sinistres graves

rappel : Il n’y a pas de résultat pour la LoB dommage automobile, car on a fait précédemment
l’hypothèse qu’il n’y avait pas de sinistre grave sur cette LoB.

9.1.2 sinistralité attritionnelle


Pour la sinistralité attritionnelle, on obtient les résultats suivants sur le calibrage du S/P
attritionel :

Figure 9.3 – Calibrage du S/P attritionnel

Les résultats concernant les SCR seront abordés plus en détail dans la seconde partie.

9.2 Comparaison entre la formule standard et le modèle interne


partiel
Nous allons observer les différences obtenus entre le calibrage en formule standard et celui
en modèle interne partiel au niveau des SCR obtenus :

81
Figure 9.4 – Comparaisons SCR "prime et réserve" et SCR CAT entre formule standard et modèle interne
partiel

Sur le graphique ci-dessous, on observe que les SCR "prime et réserve" et CAT sont du même
ordre entre la formule standard et le modèle interne partiel. Le calibrage du modèle inerne partiel
a aussi été réalisé de telle manière à ce que ces deux SCR soient légèrement inférieurs à ceux
obtenus en formule standard. L’objectif étant de mettre en avant la gain qu’apporte le passage au
modèle interne partiel au niveau des exigences de solvabilité. En effet, cela traduit une meilleure
compréhension de l’entreprise de ses risques. Maintenant que le modèle est correctement calibré,
nous pouvons maintenant passer à la seconde phase qui va consister à mettre en place diverses
structures de réassurance sur le modèle.

82
Chapitre 10

Application de la réassurance au
modèle interne partiel

10.1 Observations et résultats préliminaires sur les différentes


stratégies de réassurance testées
10.1.1 Impacts des différentes structures de réassurance sur le SCR
Pour les différentes structures décrites ci-dessous, nous avons observé l’impact qu’engendre
la réassurance sur le SCR, et plus particulièrement sur les différentes composantes du SCR
souscription non-vie, à savoir : Le SCR Prime, le SCR Réserve et le SCR catastrophe. En
effet, comme on l’a vu dans la première partie, on peut faire l’hypothèse que les impacts de
la réassurance sur le risque de marché et sur le risque de contrepartie se compensent, et donc
focaliser l’étude sur le risque souscription non-vie.

Stratégie par défaut


Pour la stratégie par défaut, correspondant à la situation initiale sans réassurance, le SCR
souscription non-vie se décompose de la manière suivante :

Figure 10.1 – Composition du SCR souscription non-vie dans la stratégie par défaut

Structure A
Description

Cette structure est un peu différente de la structure A appliquée en formule standard :


• Traité Excess of loss sur le péril tempêtes, avec reconstitutions payantes et illimitées.
Le traité XS possède les caractéristiques initiales suivantes :

83
– Rétention : 35 millions d’euros ;

– Capacité : 665 millions d’euros.

Sur les autres périls (inondations, sécheresses, tremblements de terre), il y a application du


traité cat nat CCR, constitué :
D’un traité quote-part à 50%, plus d’un Stop-loss « illimité XS 200% » (C’est-à-dire que le
réassureur s’engage alors à protéger les résultats dépassant le ratio PS cible au-delà de 200%, et
sans limite supérieure).

Impact sur le SCR

Pour la stratégie A, on observe que l’application du traité excess of loss entraîne une réduc-
tion de 65% du risque catastrophe, et de 26% du risque de prime. Le risque de réserve n’est lui
pas affecté.

Figure 10.2 – Composition du SCR souscription non-vie dans la stratégie A

Figure 10.3 – Comparaison SCR souscription non-vie avant et après application de la stratégie de réassurance
A

Au final, on observe donc une réduction de SCR souscription non-vie de 31 %.

84
Structure A bis
Description

Cette stratégie comporte un traité Excess of loss sur le péril tempêtes avec reconstitutions
gratuites et illimitées. A cela s’ajoute l’application du traité cat nat CCR (Quote-part à 50%
+ Stop-loss) sur les autres périls (inondations, tremblements de terre, sécheresses)

Impact sur le SCR

Pour la stratégie A bis, on observe que l’application du traité excess of loss entraîne une
réduction de 65% du risque Catastrophe, et de 26% du risque de prime. Le risque de réserve
n’est lui pas affecté.

Figure 10.4 – Composition du SCR souscription non-vie dans la stratégie A bis

Figure 10.5 – Comparaison SCR souscription non-vie avant et après application de la stratégie de réassurance
A bis

On observe donc une réduction de SCR souscription non-vie de 31%. A un million près, les
deux structures A et A bis sont équivalentes. Ce point sera développé plus en détail dans
la sous-section suivante.

Structure D
Description

85
Cette structure se compose de :

• Quote-part à 50% ;

• Loss portfolio transfert à 30% ;

• Traité XS cat sur le péril tempêtes avec reconstitutions gratuites et illimitées + traité cat
nat CCR (Quote-part à 50% + Stop loss) sur les autres périls (inondations, tremblements
de terre, sécheresse) ;

Impact sur le SCR

Pour la stratégie D, on observe que tous les sous-modules du risque non-vie se retrouvent
affectés par le programme de réassurance. Comme précédemment, le risque catastrophe subit
une réduction de 65%. Sans surprise, le risque de réserve diminue de 30%, quant au risque de
prime il est réduit de 55%.

Figure 10.6 – Composition du SCR souscription non-vie dans la stratégie D

Figure 10.7 – Comparaison SCR souscription non-vie avant et après application de la stratégie de réassurance
D

On observe donc une réduction de SCR souscription non-vie de 46%.

86
Structure E
Description

Application d’une quote-part à 50%, puis sur la charge nette du quote-part, application d’un
traité XS par risque sur les LoB « responsabilité civile automobile» et « responsabilité civile
générale » ;

Impact sur le SCR

Pour la stratégie E, on observe que l’application du traité excess of loss entraîne une réduction
de 65% du risque Catastrophe, et de 26% du risque de prime. Le risque de réserve
n’est pas affecté.

Figure 10.8 – Composition du SCR souscription non-vie dans la stratégie E

Figure 10.9 – Comparaison SCR souscription non-vie avant et après application de la stratégie de réassurance
E

On observe donc une réduction de SCR souscription non-vie de 7%

Structure E bis
Description

87
Cette structure est identique à la structure E. La seule différence réside dans la méthodologie
d’application du traité XS, sur la charge nette de quote-part. Dans la structure E bis, la rétention
et la capacité initiale du traité restent inchangées, tandis que dans la E, elles sont multipliées
par (1 − taux de cession) ;

Impact sur le SCR

Pour la stratégie E bis, qui a été décrite précisément dans la partie précédente, on observe
que l’application du traité excess of loss entraine une réduction de 26% du risque de prime. Le
risque de réserve et le risque catastrophe ne sont pas affectés.

Figure 10.10 – Composition du SCR souscription non-vie dans la stratégie E bis

Figure 10.11 – Comparaison SCR souscription non-vie avant et après application de la stratégie de réassurance
E bis

On observe donc une réduction du SCR souscription non-vie de 7%.

Ainsi au vu des résultats obtenus, on peut conclure que les deux structures de réassurance
E et E bis sont équivalentes en termes de SCR (en arrondissant les résultats au million près).
En annexe H se trouve une analyse détaillée de la comparaison de ces deux structures, avec
une tierce dans laquelle est appliquée d’abord le traité XS, puis un traité en quote-part sur la
charge nette.

Structure G
Description

88
• Application du programme CCR (Quote-part 50% + Stop-Loss) ;
• Traité XS sur le risque CAT (identique à celui appliqué dans la structure A/A bis) ;
• Traité XS sur la LoB RCG ;
• Traité XS sur la LoB RC Auto ;
• Au final, un traité Stop-Loss s’applique aux charges nettes des XS cat, XS RCG, XS RCA
et prenant aussi en considération la sinistralité attritionnelle.

Impact sur le SCR

Pour la stratégie G, qui a été décrite précisément dans la partie précédente, on observe les
résultats suivants : Le risque catastrophe subit une réduction de 67%, quant au risque de prime
il est réduit de 55%. Le risque de réserve n’est lui pas affecté.

Figure 10.12 – Composition du SCR souscription non-vie dans la stratégie G

Figure 10.13 – Comparaison SCR souscription non-vie avant et après application de la stratégie de réassurance
G

On observe donc une réduction de SCR souscription non-vie de 7%.

10.1.2 comparaison des structure A et A bis


Pour rappel, les structures A et A bis diffèrent sur le point suivant :

Dans la première, le traité XS est en reconstitutions payantes et illimitées tandis que


la seconde est en reconstitutions gratuites et illimitées.

89
Dans le cadre de notre mémoire, on observe que les deux structures sont équivalentes.

En effet, pour la quasi-totalité des réalisations, les sinistres cédés sont les mêmes d’une struc-
ture à l’autre et sont inférieurs à la capacité du traité (665 Me ). Néanmoins le fait d’avoir des
sinistres cédés inférieurs à la capacité ne signifie pas nécessairement qu’il n’y a pas de reconsti-
tutions. On peut juste ici conclure que les reconstitutions ne sont pas significatives.

Par exemple, considérons un traité en excédent de sinistres 40Me XS 10e. Il y’a un sinistre
de valeur 30 Me :

Figure 10.14 – Application du traité XS

20
On devra payer une reconstitution à hauteur de 40 , et ce même si le sinistre ne dépasse pas
la capacité.

90
Troisième partie

L’optimisation de réassurance

91
Chapitre 11

Présentation des objectifs et des


contraintes

Préambule à la troisième partie :

Dans ce dernier chapitre, nous allons développer un programme d’optimisation de réassurance


avec contraintes sur différentes structures. De plus, nous allons observer les impacts ainsi que
l’influence de la politique d’appétence au risque sur le programme d’optimisation.

11.1 Le cadre d’appétence au risque


Avant de réaliser une optimisation en réassurance, il est indispensable de commencer par
définir le cadre d’appétence au risque mis en place par la compagnie d’assurance virtuelle.

11.1.1 Définition des concepts clés


La définition d’un cadre d’appétence au risque nécessite une bonne compréhension de la
relation entre les concepts clés ci-dessous :

La capacité du risque
La capacité du risque, correspond « à une évaluation par le Management du coût du
risque maximum que l’institution financière peut assumer, tenant compte de sa liquidité, de ses
engagements et de son business plan. » 1

L’appétence au risque
L’appétence au risque correspond au niveau global de risque qu’une entité est prête à
prendre, dans la réalisation de ses objectifs (rentabilité, croissance, réassurance) à l’horizon de
son business plan.

Les limites
Les limites sont « des mesures quantitatives basées sur des hypothèses de calcul et qui
matérialisent la déclinaison de l’appétence au risque par catégorie de risques sur les lignes de
services ou tout autre niveau de déclinaison jugé pertinent ».1

Aversion aux risques


Profil d’un individu ou d’une entité ne souhaitant pas courir un risque et qui est prêt à la
transférer à un tiers, ou qui refusera toute action lui faisant percevoir un risque qu’il considère
comme étant excessif vis-à-vis de sa capacité à le supporter.
1. cf Principles for An Effective Risk Appetite Framework. Voir bibliographie.

92
Risquophile
Profil d’un individu ou d’une entité, qui contrairement au profil précédent aura tendance à
accepter davantage de risque.

11.1.2 Illustration
Le graphe ci-dessous représente les différentes situations dans lesquelles peut se trouver une
compagnie vis-à-vis de son cadre d’appétence au risque.

Figure 11.1 – Les différentes situations du cadre d’appétence au risque

Dans la première situation, l’exposition au risque est inférieure à la limite minimale, des
actions correctives sont à prévoir.

Dans la seconde situation, correspond au cas optimal : l’exposition au risque, est bien com-
prise entre les seuils, c’est une situation à maintenir.

Dans le troisième cas, comme dans le premier, il nécessaire de lancer des opérations correc-
tives même si la situation n’est pas encore critique.

Dans la quatrième situation, l’exposition au risque dépasse le niveau d’appétence au risque


maximal. La situation est critique, et nécessite une intervention.

Enfin dans la dernière situation, l’exposition au risque est supérieure à la capacité du risque.
La situation n’est pas viable, et il est urgent d’acter un plan de redressement.

11.1.3 Application à l’étude


Dans le cadre de notre mémoire, nous allons définir 2 profils d’appétence au risque différents,
pour la compagnie d’assurance virtuelle :

• Un premier profil, qui sera caractérisé par une aversion aux risques importante.
Par conséquent, elle voudra limiter son exposition aux risques, et aura tendance à recourir
davantage à la réassurance.

• Un second profil, qu’on pourra qualifier de « risquophile », qui sera donc plus enclin
à prendre du risque et à subir des pertes importantes.
Chacun des deux profils, possédera un certain nombre de caractéristiques qui représente-
ront son appétence au risque, et donc permettront de définir des contraintes sur l’optimi-
sation.

93
11.2 Les contraintes d’optimisation
Les caractéristiques que nous avons retenues pour définir les contraintes que devra respecter
le programme d’optimisation seront les suivantes :

• D’une part, déterminer un seuil de résultat moyen net de réassurance sous lequel
l’assureur ne souhaite pas passer, pour chacune des LoB. Ce critère a été retenu car
comme toute entreprise, une compagnie d’assurance a pour objectif de maximiser sa renta-
bilité, c’est-à-dire d’être en mesure de faire le meilleur résultat possible. Pour rappel, le
résultat technique correspond aux primes auxquelles on soustrait les sinistres et les frais ;

• Puis, déterminer un seuil de quantile à 99,5% de la distribution de la charge


nette sous lequel l’assureur souhaite passer, pour chacune des LoB. Ce critère a été
retenue car il permet de protéger les assureurs des valeurs extrêmes provenant des queues
de distribution des charges : C’est la mesure de risque standard proposée par l’EIOPA.

A noter, que ce ne sont pas des contraintes « d’égalité » mais des contraintes « d’inégalité
». C’est-à-dire que l’assureur acceptera toujours une structure de réassurance permettant d’at-
teindre un quantile à 99,5% de la distribution de la charge nette inférieur au seuil définit, à
condition que le résultat net soit supérieur (ou égal) au seuil associé.

11.2.1 Contraintes pour le premier profil


Ainsi pour le premier profil qui est averse au risque, les seuils retenus sont les suivants :

11.2.2 Contraintes pour le second profil


Quant au second profil, «risquophile », les seuils retenus sont les suivants :

Remarque importante :

On peut constater que le résultat technique de notre compagnie d’assurance virtuelle est
négatif, sur la partie « catastrophe » de la ligne d’activité « Incendie et autre dommages aux
biens » et sur la ligne d’activité « dommage automobile », ce qui s’explique par le fait que les
primes ne sont pas suffisantes pour faire face aux sinistres catastrophes, qui sont très importants.
Dans la réalité, c’est un fait que les compagnies d’assurance font généralement peu de résultat au
niveau de la souscription. C’est pourquoi, il n’est pas alarmant d’observer des résultats négatifs
dans le cadre du mémoire.

11.3 Objectif d’optimisation


L’idée serait d’être en mesure de donner pour chacune des structures retenues, les paramètres
(c’est-à-dire les caractéristiques pour chaque type de traité) permettant d’avoir le plus grand
gain en SCR, tout en respectant les contraintes ci-dessus et cela pour les deux profils de
risque présentés précédemment.

Néanmoins, observer exclusivement le gain en SCR, n’est pas très pertinent dans le cadre de
l’étude. En effet, il est facile de trouver des structures offrant un gain en SCR très conséquent

94
mais en contrepartie le résultat que l’assureur devra céder au réassureur sera beaucoup trop
important. On peut par exemple penser au cas extrême, où l’assureur cède l’intégralité de ses
expositions.

C’est pourquoi, il est plus intéressant d’analyser plus précisément la « rentabilité » des
structures de réassurance, en prenant pour indicateur le ratio suivant : gain en SCR/résultat
cédé moyen. Ce ratio peut donc se traduire de la manière suivante : Si le ratio vaut x, cela signifie
que pour 1 euro de résultat cédé moyen au réassureur, cela apporte un gain en SCR de x euros
à l’assureur.
Ce ratio correspond donc à la fonction « objectif » de notre programme d’optimisation.

Ainsi l’objectif est de trouver le meilleur ratio de telle manière à ce que le résultat technique
net moyen et le quantile à 99,5% de la charge nette ne dépassent pas leurs seuils respectifs.

Comme il l’a été dit en seconde partie, nous avons posé l’hypothèse que l’impact du SCR sur
le risque de contrepartie, pouvait être vu comme étant équivalent à la baisse subie par le risque
de marché. Par conséquent, pour notre étude, l’optimisation du gain de SCR total est
équivalent à optimiser le gain de SCR, exclusivement pour le risque souscription
non-vie. De plus, centrer l’étude sur le SCR souscription non-vie plutôt que sur le SCR total,
est une bonne approximation car elle permet d’évaluer de manière plus juste l’impact de la
réassurance. En effet, après la phase d’agrégation des différents SCR, les effets de la réassurance
se retrouvent "dilués". C’est pourquoi, on se concentrera exclusivement sur ce SCR.

95
Chapitre 12

La méthode d’optimisation

Dans un premier temps, nous avions la volonté de résoudre le programme d’optimisation


définis précédemment par application d’une des méthodes d’optimisation sous contraintes déjà
existantes, qui ont déjà fait leurs preuves dans le passé. Comme par exemple la méthode du
Lagrangien, qui est une méthode permettant de trouver les points stationnaires (maximum, mi-
nimum...) d’une fonction dérivable d’une ou plusieurs variables, sous contraintes.

Néanmoins, nous nous sommes rapidement rendus compte qu’aucune de ces méthodes d’op-
timisation usuelles ne pouvait s’appliquer correctement dans le cadre de notre mémoire.

En effet la fonction « objectif », qui pour rappel est le ratio « Gain en SCR/Résultat cédé
moyen », ne peut en aucun cas s’écrire comme une fonction analytique simple sur laquelle on
pourrait appliquer une méthode d’optimisation. En effet, la détermination du gain en SCR est
un calcul suffisamment complexe pour ne pas pouvoir être résumé en une simple fonction, et
de même concernant le résultat net. L’absence du caractère analytique de la fonction «
objectif » était suffisante pour ne pas être en mesure d’appliquer correctement une méthode
d’optimisation usuelle.
En plus de cela, ce ratio ne possède pas les propriétés mathématiques usuelles,qui certes ne sont
pas forcément nécessaire selon la méthode mais qui peuvent s’avérer être utiles. En particulier,
il n’est pas différentiable ni concave. C’est pourquoi, nous allons générer stochastiquement
des distributions empiriques (modèle DFA), via le logiciel Risk Explorer.

Nous allons procéder en plusieurs étapes afin de trouver une structure optimale pour la com-
pagnie d’assurance que nous avons modélisée.

12.1 Les étapes de l’optimisation


Les principales étapes qui seront abordées plus en détail dans la suite du mémoire sont les
suivantes :

• Détermination du nombre de simulation à effectuer ;

• Mise en oeuvre d’une méthode de tarification par simulation sur les traités de réassurance
non-proportionnelle ;

• Optimisation par ligne d’activité, et non "globale".

Pour les traités non-proportionnels, la méthodologie se présente sous la forme suivante :


• Étude de la distribution des sinistres individuels concernés par le traité ;

• Détermination des niveaux de rétention et de capacité à tester, ainsi que le pas de test à
partir de l’étude menée au point précédent ;

• Comparaisons des différents traités en faisant varier la rétention et la capacité ;

96
• Détermination d’une liste de traités respectant les critères de décisions (quantile à 99,5%
de la charge nette, résultat net moyen) et pouvant être des solutions potentielles au pro-
gramme de réassurance ;

• Analyse détaillée de ces traités pour déterminer celui (ou ceux) maximisant la fonction
objectif.

Nous avons décidé de mettre en place un mécanisme d’optimisation progressif, consis-


tant à observer individuellement chacune des lignes d’activités. C’est-à-dire que l’on
cherche à déterminer les paramètres « optimaux » des traités de réassurance, pour chaque LoB.
Cette approche a été préférée à une optimisation « globale » pour plusieurs raisons. Une opti-
misation « globale » nécessiterait de tester en simultané l’intégralité des paramètres.
Il faudrait donc observer et tester de très nombreuses combinaisons de ces paramètres dans l’es-
poir d’obtenir un résultat cohérent. C’est pourquoi, cette méthodologie ne pouvait être appliquée
justement.
La tâche est d’autant plus compliquée qu’il y a différents types de traité, et que d’une ligne
d’activités à l’autre, les traités exercés ne sont pas nécessairement les mêmes. En fonction du
type de traité concerné, les paramètres que l’on cherche à optimiser ne sont généralement pas
les mêmes non plus. La combinaison de tous ces paramètres en simultané était donc ardue.

De plus cette méthodologie avait davantage de sens dans le cadre du mémoire, due fait que
la contrainte relative au quantile à 99,5% ainsi que celle sur le résultat net porte toujours sur
une LoB en particulier.

12.2 Paramètres à optimiser


Ensuite, il était nécessaire de bien définir les paramètres à optimiser en fonction du
type de traité concerné. Ainsi en réassurance non-proportionnelle (c’est à dire pour les traités
en excédent de sinistres et les traités Stop-loss), nous avons décidé de retenir les paramètres
les plus représentatifs, à savoir la rétention et la capacité qui ont le plus d’impact sur les
prestations et les primes cédées. Nous considérerons que ce sont des traités avec des recons-
titutions gratuites et illimitées 1 . C’est une offre encore marginale sur le marché, mais qui
tends à apparaître progressivement. En réassurance proportionnelle, plus particulièrement
les traités quote-part, le paramètre observé sera le taux de cession.

12.3 Le nombre de simulations


Dans les simulations précédentes, effectuées dans le chapitre 2, nous avions fixé le seuil de 50
000 simulations. Néanmoins, comme nous allions être amené à réaliser un très nombre de tests,
il était capital de réduire au maximum le temps nécessaire pour faire tourner le modèle en dimi-
nuant le nombre de simulations effectuées, tout en gardant un niveau de précision satisfaisant.
Cette problématique "temps-machine" sur le temps nécessaire pour faire tourner un modèle, est
encore un enjeu crucial et déterminant pour les assureurs, qui peuvent mettre des jours à faire
tourner leurs modèles les plus complexes.

Pour justifier cette démarche, la méthodologie mise en place consiste à observer la stabilité
des différents indicateurs que l’on utilise, afin d’en déduire à partir de combien de simulations
on obtient un résultat stable.

Dans un premier temps, nous allons observer le comportement des estimateurs utilisés pour
effectuer la tarification des traités non-proportionnels, à savoir la moyenne et la variance empi-
riques des charges cédées.

1. Hypothèse faite par soucis de simplification du modèle

97
Les graphiques ci-dessous représentent les comportements des différents estimateurs en fonc-
tion du nombre de simulations réalisées :

Figure 12.1 – Ce graphique représente l’évolution de la moyenne empirique des charges cédées en fonction de
la taille de l’échantillon observé. Le traité non-proportionnel observé est un 35 Me XS 665 Me.

On remarque qu’à partir de 10 000 simulations, l’estimateur devient plus stable.

Figure 12.2 – Ce graphique représente l’évolution de l’écart-type empirique des charges cédées en fonction de
la taille de l’échantillon observé. Le traité non-proportionnel observé est un 35 Me XS 665 Me.

On remarque qu’ici c’est à partir de 25 000 simulations, que l’estimateur devient plus stable.
Enfin, nous allons observer un dernier indicateur qui est le résultat cédé moyen :

Figure 12.3 – Ce graphique représente l’évolution du résultat cédé moyen en fonction de la taille de l’échantillon
observé. Le traité non-proportionnel observé est un 35 Me XS 665 e.

On remarque qu’à partir de 3 000 simulations, l’estimateur devient plus stable.


En conclusion, on va donc retenir comme nombre de simulations à effectuer, de telle manière
à ce que les 3 estimateurs soient stables.

98
Ainsi de ces observations, on peut conclure que l’on peut réduire le nombre de simulations à
effectuer à 25 000, tout en gardant un bon niveau de précision.

12.4 Indicateurs de réassurance


Dans le cadre de notre mémoire, nous allons aussi observer les indicateurs de réassurance
suivants :

• La "probabilité d’attachement"

• La "probabilité d’épuisement"

Avec la nouvelle réglementation, l’intérêt se porte essentiellement sur les queues de distri-
bution. Ces indicateurs vont donc aussi permettre de regarder l’impact de la réassurance
quand on a une période de retour faible (c’est à dire lorsqu’on a des évènements plus
réguliers).

12.4.1 La "probabilité d’attachement"


Définition
Cet indicateur correspond à la probabilité qu’un sinistre dépasse la rétention d’un traité
en excédent de sinistre, c’est-à-dire à la probabilité que le traité soit activé. Nous avons décidé
de retenir 25 000 simulations. Cet indicateur correspond au quotient du nombre de sinistres
concernés avec le nombre de simulations réalisées (Soit 25 000 dans notre cas).

Comportement de la "probabilité d’attachement"


Pour étudier le comportement de cet indicateur, nous avons exploité les données issues de la
plateforme Risk Explorer, pour des traités Excess of Loss avec les caractéristiques suivantes :

• Une capacité fixée, à 300 Me ;

• Une rétention variable.

Le graphique ci-dessous représente l’évolution de la probabilité d’attachement pour un traité


excess of loss avec une capacité fixe et une rétention variable.

Figure 12.4 – Evolution de la probabilité d’attachement, en fonction de la rétention (avec capacité fixe)

Ainsi, on observe que la probabilité d’attachement tend rapidement vers 0, avec l’augmen-
tation de la rétention.

Le graphique ci-dessous représente quant à lui la stabilité de cet indicateur suivant le nombre
de simulations réalisée :

99
Figure 12.5 – Evolution de la probabilité de rattachement en fonction de la taille de l’échantillon observé pour
un traité non-proportionnel observé est un 665 Me XS 35 Me.

De ce graphique, on peut en conclure qu’à partir de 3 000 simulations l’indicateur devient


relativement stable, ainsi les 25 000 simulations effectuées sont suffisantes.

12.4.2 La "probabilité d’épuisement"


Définition
Cet indicateur correspond à la probabilité qu’un sinistre dépasse le plafond d’un traité excess
of loss. Comme précédemment, 25 000 simulations ont été retenues. Cet indicateur correspond
donc au quotient du nombre de sinistres dépassant le plafond avec le nombre de simulations
réalisées.

Comportement de la "probabilité d’épuisement"


Comme pour le premier indicateur, nous avons exploité les données issues de la plateforme
Risk Explorer, pour des traités en Excédent de sinistre avec les caractéristiques suivantes :
• Une rétention fixée, à 35 millions d’ e ;
• Une capacité variable.
Le graphique ci-dessous représente l’évolution de la probabilité d’épuisement pour un traité
excess of loss avec une rétention fixe et une capacité variable.

Figure 12.6 – Evolution de la probabilité d’épuisement, en fonction de la capacité (avec rétention fixe)

100
On observe le même phénomène que pour la probabilité d’attachement, à savoir que la pro-
babilité va tendre rapidement vers 0 avec l’augmentation de la capacité du traité.

Le graphique ci-dessous représente quant à lui la stabilité de cet indicateur suivant le nombre
de simulations réalisées :

Figure 12.7 – Ce graphique représente l’évolution de la probabilité d’épuisement en fonction de la taille de


l’échantillon observé. Le traité non-proportionnel observé est un 665 Me XS 35 Me.

On constate, sans surprise qu’il reste très proche de 0 et devient plus stable à partir de 25
000 simulations, correspondant au nombre de simulations effectuées.

101
Chapitre 13

Application à la structure D

13.1 Traité en excédent de sinistre sur le risque tempête


Pour rappel, cette structure est caractérisée par l’application d’un traité en excédent de si-
nistres sur le risque tempête. Nous rappelons que la première étape va consister à se focaliser
sur les paramètres les plus représentatifs d’un traité de réassurance non proportionnelle qui sont
la rétention et la capacité.

A noter que la structure D est aussi caractérisée par l’application de la garantie CAT NAT
CCR, qui a été décrite dans le chapitre précédent et qui s’applique aussi sur le risque catas-
trophe, mais sur les autres périls que tempête,grêle et neige. On peut aisément faire l’hypothèse
que les paramètres de cette garantie sont stables, et donc la mettre de côté pour l’optimisation.

Afin de déterminer les couples (rétention, capacité) à tester, nous procédons au préalable à
une observation de la distribution des évènements tempête, représentés ci-dessous :

Figure 13.1 – Distribution du coût individuel des évènements tempête

Figure 13.2 – Statistiques sur les évènements tempêtes

102
On peut remarquer sur le graphique ci-dessus que 40% des évènements sont inférieurs à 100
K e, et que près de 72% des évènements sont inférieurs à 1 million d’euros. Cela s’explique par le
fait que les évènements tempêtes génèrent un nombre conséquent de sinistres avec des montants
modérés.

Néanmoins l’objectif des traités non proportionnels étant de gérer les sinistres à caractère
exceptionnel nous allons seulement observer les traités dont la rétention dépasse 5 millions d’eu-
ros. Ce qui comprend environ 5% des évènements. De plus, il n’est pas aisé de trouver sur le
marché des traités ayant une rétention en dessous de ce niveau.

Sur le second graphique ci-dessous, nous pouvons observer avec davantage de précision la
répartition des sinistres au-delà de 2 millions d’euros.

Figure 13.3 – zoom sur la queue de distribution

Détermination de la Tail Value at Risk (TVaR)

La Tail Value at Risk est une mesure de risque cohérente 1 . La mesure de risque exige
que l’on s’intéresse à la distribution de probabilités des queues de la distribution. La VaR ne
permet pas de traiter cette problématique car elle définit un seuil. De plus elle ne dit rien sur
l’importance de la perte quand elle se produit, ni d’ailleurs sur la distribution des pertes au-delà
de la VaR.

La Tail Value at Risk va permettre de s’intéresser à ce qui se passe en moyenne lorsque


des évènements extrêmes surviennent. La Tail Value at Risk au niveau α, notée TVaR(X,α) se
définit de la manière suivante :
Z 1
1
T V aR(X, α) = V aR(X, t)dt
1−α α
Avec, V aR(X, t), la Value At Risk de niveau t.

Ici, X est la variable aléatoire correspondant au montant des sinistres individuels. Autrement
dit, la T V aR est la moyenne des VaR de niveau supérieur à α.
On définit aussi, l’expected shortfall, au niveau de probabilité α, notée ES(X, α) :

ES(X, α) = E((X − V aR(X, α))+ )


On peut écrire la relation suivante entre la TVaR et l’expected shortfall :
1
T V aR(X, α) = V aR(X, α) + ES(X, α)
1−α
1. Voir définition et démonstration en annexe I et J

103
Démonstration :

Z +∞
ES(X, α) = E((X − V aR(X, α))+ ) = (x − V aR(X, α))+ · f (x)dx
−∞

Avec, f (x) la fonction de densité de X

Puis on réalise le changement de variable suivant :

On pose y = F (x) , avec F(x) la fonction de répartition de X,

Ce qui donne f (x)dx = dy


En remplaçant, on obtient :
Z 1 Z 1
ES(X, α) = (F −1 (y) − V aR(X, α))+ dy = (V aR(X, y) − V aR(X, α))+ dy
0 0
Z 1
⇔ ES(X, α) = (V aR(X, y) − V aR(X, α))dy
α
Z 1 Z 1
⇔ ES(X, α) = V aR(X, y)dy − V aR(X, α)dy
α α
Z 1
⇔ ES(X, α) = V aR(X, y)dy − (1 − α) · V aR(X, α)
α
Et on retrouve la relation précédente :

1 1 1 Z
V aR(X, α) + ES(X, α) = V aR(X, t)dt = T V aR(X, α)
1−α 1−α α
Dans le cadre du mémoire, nous allons utiliser cette relation pour déterminer différents
niveaux de T V aR. L’expected shortfall, sera estimée par détermination de la moyenne empirique
sur nos simulations. Nous avons préalablement observé la stabilité de cet estimateur afin de
déterminer le nombre de simulations nécessaires.

104
Figure 13.4 – Stabilité de l’estimateur de la moyenne empirique de l’Expected Shortfall en fonction du nombre
de sinistres simulés.

Remarque importante :
Ce graphique a été construit à partir d’une observation constituée de 25 000 simulations
globales. En effet, une seule simulation peut contenir plusieurs sinistres.
On remarque qu’à partir de 100 000 sinistres simulés, l’estimateur est d’avantage stable.
Comme précédemment, on pourra donc garder un nombre de simulations globales égal à 25 000
sans perte de précision.
On obtient alors les résultats suivants :

Figure 13.5 – TVAR sur les évènements "tempête"

Nous décidons de comparer les traités dont la rétention varie de 5 millions à 105 millions
d’euros et la capacité de 100 millions à 650 millions d’euros. Ces deux paramètres combi-
nés, nous permettent d’atteindre un plafond maximal de 755 millions d’euros.
Dans un premier temps nous testerons l’ensemble des couples rétention/capacité avec un pas
de 10 millions d’euros pour la rétention et de 50 millions d’euros pour la capacité.

Une première analyse est effectuée en observant l’évolution du quantile à 99,5% de la dis-
tribution de la charge nette et du ratio gain en SCR sur résultat cédé moyen, pour une seule
rétention et en faisant varier le niveau de la capacité.

Par exemple, pour des traités non-proportionnels de rétention 35 millions d’euros et de


capacité allant de 100 à 700 millions d’euros, nous observons les résultats suivants :

105
Figure 13.6 – Évolution du ratio "gain en SCR sur résultat cédé moyen" avec application d’un traité XS de
rétention 35 Me et capacité variable

De la même manière, nous obtenons les résultats suivants pour des traités non-proportionnels
de rétention 15 millions d’euros :

Figure 13.7 – Évolution du ratio "gain en SCR sur résultat cédé moyen" avec application d’un traité XS de
rétention 15 Me et capacité variable

Nous remarquons que pour une rétention donnée, plus la capacité augmente, plus le traité
semble efficace en terme de quantile, puisqu’on observe une réduction du quantile à 99,5% de la
distribution de la charge nette. Néanmoins, à partir d’un certain seuil, il n’est plus intéressant
d’augmenter la capacité en termes de réduction du quantile. En effet, on peut observer sur les
deux graphiques que les derniers points sont à peu près au même niveau d’abscisse. Cela se
traduit par le fait qu’à partir d’un certain montant l’augmentation de la capacité n’implique
pas forcément une cession de sinistre plus importante. Ce seuil est atteint lorsque le plafond du
traité dépasse la valeur potentielle maximale d’un évènement tempête.

Concernant le ratio « gain en SCR/résultat cédé moyen », globalement celui-ci va avoir ten-
dance à augmenter avec la capacité. Par contre, comme pour le quantile, à partir d’un certain

106
seuil il n’est plus optimal d’augmenter la capacité du traité. Il semblerait qu’à partir d’un seuil
la hausse tarifaire liée à l’agrandissement de la capacité n’apporte pas ou peu de gain en SCR
supplémentaire. Sur le premier graphe, on peut remarquer un "creux important", tradui-
sant une chute du ratio. Cette baisse peut s’expliquer que le passage d’un niveau de capacité
à l’autre à entraîner un gain en SCR relativement faible par rapport au coût nécessaire pour
l’acquisition du traité.
Même si d’un niveau de rétention à l’autre, l’aspect du graphe peut changer on retrouve néan-
moins les caractéristiques décrites précédemment.

A ce stade, nous pouvons donc conclure qu’il existe sûrement un niveau optimal de ca-
pacité pour chaque niveau de rétention.

Les résultats globaux obtenus pour tous les traités testés sont les suivants :

Pour le premier profil de risque, qui est risquophile :

Figure 13.8 – représentation des couples testés sur un graphique "Résultat net moyen/quantile à 99,5% de la
charge nette

Les deux lignes bleues représentent, la contrainte sur le quantile à 99,5% de la distribution de
la charge nette et celle portant sur le résultat net moyen. Par conséquent, la partie rectangulaire
supérieure gauche du graphique, représente les couples (rétention, capacité) qui peuvent être
potentiellement solution du programme d’optimisation.

Remarque : La tarification des traités de réassurance non-proportionnelle sera effectuée


à chaque nouveau couple testé. Pour rappel, la méthode retenue consistera à déterminer la
moyenne ainsi que l’écart-type des cessions du traité. Le prix du traité correspondra à la somme
de la moyenne et de 30% de cet écart-type.

En faisant un zoom sur la zone concernée, on obtient le résultat suivant :

107
Figure 13.9 – zoom sur la zone des solutions potentielles

On obtient donc une liste de structures décrites ci-dessous, qu’il faudra analyser plus en
détail afin de déterminer la ou les solution(s).

Figure 13.10 – Liste des solutions potentielles

De même pour le second profil de risque, qui est cette fois averse au risque, on obtient les
résultats suivants :

Figure 13.11 – Représentation des couples testés sur un graphique "Résultat net moyen/quantile à 99,5% de la
charge nette

108
On remarque, bien entendu que le graphe est identique au précèdent. La seule différence fon-
damentale réside dans le déplacement des segments bleus, illustrant la variation des contraintes,
d’un profil de risque à l’autre. Cela entraîne par conséquent une modification de l’aire de la zone
des solutions potentielles.

Ainsi, pour ce profil on obtient la liste de couple (rétention, capacité) suivante :

Figure 13.12 – Liste des solutions potentielles

On observe une liste de solutions potentielles plus importante pour le premier profil, tradui-
sant bien sa volonté à prendre du risque.
Pour chaque couple appartenant aux listes décrites précédemment, nous allons observer la
valeur du ratio « Gain en SCR/Résultat cédé moyen », sur le graphe ci-dessous.

La ou les solution(s) optimale(s) correspondront à celles donnant le ratio le plus élevé. Pour
le premier profil de risque, risquophile :

Figure 13.13 – Représentation des solutions potentielles sur un graphique "Ratio gain en SCR sur résultat cédé
moyen/Quantile 99,5%"

Ainsi, ici la solution optimale, est le couple (rétention, capacité) N possédant les caractéris-
tiques suivantes :

Figure 13.14 – Caractéristiques de la solution

Plus précisément les indicateurs se décomposent de la manière suivante :

Figure 13.15 – Caractéristiques de la solution

Pour le second profil, averse au risque, on obtient les résultats suivants :

109
Figure 13.16 – représentation des solutions potentielles sur un graphique "Ratio gain en SCR sur résultat cédé
moyen/Quantile 99,5%"

Ainsi, ici la solution optimale, est le couple (rétention, capacité) possédant les caractéristiques
suivantes :

Figure 13.17 – Caractéristiques de la solution

Plus précisément les indicateurs se décomposent de la manière suivante :

Figure 13.18 – Caractéristiques de la solution

Dans la continuité de l’analyse du traité optimal, nous affinons les résultats en prenant un
pas plus petit pour tester les différents couples (capacité, rétention). Nous passons à un pas
de 5 millions d’euros pour la rétention et de 25 millions d’euros pour la capacité. Nous testons
alors d’autres traités dont les paramètres seront probablement plus optimaux que ceux de l’étape
précédente.
Nous soutirons ainsi les résultats suivants :

Pour le premier profil de risque, qui est risquophile :

Figure 13.19 – Représentation des couples testés sur un graphique "Résultat net moyen/quantile à 99,5% de la
charge nette

110
En faisant un zoom sur la zone des solutions potentielles, on obtient le résultat suivant :

Figure 13.20 – Zoom sur la zone contenant les solutions potentielles

Comme précédemment, on obtient donc une liste de structures décrites ci-dessous, qu’il
faudra analyser plus en détail afin de déterminer la ou les solution(s).

Figure 13.21 – Liste des solutions potentielles

Puis en représentant les couples sur un graphe « ratio gain en SCR sur résultat cédé moyen
/ quantile à 99,5% de la charge nette », on obtient donc les résultats suivants :

Figure 13.22 – Représentation des solutions potentielles sur un graphique "Ratio gain en SCR sur résultat cédé
moyen/Quantile 99,5%"

Le couple (rétention, capacité) maximisant le ratio possède les caractéristiques suivantes :

111
Figure 13.23 – Caractéristique de la solution

On observe donc que même en prenant un pas plus fin, on trouve la même solution opti-
male pour ce profil de risque que celle trouvée précédemment.

Pour le second profil, averse au risque, les résultats obtenus sont les suivants :

Figure 13.24 – représentation des couples testés sur un graphique "Résultat net moyen/quantile à 99,5% de la
charge nette

En faisant un zoom sur la zone des solutions potentielles, on obtient le résultat suivant :

Figure 13.25 – Zoom sur la zone contenant les solutions potentielles

Comme précédemment, on obtient donc une liste de structures décrites ci-dessous, qu’il fau-
dra analyser plus en détail afin de déterminer la ou les solution(s).

112
Figure 13.26 – Liste des solutions potentielles

Enfin en représentant les couples sur un graphe « ratio gain en SCR sur résultat cédé moyen
/ quantile à 99,5% de la charge nette », on obtient donc les résultats suivants :

Figure 13.27 – Représentation des solutions potentielles sur un graphique "Ratio gain en SCR sur résultat cédé
moyen/Quantile 99,5%"

On en déduit du graphique, que le couple (rétention, capacité) donnant le plus haut niveau
de ratio est le couple S, qui possède les caractéristiques suivantes :

Figure 13.28 – Caractéristiques de la solution

Plus précisément les indicateurs se décomposent de la manière suivante :

Figure 13.29 – Caractéristiques de la solution

Contrairement au profil précédent, appliquer un pas plus fin permet ici d’obtenir une solution
plus précise pour le profil de risque « averse au risque » par rapport à celle obtenus précédem-
ment.

113
Pour les deux profils de risque, les deux indicateurs de réassurance, à savoir la probabilité
d’attachement et d’épuisement sont très faibles (inférieures à 1%).

13.2 Traité en quote-part


Pour rappel, cette structure est aussi caractérisée par l’application de traités en quote-part
sur le risque de prime, pour toutes les lignes d’activités.

Le Loss portfolio transfer (LPT), s’applique sur le risque de réserve. Il était donc compliqué
de le prendre en compte simultanément avec les autres type traités dans le cadre de l’optimisa-
tion, c’est pourquoi il a été laissé de côté.

La méthodologie d’optimisation, va tout simplement consister ici à déterminer le paramètre


optimal de telle manière à ce que la contrainte sur le quantile à 99,5% ainsi que celle portant sur
le résultat net moyen soient respectées. Nous avons fait le choix de saturer la contrainte sur le
quantile à 99,5%, puis ensuite d’observer si la seconde contrainte sur le résultat net moyen
est respectée. Dans cette partie, le paramètre à optimiser n’est autre que la part de sinistre
concédée au réassureur.

Prenons par exemple, le cas de la ligne d’activité "Autres assurances des véhicules à mo-
teurs", où il y’a exclusivement un traité en quote-part appliqué.

Pour rappel, sur le premier profil de risque (averse au risque), l’objectif de quantile est de
200 Me. Sachant que la valeur du quantile initial dans la stratégie par défaut, c’est-à-dire sans
réassurance, est de 472 Me, la valeur optimale du paramètre sera donc de :
200
P art de sinistre cédé = (1 − ) ≈ 57%
472
En effet, l’application d’un traité quote-part permet de réduire de manière proportionnelle
le quantile à 99,5%.

Concernant le résultat net moyen, on suppose qu’ici le taux de commission de réassurance


correspondant au pourcentage des frais de l’assureur pris en charge par le réassureur est égal au
taux de cession de la quote-part.
Ainsi, par exemple, pour une quote-part de θ %, on a :

Résultat technique net de réassurance = (1 − θ%) · R


Avec R le résultat technique brut ;

Pour le second profil « risquophile », l’objectif de quantile était de 300 Me, par conséquent
la valeur optimale du paramètre est de :

300
P art de sinistre cédée = (1 − ) ≈ 36%
472
Pour les autres branches, on obtient les résultats suivants :

Figure 13.30 – Cession "optimales" des quote-parts par LoB

114
13.3 Impact global
Comme il l’a été expliqué précédemment, nous avons procédé à une optimisation LoB par
LoB. Par conséquent jusque-là nous avons donc observé exclusivement des ratios « gain en SCR
sur résultat cédé » par LoB. Nous allons donc combiner les résultantes de toutes les optimisations
LoB par LoB, pour pouvoir observer le ratio qui est solution de l’optimisation toute LoB
confondus. On obtient les résultats suivants :

Figure 13.31 – valeur des ratios gain en SCR sur résultat cédé moyen obtenu pour la structure D pour chacun
des profils

On observe que le ratio est supérieur pour le profil risquophile, justifiant bien sa prise de
risque. On remarque aussi que la relation qui lie les "optimums locaux" ( c’est à dire les ratios
optimaux obtenus LoB par LoB) à l’optimum global obtenus ici, est complexe. En aucun cas,
l’optimum global est la somme des optimums locaux.

115
Chapitre 14

Application à une structure de


réassurance plus complexe

Jusque là, l’optimisation a été effectuée sur une structure de réassurance simple. Pour aller
plus loin nous allons considérer une structure plus approfondie et diversifiée.

Cette nouvelle structure possède les mêmes caractéristiques que la structure observée
précédemment. Cependant, nous allons la complexifier en ajoutant de nouveaux traités.
Pour rappel on va retrouver, un traité en excédent de sinistres sur le risque tempête, la garantie
CAT NAT CCR sur les autres périls, ainsi que des traité en quote-part sur les risques de prime
des différentes LoB. Par conséquent, on retrouvera à l’identique tous les résultats concernant
le traité en excédent de sinistres sur le risque tempête. De plus par soucis de simplicité, nous
conserverons les niveaux de cession des traités en quote-part s’appliquant sur les risques
de prime des différentes LoB, qui ont été définis dans le chapitre précédent.

L’attention va donc se concentrer sur les nouveautés que cette structure introduit. Plus
particulièrement l’application de traités en excédent de sinistres sur les risques de prime des
LoB responsabilité civile automobile et générale. Dans un second temps, ces deux traités
seront ensuite suivi d’un traité en quote-part sur la charge nette restante.

14.1 Traité en excédent de sinistres sur la LoB responsabilité


civile générale
Nous rappelons que la première étape va consister à déterminer les couples (rétention, capa-
cité) à tester. Pour cela, nous procédons au préalable à une observation de la distribution des
sinistres individuels de la LoB responsabilité civile générale, représentée ci-dessous :

116
Figure 14.1 – Distribution des sinistres individuels de la LoB responsabilité civile générale

Figure 14.2 – statistiques sur les sinistres individuels de la LoB responsabilité civile générale (en euros)

Pour les Tail value at Risk, on obtient les résultats suivants :

Figure 14.3 – TVaR pour les sinistres individuels de la LoB responsabilité civile générale

On remarque sur le graphique ci-dessus que 82% des sinistres sont inférieurs à 2 Me. L’ob-
jectif des traités en excédent de sinistres étant de couvrir les sinistres à caractère exceptionnel
nous allons seulement observer les traités dont la rétention dépasse 2 Me. Ce qui comprend
entre 10% et 15% des sinistres.

Sur le second graphique ci-dessous, nous pouvons observer avec davantage de précision la
répartition des sinistres au-delà de 5 Me.

117
Figure 14.4 – Zoom sur la queue de distribution

La queue de distribution est relativement fine, seulement 0,5% des sinistres sont supérieurs
à 10 Me.
Nous décidons alors de comparer des traités dont la rétention varie entre 2 Me et 5 Me
et la capacité de 1 Me à 10 e. Ces deux paramètres nous permettent d’atteindre un plafond
maximal de 15 Me pour prendre en compte le montant maximal de sinistre.

Notons avant d’analyser les différents résultats obtenus que les tests sur la rétention et la
capacité sont effectués avec des traités en excédents de sinistres contenant un nombre illimité
de reconstitutions gratuites.

Dans un premier temps, nous allons tester l’ensemble des combinaisons (rétention, capacité)
avec un pas de 1 Me pour la rétention et la capacité.

Néanmoins, après plusieurs séries de tests de couples (rétention, capacité), nous nous sommes
rapidement rendu compte que l’application d’un traité en excédent de sinistre sur la LoB respon-
sabilité civile générale n’était pas vraiment rentable en terme de gain en SCR. En effet, on observe
un gain en SCR négligeable, voir même négatif dans certain cas, correspondant à une hausse des
besoins en solvabilité. Ce phénomène s’explique par la fréquence très faible des sinistres graves
en responsabilité civile générale. On rappelle, que lors de la phase de calibrage, nous avons re-
tenu un paramètre égal à 1, pour la loi de fréquence. Par conséquent, il y’a un grand nombre
de simulations où le traité n’est pas exercé mais où on paye une prime conséquente. C’est pour-
quoi, au final sur l’intégralité des simulations, on peut en conclure que la tarification du traité
à un impact trop négatif sur le résultat technique de la Lob, et donc sur le gain potentiel en SCR.

Illustrons les propos, avec un exemple sur le couple (rétention, capacité) suivant : (2Me,1Me)

On obtient au final un gain en SCR négatif, correspondant donc à une perte de 178
466e.

Ce traité n’étant pas rentable sur les indicateurs observés, nous décidons de ne pas poursuivre
la démarche d’optimisation et donc de ne pas faire de réassurance.

14.2 Traité en excédent de sinistres sur la LoB responsabilité


civile automobile
Comme précédemment, nous procédons au préalable à une observation de la distribution des
sinistres individuels, représentée ci-dessous :

118
Figure 14.5 – Distribution des sinistres individuels de la LoB responsabilité civile automobile

Figure 14.6 – Statistiques sur les sinistres individuels de la LoB responsabilité civile automobile (en euros)

Pour les Tail value at Risk, on obtient les résultats suivants :

Figure 14.7 – TVaR sur les sinistres individuels

On remarque sur le graphique ci-dessus que 77% des sinistres sont inférieurs à 3 Me. L’ob-
jectif des traités excess of loss étant de couvrir les sinistres à caractère exceptionnels nous allons
seulement observer les traités dont la rétention dépasse 5 Me, ce qui représente environ 10%
des sinistres.

Sur le second graphique, nous pouvons observer avec davantage de précision la répartition
des sinistres au-delà de 5 Me :

119
Figure 14.8 – Zoom sur la queue de distribution

Nous décidons alors de comparer des traités dont la rétention varie entre 5Me et 10
Me et pour la capacité de 1 Me à 15 Me. Ces deux paramètres combinés, permettent ainsi
d’atteindre un plafond maximal de 25 Me afin de prendre en compte le montant maximal de
sinistres.

Notons avant d’analyser les différents résultats obtenus que les tests sur la rétention et la
capacité sont effectués avec des traités en excédents de sinistres contenant un nombre illimité
de reconstitutions gratuites.

La méthodologie va consister ici, à observer tout d’abord les traité en excédent de sinistre
sans application de traités en quote-part sur la charge nette, puis dans un second temps d’ap-
pliquer des traités en quote-part avec différents niveaux de cession sur la charge nette du traité
en excédent de sinistre.

Nous allons tester l’ensemble des combinaisons (rétention, capacité) avec un pas de 1Me
pour la rétention et la capacité.

Les résultats globaux obtenus pour tous les traités testés sont les suivant : pour le premier
profil de risque, qui est risquophile :

Figure 14.9 – Représentation des couples testés sur un graphique "Résultat net moyen/quantile à 99,5% de la
charge nette

Note importante : Le quantile à 99,5% est celui de la charge nette globale de la sinistralité
grave en responsabilité civile automobile, et non pas celui de la charge individuelle.

Le second graphique ci-dessous est un zoom de la zone contenant la(les) solution(s) poten-
tielle(s), correspondant à la partie rectangulaire supérieure gauche du premier graphique :

120
Figure 14.10 – Zoom sur la zone contenant les solutions potentielles

On obtient donc une liste de structures décrites ci-dessous, qu’il faudra analyser plus en
détail afin de déterminer la ou les solution(s).

Figure 14.11 – Liste des solutions potentielles

Enfin en représentant les couples sur un graphe « ratio gain en SCR sur résultat cédé moyen
/ quantile à 99,5% de la charge nette », on obtient les résultats suivants :

Figure 14.12 – Représentation des solutions potentielles sur un graphique "Ratio gain en SCR sur résultat cédé
moyen/Quantile 99,5%"

On en déduit du graphique, que le couple (rétention, capacité) donnant le plus haut niveau
de ratio est le couple F, qui possède les caractéristiques suivantes :

121
Figure 14.13 – caractéristiques de la solution

Plus précisément les indicateurs se décomposent de la manière suivante :

Figure 14.14 – caractéristiques de la solution

A partir de l’observation de la figure 14.9, on peut tirer les conclusions suivantes : D’une
part, le quantile à 99,5% de la charge nette décroît avec l’augmentation de la capacité pour tout
niveau de rétention. A partir d’un certain seuil cette réduction de quantile se fait plus discrète.

On remarque aussi que le niveau de quantile à 99,5% minimal que l’on peut espérer atteindre
est fortement lié au niveau de rétention. Ainsi plus le niveau de rétention est faible plus le quan-
tile à 99,5% minimal sera petit. Cette remarque est aussi valable pour le résultat net moyen.
On observe ainsi que les niveaux de rétention testés sont trop faibles pour atteindre l’objectif
de quantile à 99,5% fixé pour le profil « averse au risque », qui est de 45 Me. Il a donc été de
décidé de tester des niveaux de rétentions plus faible : 3 Me et 4 Me.

A même niveau de capacité, le ratio « gain en SCR sur résultat cédé moyen » augmente
avec le niveau de rétention jusqu’à un certain seuil, valant 9 Me. En effet, au-delà de ce seuil
ce résultat n’est plus valables, et on observe une chute du ratio, en passant d’une rétention de
9 Me à 10 Me.

Nous allons maintenant représenter les simulations des charges brutes et nettes de réassurance
effectuées sous Risk Explorer.

Figure 14.15 – Représentation des simulations sous Risk Explorer de la "charge brute de réassurance/charge
nette de réassurance" pour le traité optimal du profil risquophile

On constate qu’avec nos simulations sous Risk Explorer, on retrouve bien le comportement de
fonctionnement d’un traité en excédent de sinistres. On peut découper le graphique en 3 zones,
séparée par 2 segments correspondant respectivement à la rétention et au plafond du traité.
A la gauche du premier segment bleue, les points ont un comportement linéaire, traduisant le
fait que la charge brute et la charge nette de réassurance se confondent, le traité n’étant pas
encore appliqué.
La seconde zone, est la zone d’application du traité caractérisée par un "plateau" traduisant une
stagnation de la charge nette de réassurance : Tout ce qui dépasse la rétention est pris en charge
par le réassureur.

122
Enfin dans la dernière zone, le traité n’est plus opérationnel, on retrouve donc le comportement
linéaire initial entre la charge brute et nette de réassurance.

On remarque que la majorité des simulations se trouvent en première zone. Enfin, on constate
un nombre conséquent de simulations en dernière zone qui contraste avec le faible nombre de
simulations en seconde zone où le traité est appliqué. Cette répartition des simulations traduit
donc bien l’appétence au risque de la compagnie.

Après avoir testé les nouvelles rétentions, on obtient les résultats suivants pour le profil «
averse au risque » :

Figure 14.16 – Représentation des couples testés sur un graphique "Résultat net moyen/quantile à 99,5% de la
charge nette

Le second graphique ci-dessous est un zoom de la zone contenant la(les) solution(s) poten-
tielle(s), correspondant à la partie rectangulaire supérieure gauche du premier graphique

Figure 14.17 – Zoom sur la zone contenant les solutions potentielles

On obtient donc une liste de structures décrites ci-dessous, qu’il faudra analyser plus en
détail afin de déterminer la ou les solutions.

123
Figure 14.18 – Liste des solutions potentielles

Enfin en représentant les couples sur un graphe « ratio gain en SCR sur résultat cédé moyen
/ quantile à 99,5% de la charge nette », on obtient les résultats suivants :

Figure 14.19 – Représentation des solutions potentielles sur un graphique "Ratio gain en SCR sur résultat cédé
moyen/Quantile 99,5%"

On en déduit du graphique, que le couple (rétention, capacité) donnant le plus haut niveau
de ratio est le couple J, qui possède les caractéristiques suivantes :

Figure 14.20 – Caractéristiques de la solution

Plus précisément les indicateurs se décomposent de la manière suivante :

Figure 14.21 – Caractéristiques de la solution

Nous allons maintenant représenter les simulations des charges brutes et nettes de réassurance
effectuées sous Risk Explorer.

124
Figure 14.22 – Représentation des simulations sous Risk Explorer de la "charge brute de réassurance/charge
nette de réassurance" pour le traité optimal du profil averse au risque

On observe le même comportement des traités en excédent des sinistre qui a a été décrit
précédemment.
On remarque qu’une majorité des simulations se trouvent dans les deux premières zones,
et très peu dans la dernière zone où le plafond du traité est dépassé. Cette répartition des
simulations traduit donc bien l’appétence au risque de la compagnie, qui souhaite dans ce cas
limiter son exposition au risque.
Concernant les indicateurs de réassurance définis précédemment, on observe les résultats
suivants pour les solutions optimales de chacun des deux profils de risque :

Figure 14.23 – Valeur de la probabilité d’attachement et d’épuisement

On observe ainsi une probabilité d’attachement plus importante, traduisant une rétention
plus faible pour le profil« averse au risque ». De l’autre côté, la probabilité d’épuisement
est plus faible pour ce profil de risque, lié au plafond plus élevé du traité XS.

14.3 Impact de la réassurance proportionnelle


Maintenant, nous allons considérer dans la stratégie de réassurance, un traité en quote-
part s’appliquant à la suite du traité en excédent de sinistre. Le taux de cession du traité QP
s’applique sur les montants nets de la réassurance XS de la manière suivante :

M ontant cédé QP = (M ontant brut de réassurance − montant cédé XS) · T aux de cession

Nous décidons alors d’analyser l’optimalité de différentes stratégies de réassurance compo-


sées d’un traité XS suivis d’un traité quote-part avec des taux de cession de 10% et 50%.

Par exemple, pour une rétention de 8 Me et une capacité variable, on observe les
résultats suivants :

125
Figure 14.24 – Impact de l’ajout d’un traité en quote-part sur le quantile à 99,5% de la charge nette et le
résultat net moyen

On constate sur ce graphique que l’ajout de la quote-part permet de diminuer de manière


significative, d’une part le quantile à 99,5% de la charge nette et de l’autre le résultat net
moyen. Ces deux indicateurs sont affectés de la manière suivante :

Pour une quote-part avec un taux de cession de θ :

Quantile 99, 5%Après quote−part = Quantile 99, 5%avant quote−part · (1 − θ)

Le même raisonnement s’applique pour le résultat net moyen.


La quote-part a donc un impact sur le volume. Ces résultats se généralisent pour tous les niveaux
de rétention.

Maintenant, nous allons considérer une représentation graphique «Ratio gain en SCR sur
résultat cédé moyen/Quantile à 99,5% ». Pour un niveau de rétention de 4 Me et une capacité
variable , on a les résultats suivants :

Figure 14.25 – Impact de l’ajout d’un traité en quote-part sur le ratio "gain en SCR sur résultat cédé moyen"

Globalement, on observe ici que l’ajout de la quote-part a rarement un impact positif sur le
ratio, par rapport à la situation sans quote-part. Pour les deux niveaux de quote-part, on observe
un maintien du niveau de ratio compris entre 1,6 et 1,7. Ces niveaux de ratios équivalant entre
les deux cessions différentes, s’explique par le fait que "l’économie" de résultat cédé moyen pour
la cession à 10% (vis à vis de celle à 50%) se compense par le gain en SCR réalisé qui lui sera
plus faible pour la cession à 10%.

Si on se concentre sur le couple (rétention, capacité) : (4 Me,15 Me) (points indiqués sur le
schéma avec les étiquettes) qui correspond à la solution du programme d’optimisation pour le

126
profil averse au risque, on se rend compte que l’ajout d’une quote-part n’a pas d’impact positif
sur l’indicateur.

Pour un niveau de rétention de 8 Me, on a les résultats suivants :

Figure 14.26 – Impact de l’ajout d’un traité en quote-part sur le ratio "gain en SCR sur résultat cédé moyen

On observe ici que l’application de la quote-part n’a pas d’impact positif sur l’indicateur
observé, à savoir le ratio "gain en SCR sur résultat cédé moyen", et en particulier pour le couple
(8 Me,6 Me) (points indiqués sur le schéma avec les étiquettes) correspondant à la solution du
programme d’optimisation pour le profil risquophile.

On peut donc en conclure, qu’il est préférable de ne pas ajouter un traité en


quote-part dans le cadre de l’optimisation.

14.4 Application d’un traité Stop-Loss


Le traité Stop-Loss considéré, va s’appliquer d’une part sur le charge nette issue du traité en
excédent de sinistre observée précédemment, mais aussi sur la charge attritionnelle de la LoB sur
laquelle sera appliquée préalablement un traité en quote-part dont les taux de cessions seront
ceux qui ont été déterminés dans le chapitre précédemment.

Note importante concernant les contraintes du programmes d’optimisation : Étant donné que
nous considérons une structure de réassurance plus développée, nous décidons de revoir cer-
taine de nos contraintes initiales. Nous gardons les seuils concernant les quantiles à 99,5%,
cependant nous allons revoir à la baisse les seuils sur le résultats net moyen, afin d’avoir une
marge de manoeuvre plus importante. En effet, suite à la première phase d’optimisation,
les contraintes portant sur le résultat net moyen sont presque arrivées à saturation, ne laissant
par conséquent qu’un panel de traité Stop-Loss potentiellement compatible très limité.
Ainsi, nous choisissons les nouveaux seuils suivants :

• 20 Me pour le profil averse au risque ;

• 40 Me pour le profil risquophile.

Dans un premier temps, nous allons observer l’impact sur le ratio « gain en SCR sur résultat
cédé moyen » des stratégies optimales définies précédemment, en ajoutant un traité en quote-part
sur la charge attritionnelle.

127
Figure 14.27 – Impact du ratio « gain en SCR sur résultat cédé moyen » avec l’ajout d’un traité "quote-part"
sur la charge attritionnelle.

Le graphique ci-dessus représente l’impact de l’ajout d’un traité en quote-part sur la charge
attritionnelle pour chacune des stratégies optimales définis précédemment associées à leur profil
de risque respectif. Le pourcentage de cession des quote-parts définis précédemment est, pour
rappel, de 38% pour le profil « averse au risque » et de 58% pour le profil « risquophile ».

On n’observe que l’ajout du traité en quote-part sur la charge attritionnelle impacte négati-
vement le ratio « gain en SCR sur résultat cédé ». On remarque aussi que malgré les différents
niveaux de cessions des traités en quote-part entre les deux profils de risque, on obtient au final
des ratios fortement similaires. On a observé le phénomène similaire lorsque l’on avait ajouté des
traités en quote-part sur la charge nette d’un traité en excédent de sinistre. En effet le profil « ris-
quophile », va réaliser une « économie » en terme de résultat cédé vis-à-vis du profil « averse au
risque », cependant en contrepartie le gain en SCR sera moins conséquent. Il y’a donc un effet
« compensatoire » qui s’applique, rendant les ratios similaires, malgré la différence de cession.

Ce n’est pas observable sur le graphique, mais ce traité impacte bien entendu aussi de ma-
nière proportionnelle le quantile à 99,5% de la charge nette et le résultat net moyen.

Nous allons maintenant déterminer l’impact d’un traité Stop-Loss sur le ratio pour les deux
profils de risque, en faisant varier le niveau de rétention et de capacité du traité.

Nous avons décidé de tester des niveaux de rétention compris entre 40 et 90 millions
d’euros et des niveaux de capacité compris entre 70 et 140 millions d’euros. Le pas retenu
sera de 10 millions d’euros.
Pour le profil « risquophile », on observe les résultats suivants :

128
Figure 14.28 – Évolution du ratio « gain en SCR sur résultat cédé » selon le niveau de rétention et de capacité
du traité Stop-Loss pour le profil « risquophile ». La droite bleue représente le niveau de ratio de la stratégie
optimale précédente sans le traité Stop-Loss.

L’axe bleu horizontal représente le niveau de ratio de la stratégie optimale précédente avant
l’ajout du traité Stop-Loss.On peut donc en conclure qu’ici tous les traités testés impactent
positivement le ratio.

De plus sur le graphique, on peut constater des alignements horizontaux des points.
Les différents points sur un même alignement correspondent aux structures de réassurance où le
traité Stop-Loss à un même plafond. On peut en conclure qu’à un même niveau de plafond
pour le traité Stop-Loss, on observe des ratios du même ordre. Enfin, nous considérons dans un
second temps une représentation graphique similaire, mais cette fois en prenant en considération
en abscisse le résultats net moyen obtenu pour les structures considérées :

Figure 14.29 – Évolution du ratio « gain en SCR sur résultat cédé » et du résultat net moyen selon le niveau de
rétention et de capacité du traité Stop-Loss pour le profil « risquophile ». L’axe bleu vertical représente le seuil
sur le résultat net moyen, ainsi les solutions potentielles se trouvent à la droite de cet axe.

Ainsi au niveau de l’optimisation, le traité Stop-Loss donnant le meilleur ratio possède les
caractéristiques suivantes :

129
Figure 14.30 – Caractéristiques de la solution

L’ajout d’un traité Stop-Loss a donc un impact positif sur le ratio observé.

Pour le profil « averse au risque », on observe les résultats suivants :

Figure 14.31 – Évolution du ratio « gain en SCR sur résultat cédé » selon le niveau de rétention et de capacité
du traité Stop-Loss pour le profil « averse au risque ».

Comme précédemment, tous les traités testés ont un impact positif sur le ratio car étant au
dessus de l’axe bleu, représentant le niveau de ratio optimal avant l’introduction du traité.

De plus comme pour le graphique antécédent, on observe le même phénomène décrit précé-
demment concernant les alignements horizontaux de points. De plus, on observe une conver-
gence du niveau de ratio pour les différents niveaux de rétention testés autour de 1,92. De
l’autre côté, dans le premier graphique le ratio semble évoluer de manière linéaire. Cette diffé-
rence de comportement entre les deux profils doit trouver son explication dans le pourcentage
de cession de la quote-part. Pour le profil « risquophile », où la cession de la quote-part est
plus faible, il y a donc une charge potentielle soumise au traité Stop-Loss qui sera plus impor-
tante entraînant alors une perspective d’augmentation du ratio plus importante. De l’autre côté,
pour le profil «averse au risque », la charge potentielle soumise au traité sera plus faible, et
donc l’augmentation du ratio atteindra plus rapidement ses limites, se traduisant ainsi par une
convergence.
Enfin, nous considérons dans un second temps une représentation graphique similaire, mais cette
fois en prenant en considération en abscisse le résultats net moyen obtenu pour les structures
considérées :

130
Figure 14.32 – Évolution du ratio « gain en SCR sur résultat cédé » et du résultat net moyen selon le niveau
de rétention et de capacité du traité Stop-Loss pour le profil « averse au risque ».L’axe bleu vertical représente
le seuil sur le résultat net moyen, ainsi les solutions potentielles se trouvent à la droite de cet axe.

Au niveau de l’optimisation, le traité Stop-Loss donnant le meilleur ratio possède les carac-
téristiques suivantes :

Figure 14.33 – Caractéristique de la solution

Au final, on peut donc en conclure que l’ajout de ce traité à un impact positif


sur l’indicateur pour les deux profils.

14.5 Impact global


Nous combinons les résultantes de toutes les optimisations LoB par LoB, pour pouvoir ob-
server le ratio de l’optimisation toute LoB confondus. On obtient les résultats suivants :

Figure 14.34 – Impact global

Comme précédemment, l’ajout du traité Stop-Loss impacte de manière positive le ratio pour
les deux profils. De plus dans les deux cas, le profil risquophile est davantage récompensé en
terme de ratio.

De plus maintenant, nous décidons d’observer l’impact en appliquant un traité Stop-Loss sur
les charges nettes des autres LoB. On supposera que les traités possèdent les mêmes caracté-
ristiques que le précédent, mais ils seront re-tarifier pour chaque LoB. On obtient les résultats
suivants :

131
Figure 14.35 – Impact global

On observe ici des ratios sensiblement plus faibles pour les deux profils que ceux observés
précédemment. Cela s’explique par le fait, que les caractéristiques du traité ne doivent pas
être parfaitement ajustées pour les LoB en question. De plus, on remarque que cette structure
donnera l’avantage pour le profil « averse au risque » en terme de ratio.

132
Chapitre 15

Conclusion

Dans ce mémoire, nous avons développé un système d’optimisation sous contraintes de plu-
sieurs structures de réassurance, mélangeant à la fois de la réassurance proportionnelle et non-
proportionnelle. Cette optimisation s’est bien entendu basée sur la nouvelle réglementation Sol-
vabilité II, où la réassurance est particulièrement mise en valeur et contribue directement à
l’amélioration de la marge de solvabilité des assureurs.

Nous avons dans un premier temps construit de toute pièce une compagnie d’assurance vir-
tuelle non-vie, qui soit à la fois représentative du marché français tout en ayant un niveau de
modélisation abordable. La modélisation s’est tout d’abord faite sous la formule standard propo-
sée par l’EIOPA. Néanmoins dans le cadre du mémoire, cette modélisation a rapidement atteint
ses limites : en particulier, le manque de données exploitables et l’inadaptation de la formule
standard à la réassurance non-proportionnelle. Tout cela nous a donc amené à développer la
compagnie sous un modèle interne partiel.

Par la suite, nous avons observé les impacts de différents types de structures de réassurance
sur les indicateurs de Solvabilité II, plus particulièrement sur les différents SCR qui composent
la compagnie virtuelle (SCR prime, SCR réserve, SCR CAT,. . . ) et aussi le ratio de solvabilité.

Enfin pour la phase d’optimisation, nous avons pris en compte le fait que toute compagnie
d’assurance dispose d’un profil de risque, qui lui est propre et qui reflète son appétence à prendre
du risque. Ce profil de risque est capital car c’est lui qui détermine les contraintes qui vont peser
sur le programme d’optimisation. Dans le souci de couvrir au mieux les différentes situations,
nous avons décidé de définir deux profils de risque, l’un averse au risque et l’autre risquophile,
et de procéder à l’optimisation sur les deux profils. Selon ce profil, l’assureur doit planifier sa
stratégie de réassurance en fonction de la réduction du coût du capital associée. C’est pourquoi,
nous avons choisi d’analyser le ratio du gain en SCR sur le résultat cédé moyen au réassureur.
L’objectif était donc de déterminer la structure donnant le meilleur ratio, tout en respectant les
contraintes fixées et variant en fonction du profil de risque.

La première contrainte porte sur un seuil de quantile à 99,5% de la charge nette, que l’entre-
prise souhaite atteindre. A cela s’ajoute que, comme toute entreprise, une compagnie d’assurance
a pour objectif de maximiser sa rentabilité, c’est-à-dire d’être en mesure de faire le meilleur ré-
sultat possible. C’est pourquoi, nous avons aussi considéré dans nos critères d’optimalité un seuil
de résultat net moyen à respecter.

Nous avons alors testé un grand nombre de traités en excédent de sinistres sur le risque
tempête caractérisés par le couple (rétention, capacité). Les principales conclusions tirées de
notre étude sont les suivantes : Premièrement, à un niveau de rétention fixée il existe un unique
niveau de capacité permettant de maximiser le ratio gain SCR sur le résultat cédé moyen.
Deuxièmement, la mise en place d’un traité en excédent de sinistres sur la LoB responsabilité
civile générale, s’est avérée ne pas être rentable puisqu’elle augmente l’exigence en solvabilité.
C’est pourquoi, cette structure a naturellement été mise de côté. Enfin, nous avons mis en place

133
une structure similaire sur la LoB responsabilité civile automobile, qui elle s’est avérée rentable.

Nous avons ensuite voulu nous intéresser à l’impact de la réassurance proportionnelle.


Pour cela, nous avons appliqué des traités en quote-part avec des niveaux de cessions différents
sur la charge nette du traité en excédent de sinistre. Les principales conclusions tirées sur ce
point sont les suivantes : Le niveau de cession du traité en quote-part n’influe pas ou très peu sur
la valeur du ratio. En effet, pour deux cessions différentes, on observe des ratios du même ordre.
De plus, on peut en conclure que l’ajout de la réassurance proportionnelle n’a pas d’im-
pact positif sur l’indicateur considéré. Attention, cela ne signifie pas que la réassurance
proportionnelle est à bannir, bien au contraire. Cela veut juste dire que ce type de réassurance
n’est pas adapté à l’indicateur considéré. Il faudrait donc envisager de considérer un indicateur
complémentaire qui lui soit plus plus adapté. Par exemple le ratio de solvabilité.

Enfin, nous avons testé de nombreux traités Stop-Loss, s’appliquant d’une part sur la charge
nette issue du traité en excédent de sinistre observé précédemment, mais aussi sur la charge
attritionnelle de la LoB. Les principales conclusions tirées sur ce point sont les suivantes : d’une
part à même niveau de plafond, différents traités Stop-loss donnent des niveaux de ratio simi-
laires. De plus, on observe qu’indiscutablement l’ajout de ce type de traité a un impact
positif sur l’indicateur observé.

La principale limite du modèle est liée au logiciel utilisé, Risk explorer. Dans le cadre de
l’optimisation, il était compliqué de considérer plus de 2 paramètres en simultanée. En effet
dans cette situation, il aurait été nécessaire d’observer et de tester de très nombreuses combinai-
sons de ces paramètres dans l’espoir d’obtenir un résultat cohérent. Cette problèmatique était
d’autant plus renforcée du fait qu’il n’était pas possible d’automatiser via le logiciel, les com-
binaisons a effectuer. Par conséquent, tout devait se faire manuellement. De plus, pour chaque
simulation à tester, il était nécessaire de faire tourner deux fois le modèle. Une première fois,
pour effectuer la tarification des traités et enfin une seconde pour obtenir les indicateurs désirés.
Ainsi considérer plus de 2 paramètres en simultanée était une méthodologie qui ne pouvait être
appliquée justement, car bien trop chronophage et laborieuse.
Enfin une autre limite de l’étude qui peut être mise en avant, est le "raffinement" des couples
solutions (rétention,capacité) obtenues pour les traités en excédent de sinistre et Stop-Loss. En
effet on considère un pas de test discret (et non pas un pas continu) dans les tests des
niveaux de rétention et de capacité. Même si un premier raffinage a été effectué, il serait très
probablement possible de trouver une solution encore plus précise.
Enfin, il reste toujours une partie non modélisable (Pouvoir de négociation entre les deux partis
ainsi que la disponibilité des traités sur le marché).
Malgré un aspect a priori simple du fonctionnement des contrats de réassurance au premier
abord, les relations ainsi que les comportements des différents indicateurs de réassurance sont
bien plus complexes qu’il n’y parait. Beaucoup de facteurs entre en jeux, notamment la com-
binaison et l’ordre établi entre les différents traités de réassurance. Pour améliorer le modèle,
il pourrait être intéressant de tester de nouvelles combinaisons de structures de réassurance, et
aussi éventuellement faire la même démarche en modélisant cette fois une compagnie "vie".
Pour aller plus loin, il pourrait être intéressant de développer les 3 points suivants :

• Distribution de dividendes : Prise en compte du taux de dividende dans l’optimisation.


En effet, le taux de dividende est un facteur rarement pris en compte en optimisation,
qui pourrait être intéressant de prendre en compte. Si on considère une compagnie avec
des objectifs très stricts et des actionnaires exigeants, un conflit d’intérêt peut alors se
présenter.

• Existence d’un arbitrage sur la fiscalité : le mécanisme de réassurance, permet de réaliser


un gain fiscal. Un étude plus approfondie de ce phénomène pourrait être intéressante.

• Développer un algorithme plus simple, pour éviter d’avoir à effectuer de très nombreux
tests afin de converger plus rapidement vers la solution optimale.

134
Bibliographie

Articles
[PL00] E. Jack Chen W. David Kelton Pierre L’Ecuyer Richard Simard. An Object-
oriented random-number package with many long streams and substreams. 2000.
[DC05] Michel Denuit et Arthur Charpentier. Mathématiques de l’assurance non-vie.
Economica, 2005. isbn : 9782717848601.
[B.09] SOLIOZ B. L’impact de la réassurance sur la marge de solvabilité. Colloque ASA,
2009.
[Eur09] Journal officiel de l’Union Européenne. Directive 2009/138/CE du parlement eu-
ropéen et du conseil du 25 Novembre 2009. 2009.
[(FS13] Financial Stability Board (FSB). Principles for An Effective Risk Appetite Frame-
work. 2013.
[Eur14] Journal officiel de l’Union Européenne. Règlement délégué (UE) 2015/ 35 de la
commission du 10 Octobre 2014. 2014.

Ouvrages
[Pre02] Willamn T. Vetterling Brian P. Flannery William h Press Saul A. Teukolsky. Nu-
merical recipes in C. The Art of scientific computing, 2002.
[CD05] M. Pesonen C.D. Daykin T.Pentikainen. Practical Risk Theory for Actuaries. Chap-
man Hall, 2005.
[DG05] Plantin G Deelstra G. Théorie du risque et réassurance. ECONOMICA, 2005.

Sites internet
[Spi12] Bernard Spitz. Les chiffres de la sinistralité. Fédération Française des Sociétés d’As-
surance. Juin 2012.
[Ffsc] Rapport FFSA. Fédération Française des Sociétés d’Assurance, http ://www.ffsa.fr/.
2013.
[Ffsa] http ://eur-lex.europa.eu/legal-content.
[Ffsb] http ://www.institutdesactuaires.com/gene/main.php ?base=379.

Autres
[EIO10a] EIOPA. Annexes to the QIS 5 Technical Specifications. 2010.
[EIO10b] EIOPA. QIS 5 Technical Specifications. 2010.
[Bur15] Inès Burr. Impact d’un dispositif de réassurance non-proportionnelle sur le risque
de réserve. 2015.

135
Table des figures

1 Évolution du ratio "gain en SCR sur résultat cédé moyen" avec application d’un traité XS de
rétention 35 M e et capacité variable . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2 Impact de l’ajout d’un traité en quote-part sur le quantile à 99,5% de la charge nette et le
résultat net moyen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3 Impact de l’ajout d’un traité en quote-part sur le ratio "gain en SCR sur résultat cédé moyen . 12
4 Évolution du ratio « gain en SCR sur résultat cédé » selon le niveau de rétention et de capacité
du traité Stop-Loss pour le profil « averse au risque ». La droite bleue représente le niveau de
ratio de la stratégie précédente sans le traité Stop-Loss. . . . . . . . . . . . . . . . . . . . 13
5 evolution of the ratio "SCR gain on average yielded results" with application of a treaty XS
retention 35M e and variable capacity . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
6 Impact of the addition of a treaty QP on quantile 99.5 % of the net charge and the average net
income . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
7 Impact of the addition of a treaty QP on the ratio "SCR gain on average yielded results" . . . 19
8 Evolution of the ratio "gain on SCR result yielded" according to the retention level and Stop-Loss
Treaty ability to profile "risk averse". The blue line represents the level of the previous strategy
ratio without the treaty Stop-Loss. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

1.1 Les trois piliers de Solvabilité 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27


1.2 Évolutions du bilan entre la réglementation Solvabilité 1 et 2 . . . . . . . . . . . . . . . . . 28

2.1 État C1 simplifié de notre compagnie . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32


2.2 Parts de la sinistralité relative à l’année en cours et de celle relatives aux années antérieures, par
. . . . . . . . . . .
rapport à la sinistralité totale sur l’année calendaire . . . . . . . . . . 34
2.3 Montant de la sinistralité relative à l’année en cours, pour chaque loB . . . . . . . . . . . . 34
2.4 Tableau des cadences de développement par LoB . . . . . . . . . . . . . . . . . . . . . . 36
2.5 Cartographie des risques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.6 Schéma récapitulatif de la constitution du risque CAT . . . . . . . . . . . . . . . . . . . . 41
2.7 Probabilité de défaut en fonction de la notation . . . . . . . . . . . . . . . . . . . . . . . 43
2.8 bilan de la compagnie d’assurance virtuelle (sans réassurance) . . . . . . . . . . . . . . . . 45
2.9 Composition de l’actif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
2.10 Composition du SCR en situation initiale, sans réassurance . . . . . . . . . . . . 46
2.11 Composition du SCR souscription non-vie en situation initiale, sans réassurance 47

3.1 Schéma du mécanisme de réassurance . . . . . . . .. . . . . . . . . . . . . . . . . . . . 48


3.2 Schéma du mécanisme du trait en quote-part . . . . . . . . . . . . . . . . . . . . . . . . 51
3.3 Schéma des impacts du LPT sur le bilan S II . . . . . . . . . . . . . . . . . . . . . . . . 52
3.4 Application du traité XS en couverture par risque . .. . . . . . . . . . . . . . . . . . . . 54
3.5 Application du traité XS en couverture par évènement . . . . . . . . . . . . . . . . . . . . 54
3.6 Application du traité Stop-Loss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.7 Bilan de la compagnie avec application de la structure A . . . . . . . . . . . . . . . . . . . 58
3.8 Composition du SCR non-vie après application de la structure A . . . . . . . . . . . . . . . 58
3.9 Composition du SCR après application de la structure A . . . . . . . . . . . . . . . . . . . 59
3.10 Bilan de la compagnie avec application de la structure B . . . . . . . . . . . . . . . . . . . 59
3.11 Composition du SCR non-vie après application de la structure B . . . . . . . . . . . . . . . 60
3.12 Composition du SCR après application de la structure B . . . . . . . . . . . . . . . . . . . 60
3.13 Bilan de la compagnie avec application de la structure C . . . . . . . . . . . . . . . . . . . 61
3.14 Composition du SCR non-vie après application de la structure C . . . . . . . . . . . . . . . 61

136
3.15 Composition du SCR après application de la structure C . . . . . . . . . . . . . . . . . . . 61
3.16 Bilan de la compagnie avec application de la structure D . . . . . . . . . . . . . . . . . . . 62
3.17 Composition du SCR non-vie après application de la structure D . . . . . . . . . . . . . . . 62
3.18 Composition du SCR après application de la structure D . . . . . . . . . . . . . . . . . . . 63
3.19 Tableau des ratios de solvabilité par stratégie . . . . . . . . . . . . . . . . . . . . . . . . 63
3.20 Évolution du risque de contrepartie, en fonction de de la notation du réassureur . . . . . . . . 64
3.21 Notations des 25 réassureurs les plus importants . . . . . . . . . . . . . . . . . . . . . . . 64

5.1 Représentation de la fonction « mean excess plot » pour la LoB responsabilité civile automobile.
Les ordonnées correspondent au niveau du seuil(en Me). . . . . . . . . . . . . . . . . . . . 69
5.2 Seuil des sinistres graves . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
5.3 Table d’évènements stochastiques . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
5.4 Table d’évènements stochastiques avec plusieurs entités . . . . . . . . . . . . . . 74
5.5 Valeur des risques CAT en formule standard . . . . . . . . . . . . . . . . . . . . 75

9.1 Calibrage de la fréquence des sinistres graves. . . . . . . . . . . . . . . . . . . . . . . . 81


9.2 Calibrage du coût des sinistres graves. . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
9.3 Calibrage du S/P attritionnel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
9.4 Comparaisons SCR "prime et réserve" et SCR CAT entre formule standard et modèle interne
partiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82

10.1 Composition du SCR souscription non-vie dans la stratégie par défaut. . . . . . . . . . . . 83


10.2 Composition du SCR souscription non-vie dans la stratégie A . . . . . . . . . . . . . . . . 84
10.3 Comparaison SCR souscription non-vie avant et après application de la stratégie de réassurance A 84
10.4 Composition du SCR souscription non-vie dans la stratégie A bis . . . . . . . . . . . . . . . 85
10.5 Comparaison SCR souscription non-vie avant et après application de la stratégie de réassurance
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
A bis 85
10.6 Composition du SCR souscription non-vie dans la stratégie D . . . . . . . . . . . . . . . . 86
10.7 Comparaison SCR souscription non-vie avant et après application de la stratégie de réassurance D 86
10.8 Composition du SCR souscription non-vie dans la stratégie E . . . . . . . . . . . . . . . . 87
10.9 Comparaison SCR souscription non-vie avant et après application de la stratégie de réassurance E 87
10.10Composition du SCR souscription non-vie dans la stratégie E bis . . . . . . . . . . . . . . . 88
10.11Comparaison SCR souscription non-vie avant et après application de la stratégie de réassurance
E bis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
10.12Composition du SCR souscription non-vie dans la stratégie G . . . . . . . . . . . . . . . . 89
10.13Comparaison SCR souscription non-vie avant et après application de la stratégie de réassurance G 89
10.14Application du traité XS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90

11.1 Les différentes situations du cadre d’appétence au risque . . . . . . . . . . . . . . . . . . . 93

12.1 Ce graphique représente l’évolution de la moyenne empirique des charges cédées en fonction de
la taille de l’échantillon observé. Le traité non-proportionnel observé est un 35 Me XS 665 Me. 98
12.2 Ce graphique représente l’évolution de l’écart-type empirique des charges cédées en fonction de
la taille de l’échantillon observé. Le traité non-proportionnel observé est un 35 Me XS 665 Me. 98
12.3 Ce graphique représente l’évolution du résultat cédé moyen en fonction de la taille de l’échantillon
observé. Le traité non-proportionnel observé est un 35 Me XS 665 e. . . . . . . . . . . . . . 98
12.4 Evolution de la probabilité d’attachement, en fonction de la rétention (avec capacité fixe) . . . 99
12.5 Evolution de la probabilité de rattachement en fonction de la taille de l’échantillon observé pour
un traité non-proportionnel observé est un 665 Me XS 35 Me. . . . . . . . . . . . . . . . . 100
12.6 Evolution de la probabilité d’épuisement, en fonction de la capacité (avec rétention fixe) . . . . 100
12.7 Ce graphique représente l’évolution de la probabilité d’épuisement en fonction de la taille de
l’échantillon observé. Le traité non-proportionnel observé est un 665 Me XS 35 Me. . . . . . 101

13.1 Distribution du coût individuel des évènements tempête . . . . . . . . . . . . . . . . . . . 102


13.2 Statistiques sur les évènements tempêtes . . . . . . . . . . . . . . . . . . . . . . . . . . 102
13.3 zoom sur la queue de distribution . . . . . . . . . . . . . . . . . . . . . . . . . . . 103

137
13.4 Stabilité de l’estimateur de la moyenne empirique de l’Expected Shortfall en fonction du nombre
de sinistres simulés. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
13.5 TVAR sur les évènements "tempête" . . . . . . . . . . . . . . . . . . . . . . . . . 105
13.6 Évolution du ratio "gain en SCR sur résultat cédé moyen" avec application d’un traité XS de
rétention 35 Me et capacité variable . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
13.7 Évolution du ratio "gain en SCR sur résultat cédé moyen" avec application d’un traité XS de
rétention 15 Me et capacité variable . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
13.8 représentation des couples testés sur un graphique "Résultat net moyen/quantile à 99,5% de la
charge nette . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
13.9 zoom sur la zone des solutions potentielles . . . . . . . . . . . . . . . . . . . . . . . . . 108
13.10Liste des solutions potentielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
13.11Représentation des couples testés sur un graphique "Résultat net moyen/quantile à 99,5% de la
charge nette . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
13.12Liste des solutions potentielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
13.13Représentation des solutions potentielles sur un graphique "Ratio gain en SCR sur résultat cédé
moyen/Quantile 99,5%" . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
13.14Caractéristiques de la solution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
13.15Caractéristiques de la solution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
13.16représentation des solutions potentielles sur un graphique "Ratio gain en SCR sur résultat cédé
moyen/Quantile 99,5%" . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
13.17Caractéristiques de la solution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
13.18Caractéristiques de la solution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
13.19Représentation des couples testés sur un graphique "Résultat net moyen/quantile à 99,5% de la
charge nette . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
13.20Zoom sur la zone contenant les solutions potentielles . . . . . . . . . . . . . . . . . . . . . 111
13.21Liste des solutions potentielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
13.22Représentation des solutions potentielles sur un graphique "Ratio gain en SCR sur résultat cédé
moyen/Quantile 99,5%" . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
13.23Caractéristique de la solution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
13.24représentation des couples testés sur un graphique "Résultat net moyen/quantile à 99,5% de la
charge nette . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
13.25Zoom sur la zone contenant les solutions potentielles . . . . . . . . . . . . . . . . . . . . . 112
13.26Liste des solutions potentielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
13.27Représentation des solutions potentielles sur un graphique "Ratio gain en SCR sur résultat cédé
moyen/Quantile 99,5%" . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
13.28Caractéristiques de la solution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
13.29Caractéristiques de la solution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
13.30Cession "optimales" des quote-parts par LoB . . . . . . . . . . . . . . . . . . . . . . . . 114
13.31valeur des ratios gain en SCR sur résultat cédé moyen obtenu pour la structure D pour chacun
des profils . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115

14.1 Distribution des sinistres individuels de la LoB responsabilité civile générale. . . . . . . . . . 117
14.2 .
statistiques sur les sinistres individuels de la LoB responsabilité civile générale (en euros) . . 117
14.3 TVaR pour les sinistres individuels de la LoB responsabilité civile générale . . . . . . . . . . 117
14.4 Zoom sur la queue de distribution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
14.5 Distribution des sinistres individuels de la LoB responsabilité civile automobile . . . . . . . . 119
14.6 Statistiques sur les sinistres individuels de la LoB responsabilité civile automobile (en euros) . . 119
14.7 TVaR sur les sinistres individuels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
14.8 Zoom sur la queue de distribution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
14.9 Représentation des couples testés sur un graphique "Résultat net moyen/quantile à 99,5% de la
charge nette. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
14.10Zoom sur la zone contenant les solutions potentielles . . . . . . . . . . . . . . . . . . . . . 121
14.11Liste des solutions potentielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
14.12Représentation des solutions potentielles sur un graphique "Ratio gain en SCR sur résultat cédé
moyen/Quantile 99,5%" . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
14.13caractéristiques de la solution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122

138
14.14caractéristiques de la solution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
14.15Représentation des simulations sous Risk Explorer de la "charge brute de réassurance/charge
nette de réassurance" pour le traité optimal du profil risquophile . . . . . . . . . . . . . . . 122
14.16Représentation des couples testés sur un graphique "Résultat net moyen/quantile à 99,5% de la
charge nette . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
14.17Zoom sur la zone contenant les solutions potentielles . . . . . . . . . . . . . . . . . . . . . 123
14.18Liste des solutions potentielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
14.19Représentation des solutions potentielles sur un graphique "Ratio gain en SCR sur résultat cédé
moyen/Quantile 99,5%" . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
14.20Caractéristiques de la solution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
14.21Caractéristiques de la solution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
14.22Représentation des simulations sous Risk Explorer de la "charge brute de réassurance/charge
nette de réassurance" pour le traité optimal du profil averse au risque . . . . . . . . . . . . 125
14.23Valeur de la probabilité d’attachement et d’épuisement . . . . . . . . . . . . . . . . . . . 125
14.24Impact de l’ajout d’un traité en quote-part sur le quantile à 99,5% de la charge nette et le
résultat net moyen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
14.25Impact de l’ajout d’un traité en quote-part sur le ratio "gain en SCR sur résultat cédé moyen" . 126
14.26Impact de l’ajout d’un traité en quote-part sur le ratio "gain en SCR sur résultat cédé moyen . 127
14.27Impact du ratio « gain en SCR sur résultat cédé moyen » avec l’ajout d’un traité "quote-part"
sur la charge attritionnelle. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
14.28Évolution du ratio « gain en SCR sur résultat cédé » selon le niveau de rétention et de capacité
du traité Stop-Loss pour le profil « risquophile ». La droite bleue représente le niveau de ratio
de la stratégie optimale précédente sans le traité Stop-Loss. . . . . . . . . . . . . . . . . . 129
14.29Évolution du ratio « gain en SCR sur résultat cédé » et du résultat net moyen selon le niveau
de rétention et de capacité du traité Stop-Loss pour le profil « risquophile ». L’axe bleu vertical
représente le seuil sur le résultat net moyen, ainsi les solutions potentielles se trouvent à la droite
de cet axe. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
14.30Caractéristiques de la solution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
14.31Évolution du ratio « gain en SCR sur résultat cédé » selon le niveau de rétention et de capacité
du traité Stop-Loss pour le profil « averse au risque ». . . . . . . . . . . . . . . . . . . . . 130
14.32Évolution du ratio « gain en SCR sur résultat cédé » et du résultat net moyen selon le niveau
de rétention et de capacité du traité Stop-Loss pour le profil « averse au risque ».L’axe bleu
vertical représente le seuil sur le résultat net moyen, ainsi les solutions potentielles se trouvent
à la droite de cet axe. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
14.33Caractéristique de la solution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
14.34Impact global . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
14.35Impact global . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132

15.1 Matrice de corrélation BSCR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141


15.2 Matrice de corrélation pour SCR souscription non-vie . . . . . . . . . . . . . . . . . . . . 141
15.3 Matrice de corrélation entre les différentes LoB . . . . . . . . . . . . . . . . . . . . . . . 142
15.4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
15.5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
15.6 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
15.7 valeur du sinistre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
15.8 Application du traité XS, net de quote-part dans la structure E . . . . . . . . . . . . . . . 147
15.9 Application du traité XS dans la structure F . . . . . . . . . . . . . . . . . . . . . . . . 148
15.10Application du traité XS dans la structure F . . . . . . . . . . . . . . . . . . . . . . . . 148
15.11Application du traité XS, net de quote-part dans la structure E . . . . . . . . . . . . . . . 148
15.12Application du traité XS dans la structure F . . . . . . . . . . . . . . . . . . . . . . . . 149
15.13Application du traité XS, net de quote-part dans la structure E bis . . . . . . . . . . . . . . 150
15.14Application du traité XS dans la structure F . . . . . . . . . . . . . . . . . . . . . . . . 150
15.15Application du traité XS dans la structure F . . . . . . . . . . . . . . . . . . . . . . . . 150
15.16Application du traité XS, net de quote-part dans la structure E bis . . . . . . . . . . . . . . 151
15.17Application du traité XS dans la structure F . . . . . . . . . . . . . . . . . . . . . . . . 151

139
Abréviations

BE : Meilleure estimation des flux futurs passifs ;

BSCR : Capital requis de base (basic solvency capital requirement) ;

DIV : facteur de diversification ;

EIOPA : Autorité européenne des assurances et des pensions professionnelles (European


Insurance and Occupational Pensions Authority) ;

FACOB : Réassurance facultative-obligatoire ;

Fire : Raccourci pour désigner la LoB 7 (Assurance Incendie et autres dommages aux biens) ;

LGD : Perte en cas de défaut (Loss-Given Default) ;

LoB : Ligne d’affaires (Line of business) ;

PD : Probabilité de défaut ;

RC : Responsabilité civile ;

RCA : Responsabilité civile automobile ;

RCG : Responsabilité civile générale ;

RM : Marge pour risque (Risk Margin) ;

SCR : Capital de solvabilité requis (Solvency Capital Requirement) ;

S/P : Ratio sinistres sur primes (Loss Ratio) ;

XS : Excédent de sinistres ;

140
Annexes

Annexe A : Courbe des taux SWAP

La courbe des taux SWAP qui a été retenue dans le cadre du mémoire est celle de Mai 2016
disponible sur le site de l’Institut des Actuaires (voir bibliographie).

Annexe B : Matrices de corrélations


Valeurs des coefficients de la matrice de corrélation utilisée pour l’agrégation des risques du
BSCR.

Figure 15.1 – Matrice de corrélation BSCR

Valeur des coefficients de la matrice de corrélation utilisée pour l’agrégation du SCR sous-
cription non-vie

Figure 15.2 – Matrice de corrélation pour SCR souscription non-vie

Valeur des coefficients de la matrice de corrélation utilisée pour l’agrégation entre les diffé-
rentes LoB :

141
Figure 15.3 – Matrice de corrélation entre les différentes LoB

Annexe C :Valeurs des σ pour chacune des LoB, pour la partie prime dans le cadre de la
détermination du SCR prime et réserve :

Figure 15.4 –

Figure 15.5 –

Où N Plob est un facteur d’ajustement pour la réassurance non-proportionnelle permettant


de prendre en compte les effets de corrélation de certain contrats de réassurance. On les prend
en général égaux à 1, mais on peut aussi se référer à l’annexe N des QIS 5 pour une formule plus
complexe, qui se trouve ci-dessous.

142
Annexe D :

143
Annexe E : Valeurs des σ pour chacune des LoB, pour la partie réserve dans le cadre de la
détermination du SCR prime et réserve

144
Figure 15.6

Annexe F : La méthode de génération des variables aléatoires dans Risk Explorer.

Dans le logiciel Risk explorer, il y a deux options de génération des variables aléatoires : une
option "générique" et l’autre "avancé".

la méthodologie pour l’option "générique" a été extrait du livre “Numerical Recipes for C” (en
bibliographie), et accessible à l’adresse suivante : http ://apps.nrbook.com/c/index.html

Les pages 278-281 expliquent et résument la méthodologie globale employée, quant à la


page 282 elle contient le code de la fonction utilisée (appelé ran2()).

Le générateur "avancé" est bien plus performant et puissant que le précédent parce qu’il
est possible de voir instantanément le détail de n’importe quelle simulation. Par exemple, si on
considère un échantillon de 50 000 simulations, il est possible de voir immédiatement la simula-
tion 49 999 sans avoir besoin d’obtenir les 49 998 simulations précédentes.

La méthodologie pour ce générateur a été développé par un groupe de professeurs de l’Uni-


versité de Montréal, au Canada. L’article en question se trouve dans la bibliographie (référence
[PL00])

La méthodologie repose globalement sur un "Combined multiple recursive generator" (ou


CMRG).
Les deux principales étapes sont les suivantes :
• La génération de nombres au hasard U 1, U 2, ... jouant le rôle de variables aléatoires i.i.d.
uniformes sur l’intervalle [0, 1] ;
• La transformation des nombres U 1, U 2, ... précédents en des nombres susceptibles de jouer
le rôle des variables aléatoires intervenant dans la définition du modèle, et qui ne sont en
général ni i.i.d. ni uniformes sur [0, 1].
Avec le générateur "avancé", l’option "générique" perd un peu de son intérêt, c’est pourquoi
dans le cadre du mémoire, nous avons retenu le générateur "avancé".

145
Annexe G : Démonstration de la méthode des moments pour la loi Log-normale

La loi Log-normale possédant deux paramètres, il est nécessaire d’avoir les deux premiers
moments, c’est-à-dire l’espérance et la variance.
σ2
(
E(X) = eµ+ 2
2 2
V ar(X) = eσ − 1).e2µ+σ
Soit X1 , ..., Xn un échantillon suivant une LogN (µ, σ 2 )
Avec,

\ = 1 . Pn Xi
E(X) n i=1
ar(X) = 1 . n (Xi − E(X))
V\ \ 2
P
n i=1

Par la méthode des moments, on a :

 2
 \ = eµ̂+ σ̂2
E(X)
2 2
ar(X) = (eσ̂ − 1).e2µ̂+σ̂
 V\

Par substitution,

\ − σ̂ 2
 µ̂ = ln(E(X)) 2
σ̂ 2
2 \
2(ln(E(X))− )+σ̂ 2
ar(X) = (eσ̂ − 1).e
 V\ 2

σ̂ 2
(
\ −
µ̂ = ln(E(X)) 2
2 \ 2 2
ar(X) = (eσ̂ −
V\ 1).e2(ln(E(X))−σ̂ +σ̂

\ − σ̂2
 µ̂ = ln(E(X))
2
 eσ̂2 = V \
ar(X)
\ + 1
2ln(E(X)
e
Puis on obtient, l’estimation suivante pour les deux paramètres :

\ − σ̂2
 µ̂ = ln(E(X))
2
 σ̂ 2 = ln( V \
ar(X)
\ + 1)
2ln(E(X)
e

\ − σ̂ 2

 µ̂ =rln(E(X)) 2
V\
ar(X)
 σ̂ =
 ln( \ + 1)
e2ln(E(X)

Annexe H : Comparaisons des deux montages de réassurance E(E bis) et F

Pour rappel, les structures concernées sont les suivantes :

Montage 1 :

• Application d’un traité en quote-part, puis d’un traité XS sur la charge nette de quote-part
(structure E et E bis) ;

Et son inverse, à savoir :

Montage 2 :

• Application d’un traité XS, puis d’une quote-part sur la charge nette restante (structure
F).

146
Quant aux propriétés des traités, on retient les suivantes :

– Un traité en quote-part à 50% ;

– Un traité XS avec une rétention de 2 Me et de capacité 6 Me ( ici on ne considère pas


une unité de mesure précise).

Pour observer les impacts des différents montages nous allons considérer les différentes si-
tuations possibles dans le cas où on a un seul sinistre concerné.

1er cas : Comparaison de la structure E, où une fois le quote-part appliqué les caractéris-
tiques du traité XS (rétention et capacité) se trouvent multipliées par (1-taux de cession) avec
la structure F.
Situation 1 : le sinistre est supérieur au plafond, et est de valeur 12.

Figure 15.7 – valeur du sinistre

Pour la structure E, après application du quote-part, le sinistre n’a plus qu’une valeur de 6.

Figure 15.8 – Application du traité XS, net de quote-part dans la structure E

Puis en appliquant le traité XS, l’assureur n’a plus qu’une charge nette de 3.

Remarque :
La rétention du traité passe de 2 à 1 et la capacité du traité passe de 6 à 3.

Pour la structure F,

147
Figure 15.9 – Application du traité XS dans la structure F

Après application du traité XS, l’assureur n’a plus qu’une charge nette de 6, et donc avec
l’exercice du quote-part il ne lui reste plus qu’une charge nette de 3.

Situation 2 : Le sinistre est compris entre la rétention et le plafond. On suppose qu’il a une
valeur de 6.

Figure 15.10 – Application du traité XS dans la structure F

Dans la structure E, après application du traité quote-part, le sinistre à une valeur de 3.

Figure 15.11 – Application du traité XS, net de quote-part dans la structure E

Après exercice du traité XS, la charge nette de l’assureur est donc de 1.

Dans la structure F,

148
Figure 15.12 – Application du traité XS dans la structure F

En exerçant dans un premier temps le traité XS, l’assureur n’a plus qu’une charge de 2, et
donc au final une charge nette de 1 après le quote-part.
Enfin dans le dernier cas, où on a un sinistre inférieur à la rétention cela n’a bien entendu aucune
incidence sur la charge nette de l’assureur que l’on exerce l’un ou l’autre des montages. Dans les
deux situations, elle sera la même.

Conclusion du 1er cas :


Dans cette première situation où le montage 1, à un traité XS dont les caractéristiques (ré-
tention et capacité) se trouvent multipliées par (1-taux de cession), on s’aperçoit que ces deux
montages de réassurances sont équivalents pour l’assureur, car au final il se retrouvera toujours
avec la même charge nette.

De plus, l’observation de nos résultats sur la plateforme risk explorer, nous prouvent que
cette assertion qui est valable pour un sinistre peut aussi se généraliser lorsqu’on a plusieurs
sinistres.

2ème cas : Dans le premier montage, la rétention et la capacité du traité XS ne sont pas
affectées par le taux de cession, après l’application de ce dernier. Ici, c’est donc la structure E
bis qui est étudiée.

Situation 1 : Le sinistre est supérieur au plafond du traité XS. On suppose qu’il a une
valeur de 12.

Dans la structure E bis, après l’application du quote-part, le sinistre ne vaut plus que 6. Puis
en appliquant le traité XS, on obtient les résultats suivants :

149
Figure 15.13 – Application du traité XS, net de quote-part dans la structure E bis

Au final la charge nette du réassureur est de 2. Dans la structure F,

Figure 15.14 – Application du traité XS dans la structure F

La charge nette après exercice du XS est de 6, et donc n’est plus que de 3 après le quote-part.

Dans cette situation, c’est le montage 1 qui sera le plus intéressant pour l’assureur en terme
de charge nette.

Situation 2 : Le sinistre est compris entre la rétention et le plafond. On suppose qu’il a une
valeur de 6.

Figure 15.15 – Application du traité XS dans la structure F

Dans la structure E bis, après application du quote-part, le sinistre ne vaut plus que 3.

150
Figure 15.16 – Application du traité XS, net de quote-part dans la structure E bis

Au final, la charge nette n’est plus que de 2.

Dans la structure F,

Figure 15.17 – Application du traité XS dans la structure F

Suite à l’application du traité XS, il ne reste plus que la rétention de 2 à la charge de l’as-
sureur. Au final, après exercice du quote-part la charge nette est de 1.

Ainsi dans cette situation, c’est le second montage qui sera le plus intéressant pour l’assureur
en termes de charge nette. Enfin dans le dernier cas où on a un sinistre inférieur à la rétention,
comme pour le 1er cas cela n’a aucune incidence sur la charge nette de l’assureur que l’on exerce
l’un ou l’autre des montages. Dans les deux situations, elle sera la même.

Conclusion du second cas : Dans le second cas, on remarque qu’en fonction de la taille du
sinistre par rapport à la rétention et la capacité du traité XS, le montage 1 ou le montage 2 sera
plus favorable au niveau de la charge nette restante pour l’assureur. Le seul point de convergence
entre les deux cas, est l’équivalence entre les deux montages que l’on retrouve lorsqu’on a un
sinistre sous la rétention.

Néanmoins contrairement au cas précédent, on ne peut pas généraliser les résultats obtenus
dans le cas où on a plusieurs sinistres. En effet, en fonction du positionnement des différents
sinistres vis-à-vis de la rétention et de la capacité, le « meilleur » montage » pourra varier.

Annexe I : Mesure cohérente du risque


Soient U un ensemble des variables aléatoires réelles définies sur l’espace de probabilité (ω,
F,P) et ρ : U →R(ρ = mesure de risque).

151
une mesure de risque est cohérente si elle vérifie les propriétés suivantes :
• invariante par translation

λ ∈ R, X ∈ U

λ + X ∈ U implique ρ(λ + X) = ρ(X) + λ

• Sous-additive

Soit X ∈ U, Y ∈ U et X + Y ∈ U implique ρ(X + Y ) ≤ ρ(X) + ρ(Y )

La mesure de risque de la somme de deux portefeuilles est inférieure à la somme des


mesures de risque de ces deux portefeuilles, on peut apprécier le gain de la diversification
(cause : corrélations entre les deux portefeuilles).Si le contraire se produit il est intéressant
de diviser les portefeuille (X + Y).

• Positivement homogène

λ > 0, X ∈ U et λ.X ∈ U implique ρ(λ.X) = λ.ρ(X)

Multiplier le risque d’un portefeuille par un scalaire multiplie la mesure de risque par ce
même scalaire.

• Monotone

SoitX ∈ U, Y ∈ U et X ≤ Y impliqueρ(Y ) ≤ ρ(X)

Si un portefeuille Y a une valeur au moins égale à un portefeuille X dans tous les états de marché
(états du monde), sa mesure de risque ne peut (doit) pas être plus grande que celle de X.

Annexe J : Démonstration que la TVaR est une mesure de risque cohérente


Pour être une mesure de risque cohérente la TVaR doit vérifier les quatre propriétés décrites
précédemment.
invariante par translation
Z 1
1
T V aR(X + λ, α) = V aR(X + λ, α)dα
1−α α
Z 1
1
T V aR(X + λ, α) = V aR(X, α) + λdα
1−α α
Z 1
1
T V aR(X + λ, α) = V aR(X, α)dα + λ
1−α α

T V aR(X + λ, α) = T V aR(X, α) + λ
Sous-additive (on suppose que les risques sont continus)

T V aR(X + Y, α) = CT E(X + Y, α)

= E(X + Y |X + Y > V aR(X + Y, α)) = E(X|X > V aR(X + Y, α)) + E(Y |Y > V aR(X + Y, α))

<= E(X|X > V aR(X, α)) + E(Y |Y > V aR(Y, α)) = T V aR(X, α) + T V aR(Y, α)

152
L’inégalité se justifie par la proprieté suivante :

Soient le risque X et le niveau de perte x tels que FX (x) > 0. Quel que soit l’événement
aléatoire G tel que P[G] = 1 − F X(x), on a E[X|G] ≤ E[X|X > x].
Monotone :

Soit X et Y tels que X ≤ Y

T V aR(Y, α) = E(Y |Y > V aR(Y, α)) ≥ E(Y |X > V aR(X, α)) ≥ E(X|X > V aR(X, α)) = T V aR(X, α)

Positivement homogène :
Trivial, car on sait que la V aR est elle-même positivement homogène.

153

Vous aimerez peut-être aussi