Académique Documents
Professionnel Documents
Culture Documents
Résumé 3
Abstract 5
Note de synthèse 7
Summary 14
Remerciements 20
Introduction 21
1
3.4.1 Structure de réassurance A . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3.4.2 Structure de réassurance B . . . . . . . . . . . . . . . . . . . . . . . . . . 59
3.4.3 Structure de réassurance C . . . . . . . . . . . . . . . . . . . . . . . . . . 60
3.4.4 Structure de réassurance D . . . . . . . . . . . . . . . . . . . . . . . . . . 62
3.5 Conclusion et comparaison des différentes structures . . . . . . . . . . . . . . . . 63
3.6 Impact de la notation du réassureur sur le risque de contrepartie . . . . . . . . . 63
3.7 Méthodologie de détermination du BE cédée . . . . . . . . . . . . . . . . . . . . 65
8 Agrégation générale 80
2
11.2 Les contraintes d’optimisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
11.2.1 Contraintes pour le premier profil . . . . . . . . . . . . . . . . . . . . . . . 94
11.2.2 Contraintes pour le second profil . . . . . . . . . . . . . . . . . . . . . . . 94
11.3 Objectif d’optimisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
12 La méthode d’optimisation 96
12.1 Les étapes de l’optimisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
12.2 Paramètres à optimiser . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
12.3 Le nombre de simulations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
12.4 Indicateurs de réassurance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
12.4.1 La "probabilité d’attachement" . . . . . . . . . . . . . . . . . . . . . . . . 99
12.4.2 La "probabilité d’épuisement" . . . . . . . . . . . . . . . . . . . . . . . . . 100
15 Conclusion 133
Bibliographie 135
Abréviations 140
Annexes 141
3
Résumé
La mise en place de Solvabilité 2 a permis aux assureurs d’entrer dans une nouvelle ère. Alors
qu’auparavant, la solvabilité ne représentait en général pas une préoccupation majeure, elle est
devenue aujourd’hui un enjeu fondamental de pilotage des entreprises. Le moindre choc de taux,
le moindre choc sur une ligne d’affaires comme un événement de type «catastrophe naturelle»
peuvent désormais avoir des conséquences lourdes sur le niveau de couverture de son SCR. Pour
le management, cela signifie qu’il convient de mettre en place, en amont, une gestion fine et
dynamique de son ratio de solvabilité.
L’une des mesures qui peut être prise est d’adapter sa stratégie de réassurance, car dans
ce nouveau contexte la réassurance devient encore plus qu’avant un puissant outil de capital
management.
Ce mémoire a pour objectif de développer d’une part un modèle en formule standard, puis
un modèle interne partiel, adaptable aux sociétés d’assurance non-vie disposant à la fois de ré-
assurance proportionnelle et non-proportionnelle, afin de proposer des solutions de réassurance
optimisant le gain en capital et respectant les objectifs stratégiques de l’entreprise.
Afin de mesurer l’impact de cette décision, nous disposons d’un logiciel de modélisation
actuarielle, Risk Explorer. Les étapes de cette optimisation sont les suivantes :
• Détermination claire des objectifs, des contraintes et du profil de risque pour le programme
d’optimisation ;
• Mise en oeuvre d’une méthode de tarification pour les traités de réassurance non-proportionnelle ;
• Optimisation par ligne d’activité, et non pas "globale" (ie : Toutes les LoB en simultané).
Pour les traités non-proportionnels, la méthodologie se présente sous la forme suivante :
• Étude de la distribution des sinistres individuels concernés par le traité ;
• Détermination des niveaux de rétention et de capacité à tester, ainsi que le pas de test ;
4
Pour les traités proportionnels, une approche légèrement différente est adoptée, et qui sera
décrite dans le corps de mémoire.
Mots clés : Solvabilité 2, Formule standard, Modèle interne partiel, capital de solvabilité re-
quis (SCR), Réassurance non-proportionnelle, réassurance proportionnelle, Appétence au risque,
arbitrage et optimisation de réassurance.
5
Abstract
The implementation of Solvency 2 has allowed insurers to enter in a new era. Whereas pre-
viously, solvency generally not represented a major concern, it has now become a fundamental
issue of corporate control. The slightest shock rate, the slightest impact on a business line as
a natural disaster type of event can now have serious consequences for the level of coverage of
the SCR. For management this means should be put in place, upstream, a fine and dynamic
management of its solvency ratio 2.
One of the measures that can be taken is to adapt its reinsurance strategy, because in this
new context reinsurance is even more than before a powerful tool of capital management.
Under the old rules, Solvency 1, the impact of reinsurance was relatively moderate. Indeed,
on the one hand the non-proportional treaties had no significant impact and as for proportional
treaties, they were taken into account only up to 50 % of transfer pricing in "non -life". Under
Solvency 2, reinsurance is particularly development and contribute without limit to improve the
solvency margin. Thus the implementation of the new regulations, the reinsurance has become,
in addition to its risk management tool, a real tool for managing capital in the long term.
Therefore this report aims to develop firstly a model in standard formula and a partial
internal model, adaptable to non-life insurance companies with both proportional and non -
proportional reinsurance to offer reinsurance solutions optimizing the capital gain and the stra-
tegic objectives of the company.
To measure the impact of this decision, we have an actuarial modeling software, Risk Explo-
rer. The steps of this optimization are :
• clear identification of objectives, constraints and the risk profile for the optimization pro-
gram ;
• Determination of the number of simulations we have to perform ;
• Implementation of a pricing method by simulation on non-proportional reinsurance trea-
ties ;
• Optimization by business line, not "global".
For proportional treaties, a slightly different approach is adopted, and which will be descri-
bed in the dissertation coprs
6
Thus, this dissertation presents an optimization process of non-proportional and propor-
tional reinsurance. However we remain aware, there is still a non-modeled part (counteparties
bargaining power, treaty’s avaibility on the market)
7
Note de synthèse
Mots clés : Solvabilité 2, Formule standard, Modèle interne partiel, capital de solvabilité
requis (SCR), réassurance non-proportionnelle, réassurance proportionnelle, appétence au risque,
arbitrage et optimisation de réassurance.
Contexte :
La mise en place de Solvabilité 2 a permis aux assureurs d’entrer dans une nouvelle ère. Alors
qu’auparavant, la solvabilité ne représentait en général pas une préoccupation majeure, elle est
devenue aujourd’hui un enjeu fondamental de pilotage des entreprises. Pour le management, cela
signifie qu’il convient de mettre en place, en amont, une gestion fine et dynamique de son ratio
de solvabilité.
L’une des mesures qui peut être prise est d’adapter sa stratégie de réassurance, car dans ce nou-
veau contexte la réassurance devient encore plus qu’avant un puissant outil de capital manage-
ment. Sous l’ancienne réglementation, Solvabilité 1, l’impact de la réassurance était relativement
modéré. En effet, d’une part les traités non-proportionnels n’avaient pas d’impact significatif et
quant aux traités proportionnels, ils n’étaient pris en compte uniquement jusqu’à 50% du taux
de cession en "non-vie". Sous Solvabilité 2, la réassurance est particulièrement mise en valeur et
contribue sans limite à l’amélioration de la marge de solvabilité. Ainsi avec la mise en place de la
nouvelle réglementation, la réassurance est devenue, outre un outil de pilotage de ses risques,
un véritable outil de gestion du capital à long terme.
Problématique :
L’objectif du mémoire est donc de modéliser une compagnie d’assurance en formule standard,
puis en modèle interne partiel, afin de déterminer des solutions de réassurance optimisant le gain
en capital tout en respectant les objectifs stratégiques de la compagnie.
Démarche :
Les différentes étapes de la création du modèle en Formule standard sont les suivantes :
8
• Application de structures de réassurance et observation des impacts sur les SCR ;
Les différentes étapes du développement du Modèle interne partiel sous le logiciel Risk ex-
plorer sont les suivantes :
Les différentes étapes réalisées pour le développement du programme d’optimisation sont les
suivantes :
– Averse au risque : La compagnie souhaite minimiser son exposition, et donc est prête
à faire d’avantage de réassurance ;
– Risquophile : La compagnie est prête à prendre d’avantage de risque, et donc à moins
se couvrir.
Chacun de ces deux profils, va être caractérisé par 2 caractéristiques qui vont correspondre
aux contraintes du programme d’optimisation.
• Les contraintes ;
• Détermination de l’objectif ;
L’intérêt a été porté sur le gain en capital qu’apporte la réassurance, et plus précisément
sur la rentabilité d’une structure de réassurance, qui sera décrite par le ratio gain en
SCR sur résultat cédé moyen.
Ainsi, l’objectif est de déterminer la structure de réassurance donnant le meilleur ratio
gain en SCR sur résultat cédé moyen tout en respectant les contraintes précédentes.
Nous avons fait l’hypothèse de regarder exclusivement le gain en SCR "souscription non-
vie", et non pas le gain sur le SCR total. Cette hypothèse permet d’évaluer plus justement
les impacts de la réassurance, car après la phase d’agrégation des différents SCR, les im-
pacts se retrouvent "dilués".
9
• Méthodologie d’optimisation ;
Cette problématique "temps-machine" sur le temps nécessaire pour faire tourner un mo-
dèle, est encore un enjeu crucial et déterminant pour les assureurs, qui peuvent mettre des
jours à faire tourner leurs modèles les plus complexes. Comme nous allions être amené à
réaliser un très grand nombre de tests, il était capital de réduire au maximum le temps
nécessaire pour faire tourner le modèle en diminuant le nombre de simulations effectuées,
tout en gardant un niveau de précision satisfaisant. Pour justifier cette démarche, la mé-
thodologie mise en place consiste à observer la stabilité des différents indicateurs que l’on
utilise, afin d’en déduire à partir de combien de simulations on obtient un résultat stable.
Principales conclusions :
10
Figure 1 – Évolution du ratio "gain en SCR sur résultat cédé moyen" avec application d’un traité XS de rétention
35 M e et capacité variable
On observe que le ratio « gain en SCR/résultat cédé moyen », va avoir tendance à augmenter
avec l’extension de la capacité du contrat. Par contre, comme pour le quantile, à partir d’un
certain seuil il n’est plus optimal d’augmenter la capacité du traité. Il semblerait qu’à partir d’un
seuil la hausse tarifaire liée à l’agrandissement de la capacité n’apporte pas ou peu de gain en
SCR supplémentaire. On peut aussi remarquer un "creux important" après la premier pic (en
partant de la droite du graphique), traduisant une chute du ratio. Cette baisse peut s’expliquer
que le passage d’un niveau de capacité à l’autre à entraîner un gain en SCR relativement faible
par rapport au coût nécessaire pour l’acquisition du traité.
Même si d’un niveau de rétention à l’autre, l’aspect du graphe peut changer on retrouve néan-
moins les caractéristiques décrites précédemment.
M ontant cédé QP = (M ontant brut de réassurance − montant cédé XS) · T aux de cession
Par exemple, pour une rétention de 8 Me et une capacité variable, on observe les
résultats suivants :
11
Figure 2 – Impact de l’ajout d’un traité en quote-part sur le quantile à 99,5% de la charge nette et le résultat
net moyen
Figure 3 – Impact de l’ajout d’un traité en quote-part sur le ratio "gain en SCR sur résultat cédé moyen
Globalement, on observe ici que l’ajout de la quote-part a rarement un impact positif sur le
ratio, par rapport à la situation sans quote-part. Pour les deux niveaux de quote-part, on observe
un maintien du niveau de ratio compris entre 1,6 et 1,7. Ces niveaux de ratios équivalant entre
les deux cessions différentes, s’explique par le fait que "l’économie" de résultat cédé moyen pour
la cession à 10% (vis à vis de celle à 50%) se compense par le gain en SCR réalisé qui lui sera
plus faible pour la cession à 10%.
Si on se concentre sur le couple (rétention, capacité) : (4 Me,15 Me) (points indiqués sur le
schéma avec les étiquettes) qui correspond à la solution du programme d’optimisation pour le
profil averse au risque, on se rend compte que l’ajout d’une quote-part n’a pas d’impact positif
12
sur l’indicateur. Ces résultats se généralisent pour tous les niveaux de rétentions et de capacité.
Enfin, nous avons testé de nombreux traités Stop-Loss, s’appliquant d’une part sur la charge
nette issue du traité en excédent de sinistres observée précédemment, mais aussi sur la charge
attritionnelle de la LoB. Les principales conclusions tirées sur ce point sont les suivantes : D’une
part à même niveau de plafond, différents traités Stop-loss donnent des niveaux de ratio simi-
laires. De plus, on observe qu’indiscutablement l’ajout de ce type de traité a un impact
positif sur l’indicateur considéré.
Figure 4 – Évolution du ratio « gain en SCR sur résultat cédé » selon le niveau de rétention et de capacité du
traité Stop-Loss pour le profil « averse au risque ». La droite bleue représente le niveau de ratio de la stratégie
précédente sans le traité Stop-Loss.
Des résultats similaires ont été observés pour l’autre profil de risque.
La principale limite du modèle est liée au logiciel utilisé, Risk explorer. En effet, dans le cadre
de l’optimisation, il était compliqué de considérer plus de 2 paramètres en simultané. Dans cette
situation, il aurait été nécessaire d’observer et de tester de très nombreuses combinaisons de
ces paramètres dans l’espoir d’obtenir un résultat cohérent. Cette problématique était d’autant
plus renforcée du fait qu’il n’était pas possible d’automatiser via le logiciel, les combinaisons a
effectuer. Par conséquent, tout devait se faire manuellement. De plus, pour chaque simulation
à tester, il était nécessaire de faire tourner deux fois le modèle. Une première fois, pour effectuer
la tarification des traités et enfin une seconde pour obtenir les indicateurs désirés. Ainsi considé-
rer plus de 2 paramètres en même temps était une méthodologie qui ne pouvait être appliquée
justement, car bien trop chronophage et laborieuse.
Une autre limite de l’étude, est le "raffinement" des couples solutions (rétention,capacité)
obtenues. En effet on considère un pas de test discret (et non pas un pas continu) dans
les tests des niveaux de rétention et de capacité. Même si un premier raffinage a été effectué, il
serait très probablement possible de trouver une solution encore plus précise.
Enfin, il reste toujours une partie non modélisable (Pouvoir de négociation entre les deux
partis ainsi que la disponibilité des traités sur le marché).
13
De la méthodologie d’optimisation développée, il résulte des optimums "locaux", c’est
à dire des optimums LoB par LoB. Ainsi lorsqu’on souhaite, on obtenir une vision globale à
l’échelle de la compagnie, (c’est à dire une vision inter-LoB), on a donc une combinaison
d’optimums "locaux" , et non pas un optimum "global" a proprement parlé, qui sont de
toute évidence deux choses distinctes.
• Stratégie de réassurance
Implémenter un algorithme plus simple, pour éviter d’avoir à effectuer de très nombreux
tests afin de converger plus rapidement vers la solution optimale.
• Fiscalité
L’existence d’un arbitrage sur la fiscalité : le mécanisme de réassurance, permet de réaliser
un gain fiscal. Un étude plus approfondie de ce phénomène pourrait être intéressante.
• Distribution de dividendes
Le taux de dividende est un élément qui pourrait être pris en considération dans l’opti-
misation. En effet, si une compagnie a des objectifs très stricts et des actionnaires exigeants,
un conflit d’intérêt se pose. Si la compagnie fait davantage de réassurance cela améliora
sa solvabilité, mais cela aura aussi comme incidence de diminuer en moyenne son résultat
et par conséquent les dividendes distribués.
Enfin l’étude pourrait être étendue à une compagnie d’assurance ayant une activité vie.
14
Summary
Context :
The implementation of Solvency 2 has allowed insurers to enter a new era. Whereas pre-
viously, solvency generally not represented a major concern, it has now become a fundamental
issue of corporate control. For management this means should be put in place, upstream, a fine
and dynamic management of its solvency ratio.
One of the measures that can be taken is to adapt its reinsurance strategy, because in this new
context Reinsurance is even more than before a powerful tool emph capital management. Under
the old rules, emph 1 Solvency, the impact of reinsurance was relatively moderate. Indeed, on
the one hand the non-proportional treaties had no significant impact and as for proportional
treaties, they were taken into account only up to 50 % of transfer pricing in emph "not -life".
Under emph Solvency 2, reinsurance is particularly development and contribute without limit
to improve the solvency margin. So with the introduction of the new regulations, the textbf
reinsurance has become, in addition to its risk management tool, a real tool for managing capital
in the long term.
Problematic :
In addition to reinsurance proportional, the non- proportional now plays a significant role
and becomes a powerful tool to control and capital management. The study of its impact on in-
dicators solvency and prudential balance sheet allows non-life insurance companies to assess the
gains related to the establishment of such a device. Added to this is the question of arbitration.
Previously, it was essentially made between the level of transfer of the risk and the cost. Now,
this reflection is intensified by the introduction of a new deciding factor : the capital gain.
The purpose of the memory is to model an insurance company in standard formula, then
partial internal model to determine reinsurance solutions optimizing the capital gain while mee-
ting the strategic objectives the company.
Step :
Modeling in Standard Formula
The different stages of the creation of the model standard formula were as follows :
15
the inadequacy of the standard formula to non-proportional reinsurance as well as the absence
of simulatoire model approach in standard formula, have led us to develop a partial internal model
.
modeling of the partial internal model
The different stages of development of the emph partial internal model in the software Risk
explorer are :
• Calibration fo claims (attritional, serious, catastrophic) for each LoB ;
• Modelling risk premium and CAT ;
• Modelling risk reserve ;
• Application of reinsurance structures and observation of impacts on SCR.
Development of the optimization program :
The different steps performed for the development of the optimization program are :
• Setting the framework appetite for risk ;
– determining a threshold of textbf average net result of reinsurance under which the
insurer does not wish to go ;
– determining a threshold of quantile 99.5 % of the distribution of the net load below
which the insurer wishes to go, for each LoB.
The interest has been focused on the capital gain brings reassurance, and more specifi-
cally on profitability of reinsurance structure, which is described by the ratio gain SCR
on average yielded results.
Thus, the goal is to find the best ratio gain SCR sold on average result so that the average
net technical result and quantile 99.5 % of the net charge will not exceed their thresholds
respectively.
We hypothesized watch the gain SCR only for the SCR "non-life underwriting", and not
the gain on the total SCR. This assumption allows to evaluate more precisely the impact
of reinsurance, because after the aggregation phase of the different SCR, the impacts are
found "diluted".
• Optimization Methodology ;
16
• parameters to optimize ;
This problematic "machine time" on the time needed to run a model, is still a crucial and
defining issue for insurers, which can take days to run their most complex models. As we
were being asked to carry a large number of tests, it was important to minimize the time
required to run the model by reducing the number of simulations, while maintaining a
satisfactory level of precision.To justify this approach, methodology implementation is to
observe the stability of the indicators that are used to derive from how many simulations
we obtain a stable result.
For a fixed level of retention there is a unique level of capacity to maximize the ratio emph
SCR gain on the result given way.
For example, for non-proportional 35 million and retention capacity from 100 million to 700
million, we see the following results :
Figure 5 – evolution of the ratio "SCR gain on average yielded results" with application of a treaty XS retention
35M e and variable capacity
It is observed that the ratio "gain in SCR / result yielded average", will tend to increase with
the extension of the contract capacity. By cons, as quantile, from a certain point it is no longer
optimal to increase the capacity of the treaty. It would seem that from a threshold the price
increase related to the expansion of capacity does not provide or little gain additional SCR. One
can notice a "large hollow", reflecting a drop in the ratio. This decrease can be explained that
the transition from one level of capacity to the other driving a gain in relatively small SCR com-
pared to the cost required for the acquisition of the Treaty. Although a retention level to another,
17
the appearance of the graph can change is nevertheless found the characteristics described above.
Consider a quota share treaty applying to the result of a treaty excess of loss. QP treaty of
cession rate is applied to the net amount of the reinsurance XS follows :
For example, for a retention 8M e and a variable capacity, the following results were
observed :
Figure 6 – Impact of the addition of a treaty QP on quantile 99.5 % of the net charge and the average net
income
We see in this chart that the addition of the share reduces significantly the one hand quan-
tile 99.5 % of the net charge and the other the average net income. Both indicators are
assigned as follows :
Now let’s consider a graphical representation "Ratio "SCR gain on average yielded results"
/ Quantile 99.5 %." For a retention level of 4M e and variable capacity, we have the following
results :
18
Figure 7 – Impact of the addition of a treaty QP on the ratio "SCR gain on average yielded results"
Overall, here we see that the addition of the QP rarely has a positive impact on the ratio,
compared to the situation without QP. For both levels QP, there is a maintenance level ratio
between 1.6 and 1.7. These levels equivalent ratios between the two different sales is explained
by the fact that "the economy" means yielded results for the sale to 10 % (with respect to the
50 %) is compensated by the gain SCR realized that it will be lower for the sale to 10 %.
Finally, we tested many treaties Stop-Loss, applying on the one hand on the net charge of the
treaty excess of loss previously observed, but also on the attritional charge. The key findings on
this point are as follows : Firstly for a same ceiling level, various treaties Stop-loss give similar
levels of ratio. Moreover, we observe that adding this treaty has a positive impact on the
observed indicator.
Figure 8 – Evolution of the ratio "gain on SCR result yielded" according to the retention level and Stop-Loss
Treaty ability to profile "risk averse". The blue line represents the level of the previous strategy ratio without the
treaty Stop-Loss.
19
Similar results were observed for the other risk profile.
The main limitation of the model is related to the software used, Risk explorer. Indeed, in the
context of optimization, it was difficult to consider more than 2 parameters simultaneously. In
this situation, it was necessary to observe and test numerous combinations of these parameters
in the hope to get a consistent result. This problem was particularly reinforced by the fact that
it was not possible to automate via software, combinations has done. Therefore, everything
must be done manually. In addition, for each simulation test, it was necessary to run the mo-
del twice. The first time, to make the pricing of treaties and finally a second to get the desired
indicators. So consider more than 2 parameters simultaneously was a methodology that could
be applied just as well too time-consuming and laborious.
Another limitation of the study is the "refining" of the solutions couples (retention capacity)
obtained. Indeed it is considered a discreet step (and not continuous step) in testing levels
of retention and capacity. Even if a first refining was carried out, it would probably be possible
to find an even better solution.
Finally, there is always a non-modeled part (bargaining power between the two parties and
the availability of the treaties on the market).
The optimization methodology developed, it follows optimum "local", ie the optimum LoB
by LoB. Thus, when desired, obtain a global vision across the company (ie inter-vision LoB)
So we have a combination of "local" optimums, and not a "global" optimum, which are
obviously two separate things.
The second line of work could test new reinsurance structures and other arrangements bet-
ween different types of treaties in order to obtain a more optimal solution.
To go further
• Reinsurance strategy
Implement a simpler algorithm, to avoid having to carry out many tests in order to converge
more quickly to the optimal solution.
• Taxation
The existence of an arbitration on taxation : the reinsurance mechanism allows for a tax
gain. A more in-depth study of this phenomenon could be interesting.
• Distribution of dividends
The dividend rate is an element that could be taken into consideration in optimization.
Indeed, if a company has very strict objectives and demanding shareholders, a conflict of
interest arises. If the company does more reinsurance it will improve its creditworthiness,
but it will also have the effect of lowering its earnings on average and consequently the
dividends distributed.
Finally, the study could be extended to an insurance company with a life activity.
20
Remerciements
Avant toute chose, je tiens à exprimer ma grande gratitude à Monsieur Emmanuel Dubreuil,
associé chez Pwc, pour m’avoir donné l’opportunité de réaliser mon mémoire d’actuariat au sein
de l’équipe RVMS de Pwc. Je le remercie également pour sa disponibilité, son expertise ainsi
que ses précieux conseils et ses nombreuses références en la matière.
Mes remerciements s’adressent également à mon référent universitaire, Monsieur Pierre Car-
daliaguet, pour sa disponibilité, ainsi que pour le temps consacré à la relecture de mon mémoire.
En dernier lieu, j’adresse des remerciements particuliers à toute l’équipe RVMS, ainsi qu’à
leurs dirigeants pour le partage de leurs connaissances tout au long du stage, mais aussi pour
leurs accueils chaleureux et pour tout ces très bons moments passés en leur compagnie.
21
Introduction
L’une des mesures qui peut être prise est d’adapter sa stratégie de réassurance, car dans
ce nouveau contexte la réassurance devient encore plus qu’avant un puissant outil de capital
management.
Afin de réaliser cette étude, nous avons en grande partie utilisé le logiciel Risk explorer, qui
se trouve être parfaitement adapté pour la mise en place de ce genre de modèle. En effet, Risk
explorer est un logiciel de modélisation des risques destiné au secteur de l’assurance et de la
réassurance des biens/IARD.
Pour mener à bien notre étude, nous commencerons tout d’abord par décrire la méthodo-
logie adoptée pour modéliser une compagnie d’assurance spécialisée dans l’activité "non-vie" (à
la fois l’actif et le passif) qui soit la plus représentative du marché français. La modélisation se
fera en formule standard, la formule générique définie par l’EIOPA pour la détermination des
22
exigences en solvabilité. Nous appliquerons diverses structures de réassurance, associant à la fois
réassurance proportionnelle et non-proportionnelle, sur le modèle afin d’observer les impacts sur
les exigences en solvabilité et le ratio de solvabilité.
Ainsi dans une seconde partie, la compagnie d’assurance sera développée en modèle interne
partiel via le logiciel Risk explorer.
Comme pour le premier modèle, diverses structures de réassurance, associant à la fois réassu-
rance proportionnelle et non-proportionnelle, seront testées afin d’observer les impacts sur les
exigences en solvabilité.
Enfin dans la dernière partie, un programme d’optimisation avec contraintes sera développé
et nous observerons l’influence de la politique d’appétence au risque sur les solutions optimales.
23
Première partie
La construction de la compagnie
d’assurance virtuelle en Formule
standard
24
Chapitre 1
Cette partie est consacrée au développement des différentes étapes qui ont été réalisées pour
la création de la compagnie d’assurance virtuelle non-vie utilisée dans le cadre du mémoire. Nous
avons décidé de modéliser une compagnie virtuelle, dans l’objectif de pouvoir travailler sur un
cas générique qui soit à la fois représentatif du marché, sans être trop complexe.
1.1 Définition
La solvabilité d’une compagnie d’assurance est sa capacité à répondre de ses engagements
envers les bénéficiaires des contrats. La principale difficulté du secteur est l’inversion du cycle
de production. En assurance, on fixe le prix du produit (ie. la prime d’assurance) avant que
son coût (ie. le montant de la prestation versée) ne soit connu.
C’est en novembre 2009 qu’a été adoptée par le Parlement Européen, la nouvelle réglementa-
tion dans le domaine des assurances : Solvabilité II. Juridiquement, cette nouvelle reglementation
a été mise en place par la Directive 2009/138/CE du Parlement européen et du Conseil, mo-
difiée en dernier lieu par la directive 2014/51/UE du Parlement européen et du conseil du 16
mars 2014 (Omnibus II). Cette directive a été transposée en droit local (ie. dans tous les pays
européens). En France, cela signifie que certains articles du Code des assurances ont été ajoutés,
d’autres modifiés ou encore supprimés.
Solvabilité II a pour objectif principal la meilleure adaptation des fonds propres exigés des
compagnies d’assurance et de réassurance face aux risques auxquels elles sont exposées dans leur
activité. Elle s’inspire des réformes Bâle II et III qui ont lieu dans le secteur bancaire.
Initialement prévu en 2010, c’est seulement après une très longue et complexe phase d’implé-
mentation, que le 1er janvier 2016 Solvabilité II a été officiellement introduit au sein de toutes
les compagnies d’assurance et de réassurance à travers l’Europe (exception faite des entreprises
de petite taille avec moins de 5 M d’euros de primes qui restent sous l’ancien régime Solvabilité
I). Cette réforme a pour vocation de protéger la solvabilité de l’entreprise, mais aussi et surtout
de protéger les assurés.
Jusqu’au 31/12/2015, la réglementation en vigueur était Solvabilité I. Des faiblesses ont été
repérées dans ce cadre réglementaire, notamment :
25
– Une vision uniquement rétrospective du bilan (la solvabilité future repose sur des chiffres
historiques) plutôt qu’une approche économique ;
– Les exigences de capitaux ne traduisent pas les risques encourus par la compagnie, la
«culture du risque» dans les compagnies était encore peu ancrée dans les mentalités ;
1.3 Objectifs
Suite à ces constatations, il a été décidé de créer la nouvelle réglementation Solvabilité II
basée sur les principes fondamentaux suivants :
– Harmonisation des règles au sein de l’Union Européenne, mais aussi avec le secteur finan-
cier ;
– Promouvoir des bonnes pratiques de gestion des risques, et une meilleure communication
entre les régulateurs et les assureurs.
Les objectifs principaux clairement affichés avec la mise en œuvre de Solvabilité II, ont été
établis dès 1999 dans le document officiel de la Commission Européenne :
– Un cadre prudentiel plus adapté aux risques réels pesant sur les compagnies d’assurance ;
– Une «approche tournée vers le futur», avec un point de vue économique sur le bilan (C’est-
à-dire basée sur la market value) ;
– La prise en compte par les assureurs d’une grande diversité de risques (financier, technique,
opérationnel, stratégique, contrepartie. . . ) ;
Ce projet, à la portée ambitieuse, peut sembler plutôt contraignant au premier abord pour
les entreprises en leur imposant de nombreuses règles, mais en réalité vécu positivement par les
assureurs. On peut citer entre autres :
26
1.4 Description des piliers
Solvabilité II repose sur 3 piliers :
Le premier pilier définit le calcul des provisions techniques ainsi que les exigences quanti-
tatives en matière de fonds propres, le MCR et le SCR :
• Le SCR correspond au montant de fonds propres nécessaire pour éviter la ruine à l’horizon
1 an avec une probabilité de 99,5% ;
• Le MCR, peut être vu comme la borne inférieure du SCR. C’est le minimum de capital que
l’entreprise doit détenir en permanence, sous peine d’une sanction immédiate de l’autorité
de contrôle.
– Le Conseil d’administration ;
– Le directeur général.
Le second pilier s’intéresse aussi à l’évaluation interne des risques et de la solvabilité (ou
ORSA : Own Risk and Solvency Assessment), processus introduit par l’article 45 de la directive
Solvabilité 2.
Il consiste pour les organismes d’assurance et de réassurance à mener une évaluation dans le
cadre de leur gestion des risques et de leur stratégie commerciale.
Cette évaluation porte sur 3 éléments :
• Le respect permanent des exigences de capital et des exigences concernant les provisions
techniques ;
• La mesure dans laquelle le profil de risque de l’entreprise s’écarte des hypothèses qui sous-
tendent le capital de solvabilité requis (SCR).
De plus ce pilier permettra aux autorités de contrôle de détecter à l’avance les entreprises
les plus à risques, et de leur imposer une marge de solvabilité supplémentaire : le capital add on.
Enfin, le 3ème pilier correspond aux exigences de divulgation et de transparence des infor-
mations relevant des 2 précédents piliers, au public (actionnaires, analystes, agences de notation)
mais aussi au régulateur.
27
1.5 Bilan prudentiel sous solvabilité II et prise en compte de la
réassurance
Au niveau du bilan de la compagnie d’assurance, la nouvelle réglementation Solvabilité 2
permet de passer d’un bilan avec une vision comptable à un bilan avec une vision économique
comme le reflète le schéma ci-dessous :
1.5.1 Actif
L’arrivée de la nouvelle réglementation a considérablement changé la vision du bilan d’une
compagnie d’assurance, notamment en passant d’une vision rétrospective (principe du coût
historique) à une vision dite économique (principe de la valeur de marché ou fair value).
1.5.2 Passif
Provisions techniques
Conformément à l’article 77 de de la Directive 2009/138/CE, «la valeur des provisions tech-
niques est égale à la somme de la meilleure estimation et de la marge de risque»
Best estimate : C’est aussi dans l’article 77 de de la Directive 2009/138/CE, qu’est défini
le calcul des provisions en vision Best Estimate : C’est «la moyenne pondérée par leur probabilité
des flux de trésorerie futurs, compte tenu de la valeur temporelle de l’argent [. . . ], calculée brute,
sans déduction des créances découlant des contrats de réassurance.»
D’après l’article 61 tiré du règlement délégué (UE) 2015/35, l’expression simplifiée de cet
ajustement se présente sous la forme suivante :
28
PD
AdjCD = −M ax((1 − RR). .D.BEcédé ; 0)
1 − PD
Avec,
Risk margin :
La risk margin vient s’ajouter au BE, et peut être perçue comme une marge de sécurité sup-
plémentaire au Best Estimate. Elle se calcule comme étant la somme des SCR futurs actualisés
en étant en hypothèse de run-off, que l’on multiplie par le coût du capital, qui correspond à la
part reversée aux actionnaires et fixée à 6%. Ainsi pour un CoC de 6%, cela signifie que pour
1e investi, un actionnaire récupère annuellement 0,06e. L’hypothèse de run-off, signifie qu’il
n’y plus de nouvelles affaires dans le portefeuille.
X SCRt
RM = CoC.
t>=0
(1 + rt+1 )t+1
Avec,
rt+1 : correspond aux taux d’intérêt sans risque pour l’échéance t+1 années.
Néanmoins, l’expression précédente étant légèrement complexe pour une évaluation pratique,
il existe des simplifications, décrites dans l’article 58 du règlement délégué (UE) 2015/35 et qui
seront utilisées dans le cadre du mémoire.
Avec,
29
k : correspond au coefficient de proportionnalité entre le SCR et le BE
Etant donné que la marge pour risque dépend du SCR, il en découle que celle-ci se retrouve
impactée par le dispositif de réassurance.
Fonds propres
Les fonds propres correspondent aux ressources dont dispose la compagnie.
On distingue le Solvency capital requirements (SCR), qui est le montant minimal ré-
glementaire que doit détenir l’assureur, auquel s’ajoute le "capital surplus" , correspondant à
l’excédent de fonds propres.
De plus, une partie des fonds propres va être consommée par l’ajustement effectué au niveau
des provisions techniques à la charge du réassureur.
30
Chapitre 2
Implémentation de la "formule
standard"
Nous avons retenu un échantillon de compagnies d’assurance dont les caractéristiques sont
relativement homogènes et représentatives du marché.
Pour notre étude, et toujours dans la finalité d’être au plus près de la réalité du marché,
nous avons utilisé les données du rapport FFA.
Le chiffre d’affaire total en assurance non-vie en France s’élève aux alentours de 50 milliards
d’euros. Nous avons décidé que notre compagnie virtuelle avait une part de marché de 3%, lui
offrant ainsi un chiffre d’affaire de 1,5 milliards d’euros.
Nous avons retenu les branches d’activités (Lob : Line of Business), les plus représentatives
des activités d’assurance Non Vie pour les compagnies françaises.
Comme il est défini dans l’annexe 1, des Actes Délégués sur Solvabilité 2, les lignes d’activité
retenues couvrent les engagements suivants :
La LoB 5 (Autres assurances des véhicules moteurs) correspond aux «engagements d’assu-
rance couvrant tout dommage subi par les véhicules à moteur terrestres.»
31
La LoB 7 (Assurance Incendie et autre dommages aux biens) correspond aux «engagements
d’assurance couvrant tout dommage subi par les biens ne relevant ni de la LoB 5, ni de la 6
(MAT), par suite d’un incendie, d’une explosion, des forces de la nature y compris les tempêtes,
la grêle ou le gel, d’un accident nucléaire, d’un affaissement de terrain ou d’un autre événement
tel que le vol.»
En se basant sur les chiffres du rapport de la FFA, le chiffre d’affaire de notre compagnie
virtuelle va se décomposer de la manière suivante entre les LoB : 26% sur la LoB 4, 34% sur la
LoB 5, 30% sur la LoB 7 et enfin 10% sur la 8.
Pour avoir nos «propres triangles», il a été nécessaire de les retravailler de manière à rester
cohérent avec ce qui a été fait précédemment. C’est pourquoi, nous avons dû déterminer un
«facteur d’échelle». En effet, nous voulions que la sinistralité issue des triangles soit similaire
à celle de notre état C1.
Dans un premier temps, l’approche qui a été retenue pour ajuster nos triangles a été la
suivante :
• Nous nous sommes basés sur les montants des prestations versées (au titre de l’année
2014) quelle que soit l’année de survenance, pour les LoB qui nous concernent issues du
32
rapport FFA. Nous avons ensuite ajusté ces données en se basant sur le fait que la
compagnie virtuelle représente 3% du marché. Par rapport à nos triangles, ces montants
peuvent se voir comme étant la somme de la dernière diagonale (décumulée) du triangle.
Ainsi le coefficient d’ajustement pour chacun des triangles ne sera autre que le rapport
entre le montant de prestation «cible» et le montant de prestation réellement observé.
Supposons qu’ici, le montant de prestation cible est de 50 millions. Dans notre exemple, la
somme de la dernière diagonale, en décumulant est de 46 millions
Pour chacun des triangles retenus initialement, nous avons calculé pour chaque année calen-
daire (c’est-à-dire en observant les triangles par diagonale), la part de la charge de sinistralité
relative à l’année en cours (c’est-à-dire les éléments situés en première colonne) par rapport à la
somme de leurs diagonales respectives (correspondant à l’intégralité de la charge de sinistralité
sur l’année calendaire correspondante).
33
Figure 2.2 – Parts de la sinistralité relative à l’année en cours et de celle relatives aux années antérieures, par
rapport à la sinistralité totale sur l’année calendaire
Pour les lignes d’activités 5 et 7, on observe une sinistralité relative à l’année en cours im-
portante, qui illustre bien que ce sont des branches courtes, c’est-à-dire dont le déroulement
est rapide.
A l’inverse, pour la LoB 4, on observe une sinistralité relative à l’année en cours faible qui
illustre bien que c’est une branche longue.
Néanmoins, pour la LoB «responsabilité civile générale», on observe une sinistralité relative
à l’année en cours relativement élevée, par rapport aux attentes que l’on pouvait avoir, cette
ligne étant généralement longue.
Remarque : Les triangles considérés sont cumulés. Il donc important de décumuler les mon-
tants avant d’effectuer les calculs.
Puis, on applique les résultats obtenus précédemment (1ère ligne), aux sinistralités calen-
daires déterminées dans l’état C1.
Figure 2.3 – Montant de la sinistralité relative à l’année en cours, pour chaque loB
Supposons que notre triangle initial retenu pour la LoB RC auto est le suivant :
Ainsi dans notre triangle «corrigé», on souhaiterait avoir 28, comme coefficient en bas du
triangle (à la place du 34). Par conséquent ici, notre facteur serait :
28
θ= ≈= 0, 82
34
34
On appliquerait ce facteur par la suite à tous les coefficients du triangle, pour obtenir notre
triangle de travail.
Néanmoins, comme avec la méthodologie précédente, on perdait aussi la cohérence avec nos
données initiales. En effet, sur certaines branches (par exemple en responsabilité civile générale),
on pouvait observer une forte évolution de la charge ultime d’une année de survenance à l’autre,
qui traduisait non pas une augmentation de la sinistralité mais davantage une augmentation du
portefeuille.
Pour cela, on se base sur l’hypothèse que les 3 dernières années sont globalement les plus
représentatives.
Pour rappel, la méthode Chain-Ladder consiste à supposer que le comportement observé par
le passé de l’évolution des règlements sera similaire dans le futur.
Pour développer les triangles, on va calculer sur les données historiques pour chaque année
de développement le coefficient multiplicatif qui les a fait passer du montant de cette année de
développement à l’année de développement suivante.
Ces coefficients s’appellent facteurs de développements, et sont estimés par la formule sui-
vante :
PN −k
Si,k+1
λk = Pi=1
N −k
i=1 Si,k
Avec,
Si,j : le montant des sinistres survenus l’année i et réglés après j année de développement.
N : la durée maximale de la branche concernée.
35
Après projection, on obtient le «triangle projeté» suivant :
Une fois la projection réalisée, nous avons pu déterminer précisément les cadences d’écoule-
ment pour chacune des LoB. Les cadences d’écoulement correspondent à la vitesse à laquelle les
sinistres sont intégralement pris en charge pour l’assureur. Pour des branches dites «courtes»,
telle que la LoB autres assurances des véhicules à moteur, les cadences sont très rapides.
En effet, ce type de sinistre est en général déclaré prestement par les assurés, et est facilement
évalué par les assureurs. Au contraire, pour les branches dites «longues», par exemple la «res-
ponsabilité civile automobile», il est beaucoup plus délicat d’évaluer correctement les montants
des sinistres pour les assureurs, ce qui explique les cadences «lentes».
Le tableau ci-dessous indique les cadences cumulées par année de développement pour cha-
cune des lignes d’activités retenues :
Pour les LoB Assurance Incendie et autres dommages aux biens et Autres assurances des
véhicules à moteur, qui sont des branches typiquement courtes, c’est la méthode des paie-
ments qui a été retenue. C’est à dire que l’on va retenir les triangles des paiements pour la
méthode chain-ladder.
A contrario pour les LoB Responsabilité civile automobile et responsabilité civile générale, qui
elles sont des branches relativement longues, c’est la méthode des charges qui a été retenue.
Ici, ce sont donc les triangles des charges qui sont utilisés pour la méthode de chain-ladder.
Avec les projections, nous avons donc en notre possession les Best estimate de provisions
pour chacune des LoB. Le calcul du BE a été effectué de la manière suivante :
Une fois les projections des triangles réalisées, nous détenons les charges ultimes pour chaque
année de survenance. Puis, nous obtenons les PSAP (provisions pour les sinistres à payer) en
faisant les différences entre les charges ultimes et les éléments diagonaux pour chaque année de
36
survenance. Elles sont ensuite réparties dans le temps à l’aide des cadences d’écoulement, et
actualisées. L’actualisation a été effectuée en se basant sur les courbes des taux communiquées
par l’EIOPA : courbe des taux SWAP (Voir annexe A). Ainsi, la somme de ces flux actualisés
correspond au BE de réserve.
D’une part la formule standard, proposée par l’EIOPA et qui est censée pouvoir être exploi-
table par n’importe quelle compagnie. Le principe général est de déterminer le niveau de fonds
propres à détenir aujourd’hui, de telle manière à avoir dans un an des fonds propres positifs
dans 99,5% des cas, à partir d’hypothèses de mesure et de corrélations des différents risques,
sans faire de projection de fonds propres.
Entre les deux, il existe une autre modalité de calcul qui est le modèle interne partiel,
qui comme son nom l’indique consiste à modéliser uniquement une partie des risques, la partie
non-modélisée restant en formule standard. Après la formule standard, cette modalité sera en-
suite adaptée à notre compagnie. Actuellement aucune compagnie, n’est encore intégralement en
modèle interne (ce qui signifie que la formule standard est encore utilisée pour certains aspects).
Dans les faits, les assureurs les plus importants sur le marché optent pour l’option du modèle
interne. La première raison est qu’il reflète bien mieux leurs propres risques, la formule standard
étant calibrée avec des paramètres issus de statistiques moyennes observées sur le marché. La
seconde raison est l’optimisation de leur capital et par conséquent l’immobilisation du capital.
Le modèle interne doit être homologué par les autorités de contrôle.
Il est important de rappeler qu’il est nécessaire de devoir calculer les capitaux de solvabilité
requis pour notre compagnie d’assurance virtuelle dans différents cas.
En effet, dans un premier temps le calcul du SCR doit se faire brut de réassurance (on
part de l’hypothèse qu’à l’instant initial, la compagnie virtuelle ne dispose d’aucun programme
de réassurance) puis dans un second temps le calcul du SCR net de réassurance permet de
déterminer le gain en SCR dû à la structure de réassurance adoptée. Ce gain en SCR est l’un
des critères principaux qui nous permettra d’analyser l’optimalité du plan de réassurance.
37
2.3.2 Calcul du SCR
La formule standard stipule que le SCR est la somme de 3 éléments :
le BSCR
Le BSCR(Basic solvency capital requirement), est l’agrégation de 6 modules de risque :
– Risque de marché ;
– Risque de contrepartie ;
Quant au risque de marché, il sera aussi décrit dans l’étude mais de manière relativement
simple. Ce point sera abordé plus en détail, dans la suite du mémoire. L’agrégation des différents
risques se fait ensuite à partir d’une matrice de corrélation fournie par l’EIOPA. L’objectif de
l’agrégation consiste à prendre en compte la dépendance entre certains risques.
sX
BSCR = Corri,j .SCRi .SCRj + SCRintangible
i,j
Avec,
SCRi : correspond au SCR du module i ;
38
SCRintangible : correspond à l’exigence de capital pour les risques liés aux immobilisations
incorporelles (On néglige ce SCR dans notre étude)
Le SCR opérationnel
Il s’agit du SCR correspondant aux risques non inclus dans le BSCR, typiquement les failles
ou l’inadaptation des processus internes, des fautes du personnel, des systèmes ou tout autre
événement externe. Néanmoins l’impact de réassurance sur ce dernier est nul ou faible. Dans le
cadre de notre mémoire, nous considérerons l’impact comme étant négligeable.
Ce mémoire se concentre plus particulièrement sur l’impact de la réassurance sur deux mo-
dules de risque : le risque de souscription non-vie, et plus particulièrement le risque de prime
et réserve ainsi que le risque de contrepartie. Par conséquent dans les parties qui suivent, nous
détaillerons les particularités ainsi que les modes de calcul de ces modules.
Définitions
Le risque de réserve correspond au risque de sous-provisionnement. Il réside ainsi dans la
nature aléatoire de l’évaluation des sinistres et à leur mauvaise estimation.
Le risque de rachat (supposé nul dans cette étude) correspond au risque que de nombreux
assurés mettent un terme à leurs contrats de manière simultanée. Ce risque est associé aux
contrats pluriannuels (Cf : la loi Hamon 1 ). En assurance non-vie, il s’agit majoritairement de
contrats courts durant un an contrairement aux contrats vie. Le risque de résiliation est donc
relativement faible et peut donc être négligé.
Calculs
Le risque de primes et de réserves (SCRnlpremres )
Le calcul est défini dans l’article 115 du règlement délégué 2015/35/CE, comme étant :
1. Loi instaurée le 1er janvier 2015 offrant la possibilité aux assurés de résilier leur contrat d’assurance quand
ils souhaitent une année après la souscription
39
SCRnl prem res = ρ(σ).V
On obtient l’approximation suivante pour ρ(σ) par développement limité,
p
exp(N0,995 . ln(σ 2 + 1))
ρ(σ) = √ − 1 ≈ 3σ
σ2 + 1
Au final on obtient,
SCRnlpremres = 3 · σ · V
Des valeurs pour σ sont données par LoB dans les annexes des actes délégués (voir annexe
C et E). Elle est séparée entre sa partie prime et sa partie provision. On les note σ(prov,lob) et
σ(prime,lob) . (Voir en annexe)
Ensuite, à partir de ces valeur de σ(prov,lob) et σ(prime,lob) , on peut déterminer la valeur
globale sur toute la LoB, notée σLoB .
q
( σprime,LoB .Vprime,LoB )2 + 2α.σprime,LoB .σprov,LoB .Vprime,LoB .Vprov,LoB + (σprov,LoB .Vprov,LoB )2
σLoB =
Vprime,LoB + Vprov,LoB
Enfin,
sP
LoBMrc σr σc Vr Vc
σ=
V2
Où,
les Mrc correspondent aux corrélations entre les différentes LoB (voir annexe B)
Avec,
P 2
j (Vprime,j,LoB + Vprov,j,LoB )
DIVLoB = P
( j Vprime,j,LoB + Vprov,j,LoB )2
Avec,
Vprime,LoB : représente la mesure de volume pour le risque de prime de la LoB ;
Vprov,LoB : représente la mesure de volume pour le risque de réserve de la LoB ;
DIVLoB : représente le facteur de diversification géographique de la LoB
Avec,
40
t.emises : Primes émises de l’année prochaine ;
PLoB
t.acquise
PLoB :Primes acquises de l’année prochaine ;
t−1.acquise
PLoB : Primes émises de l’année écoulée.
Dans notre étude, on va considérer des garanties annuelles commençant le 1er janvier. Par
conséquent, on a des PPNA nulles.
Le risque CAT (SCR CAT ) Le risque de catastrophe va prendre en compte les évène-
ments extrêmes, qui ne surviennent que très rarement et qui n’ont pas été pris en compte dans
le risque de primes et de réserves. Il est lui-même composé de 4 différents sous-modules couvrant
respectivement le risque de catastrophe relatif aux périls naturels, les risques relatif à l’activité
humaine et d’autres événements catastrophiques. Dans notre étude, nous nous focaliserons sur
le premier module : Catastrophes naturelles.
Le SCRCAT se calcule de manière standard en réalisant une agrégation entre les différents
sous-risques cités précédemment.
Le schéma ci-dessous présente plus précisément les modules ainsi que les sous-modules qui
composent le risque CAT :
Plus précisément,
41
forte sévérité tels les tremblements de terre, les tempêtes, la sécheresse, la grêle ou encore
les inondations.
Dans les deux cas ces évènements sont difficiles à capturer statistiquement. Il n’est pas
facile d’établir une base de données historique suffisante du fait de leur faible fréquence.
Afin de pallier cette difficulté, la sinistralité catastrophique est modélisée.
La Directive divise les expositions au risque de contrepartie en deux groupes appelés expo-
sition de type 1 et les expositions de type 2. Dans notre étude, comme c’est le risque de défaut
lié aux contrats de réassurance qui nous intéresse, c’est l’exposition de type 1 sur lequel nous
allons nous concentrer dans le cadre du mémoire, car elle concerne les expositions auprès des
réassureurs.
Le capital réglementaire requis pour ce module est calculé comme suit (Cf. Journal officiel
de l’union Européenne [2015], article 200) :
√ √
√ 3. V ⇔ V ≤√7%.LGD
SCRdef,1 = 5. V ⇔ 7%.LGD
√ < V ≤ 20%.LGD
LGD ⇔ V > 20%.LGD
Avec,√
σ = V : représente l’écart-type de la distribution des pertes des expositions de type 1 ;
V = Pd .(1 − Pd ).LGD2
Avec,
LGD : Correspond à la perte en cas de défaut pour une exposition de type 1, dont le calcul
est développé un peu plus loin.
42
Cas 2) Plusieurs réassureurs
Comme il est décrit dans l’article 200 règlement délégué (UE) 2015/35, ce calcul de la
variance de distribution des pertes des expositions de type 1 pour plusieurs contreparties revient
à:
V = Vinter + Vintra
Avec,
la somme couvre toutes les combinaisons possibles (j,k) des différentes probabilités de défaut
des expositions sur signature unique.
T LGDj et T LGDk représentent la somme des pertes en cas de défaut sur les expositions de
type 1 pour les contreparties dont la probabilité de défaut est, respectivement, de Pdj et Pdk .
Où,
Pd : probabilité de défaut qui dépend de la notation attribuée par les agences de notation.
Ci-dessous ce trouve le tableau référençant les probabilités de défaut par notation, extrait de
l’article 199 du règlement délégué (UE) 2015/35.
Et,
X 1, 5P j .(1 − P j ) X
Vintra = d d
. LGDi2
j 2, 5 − Pdj )
Pdj
• la première somme couvre toutes les probabilités différentes de défaut des expositions sur
signature unique, telles que visées à l’article 199 ;
• la seconde somme couvre toutes les expositions sur signature unique dont la probabilité
de défaut est de PDj ;
Dans notre étude nous allons nous cantonner à N = 1 ou N = 2, c’est-à-dire que la compagnie
est réassurée auprès de deux réassureurs différents, avec des caractéristiques propres. Cela va
permettre d’étudier l’impact de la notation du réassureur sur le risque de contrepartie.
43
Avec,
RMre = 0
Collateral = 0
F =0
– Risque de taux (sensibilité de la valeur des actifs et des passifs aux taux et à leur volatilité) ;
– Risque de spread (de même pour les primes de risque crédit au-delà de la courbe des taux) ;
Avec Xup (respectivement Xdown ) est le vecteur des SCR individuels en cas de hausse (res-
pectivement en cas de baisse) des taux. Mup (respectivement Mdown ) la matrice des corrélations
entre les différents modules en cas de hausse (respectivement baisse) des taux.
On sépare ainsi le risque à la hausse et le risque à la baisse, et on conserve le pire des cas.
Dans notre mémoire, et toujours dans le soucis de rester cohérent avec nos données crées
précédemment, nous avons utilisé la méthodologie suivante pour déterminer le SCR marché :
– Retenir un SCR marché parmi les candidats retenus pour créer notre compagnie fictive
44
SCRmkt.f ictif SCRmkt.candidat
≈
SCRnon−vie.f ictif SCRnon−vie.candidat
SCRmkt.candidat · SCRnon−vie.f ictif
SCRmkt.f ictif ≈
SCRnon−vie.candidat
– Obligations : 60% ;
– Actions : 25% ;
45
Figure 2.9 – Composition de l’actif
On peut observer que le SCR souscription non-vie à un poids très conséquent sur le SCR
total. De plus ici le SCR contrepartie est nul, car on considère qu’en situation initiale la compa-
gnie ne dispose d’aucune structure de réassurance, et dans le cadre du mémoire uniquement les
expositions auprès des réassureurs sont considérées.
Quant au SCR souscription non-vie, il se décompose de la manière suivante :
46
Figure 2.11 – Composition du SCR souscription non-vie en situation initiale, sans réassurance
Nous avons donc un résultat technique négatif. Ce qui n’est pas anormal dans le cas présent,
car les quatre lignes d’activités ont un ratio combiné supérieur ou égal à 100%.
De plus, globalement c’est un fait que les compagnies d’assurance non-vie ne sont pas par-
ticulièrement rentables au niveau de la souscription. C’est pourquoi nous allons introduire le
résultat opérationnel.
47
Chapitre 3
Maintenant que la compagnie d’assurance virtuelle non-vie a été créée dans le premier cha-
pitre, nous allons pouvoir mettre en place différentes structures de réassurance, mélangeant à
la fois réassurance proportionnelle et non-proportionnelle. Les structures seront testées sur le
modèle en formule standard et en modèle interne partiel. Nous observerons les divers impacts
de la réassurance sur les exigences en solvabilité.
48
C’est un marché particulièrement concentré, où les cinq leaders (à savoir Munich Re, Swiss
Re, Hannover Re, Berkshire et Scor) totalisent à eux seuls près de 55% du chiffre d’affaire mon-
dial.
De plus, ce marché à la particularité d’être très cyclique. Si on a plusieurs années sans d’im-
portants sinistres, les réassureurs ont des gains importants entraînant l’arrivée de nombreux
nouveaux entrants. Cela a pour conséquence de faire baisser les prix, et donc la rentabilité en-
traînant la sortie de nombreux acteurs du marché en cas de forte sinistralité.
Même si en ce moment la marché est dans un cycle plutôt calme, certains éléments laissent
présager une explosion de la demande de la réassurance dans les prochaines années : l’augmen-
tation de la fréquence ainsi que de l’intensité des catastrophes naturelles, le net développement
du taux de pénétration d’assurance dans les pays en développement qui de plus sont particu-
lièrement affectés par ce type d’évènements. C’est pourquoi, il est d’un enjeu capital d’être en
mesure d’utiliser justement le mécanisme de réassurance.
Le ratio combiné en réassurance contrairement en assurance est beaucoup plus faible (en
général entre 85% et 95%), mais la volatilité est forte d’une année à l’autre. Ainsi en 2001, avec
les attentats du World Trade Center, les ratios combinés ont explosé atteignant les 128%.
3.1.3 Objectifs
Voici une liste, non exhaustive des objectifs et des intérêts d’une structure de réassurance
pour une compagnie d’assurance :
• Mutualisation sur des risques atypiques ou possédant peu ou pas d’historiques (terrorisme,
cyber-risque,. . . ) ;
Avec l’arrivée de Solvabilité II, la donne a changé. La réassurance est prise en compte dans
le bilan, par une créance de réassurance. Elle est calculée en faisant la différence entre les Best
Estimate brut et net de réassurance, et est ajustée en fonction de la probabilité de ruine des
réassureurs.
Le bilan économique est aussi affecté par le programme de réassurance au niveau du passif
avec la réduction du résultat dans les fonds propres.
49
Cet actif génère une charge en capital au titre du risque de contrepartie.
C’est pourquoi, le SCR défaut (SCRdéfaut ) , est bien entendu lui aussi concerné par le programme
de réassurance, mais cette fois-ci cela va engendrer une «perte» pour l’assureur. En effet, le ré-
assureur émetteur du traité de réassurance est une nouvelle source de risque pour l’assureur, qui
nécessite de revoir à la hausse les besoins en capitaux pour le risque de contrepartie. L’évalua-
tion de ce risque fait intervenir, entre autres, la notation du réassureur ou le ratio de solvabilité
pour déterminer la probabilité de défaut, ainsi que les nantissements du réassureur dans le calcul
des pertes en cas de défaut. Le calcul doit être mené pour chaque réassureur et pour chaque Lob.
Dans le SCR souscription non-vie, tous les sous-modules sont affectés par la mise en place
d’un programme de réassurance, car tous les calculs de SCR sont effectués à partir de montants
nets de réassurance, qui par définition seront plus faibles entraînant par conséquent une écono-
mie du capital à détenir.
Enfin, le SCR Marché est concerné sur deux points : d’une part à l’actif car le montant des
placements au bout d’un an est fonction du résultat net de la cédante. Mais aussi au passif,
avec les sous-modules Interest et Illiquidity, qui utilisent les montants nets de réassurance. De
plus, une partie des fonds propres va être consommée par l’ajustement effectué au niveau des
provisions techniques à la charge du réassureur.
La réassurance facultative
La cédante cède et le réassureur couvre tout ou partie du risque couvert par une police d’as-
surance unique. Les conditions de la couverture sont discutées entre le réassureur et l’assureur,
et chacun des deux partis a son mot à dire. Ce processus est utilisé notamment pour les grands
risques industriels et les risques spéciaux faisant appel à des connaissances particulières ou dans
le cas des risques de technologie de pointe.
La réassurance obligatoire
La réassurance est obligatoire lorsque la négociation est axée sur une branche d’assurance,
l’assureur s’engageant à céder tous les risques relevant de cette branche et le réassureur s’enga-
geant à les accepter. Alors on peut dire que dans le cadre de traité, la cédante est obligée de
céder et le réassureur d’assumer une part bien précise des risques assurés par la cédante.
La réassurance facultative-obligatoire
En réassurance FACOB, l’assureur a la faculté de décider de l’opportunité de réassurer un
risque et ce, dans des proportions acceptables. Le réassureur, quant à lui, n’a pas le choix et
s’engage à accepter toutes les affaires que la cédante lui attribuera à condition que l’engagement
ne soit pas supérieur à un montant déterminé à la souscription.
La réassurance proportionnelle
Un traité de réassurance est dit proportionnel lorsque la charge de sinistre cédée est propor-
tionnelle à la charge brute de sinistre. Le même principe s’applique pour les primes.
50
Il existe trois grands types de traité :
• Le traité en quote-part
Exemple :
Prenons un traité en quote-part à 50% sur un risque quelconque : L’assureur verse 50%
des primes aux réassureurs, qui en contrepartie prend en charge 50% des sinistres.
Suite à l’exercice du traité LPT 80%, on va céder 80 de nos réserves ( soit 80% des réserves)
Le «prix» à payer pour le traité est de 70, correspondant à la valeur actualisée des réserves.
Ainsi la cédante doit transférer 70 «d’actif» au réassureur. Suite à cette action, une créance
de réassurance est créée dans le bilan de la cédante. En général, le versement de 70 est
payé en «cash». Néanmoins, il y a possibilité de diminuer l’impact sur le «cash» pour la
cédante en acceptant :
– Un dépôt partiel de «cash» (par exemple 50) pour lequel la cédante devra payer un
taux d’intérêt annuel au réassureur. C’est ce que l’on appelle la «collatéralisation» ;
– Les 20 restants à payer en cash. Il y a donc une collatéralisation de 30 ( ie : Les 80
de réserve transférée moins les 50 collatéralisé par le dépôt en «cash»).
51
Figure 3.3 – Schéma des impacts du LPT sur le bilan S II
– Les réserves brutes (Gross loss reserves) figurent toujours au passif du bilan de la
cédante, quant aux réserves cédées, elles figurent en tant que créances de réassurance
(reinsurance receivable) en échange des actifs financiers payés au réassureur ;
– Quand la créance de réassurance excède le montant payé au réassureur (qui dans
notre exemple vaut 70), la différence figure généralement dans le passif du bilan de
la cédante en tant « profit différé » (deferred profit, qui dans notre exemple vaut 10).
Par conséquent, globalement l’impact du traité LPT sur le bilan économique de la cédante
sera neutre ou relativement faible, en fonction du montant du profit différé.
Dans le cadre de notre mémoire, nous allons considérer que l’impact du traité LPT est
négligeable sur le bilan de notre compagnie d’assurance virtuelle
La réassurance non-proportionnelle
Contrairement à la réassurance proportionnelle, dans le cas d’un traité de réassurance non-
proportionnelle, ce que paie le réassureur n’est pas proportionnel à ce que paie l’assureur.
Le second correspond au montant maximal que peut prendre en charge le réassureur. Ainsi
une fois le plafond (rétention + capacité) dépassé, le montant revient à la charge de l’assureur.
Sinistre lié à un risque d’une police d’assurance. Dans le cas d’un besoin de capacité
ou protection contre un risque majeur.
– Excédent de sinistre par événement :
52
Sinistre lié à plusieurs risques formant un évènement ou un cumul total. Cela apporte
une protection contre un événement défini dans sa nature, dans l’espace et dans le
temps.
De plus, ces deux types de couvertures peuvent être complétés de clauses supplémentaires,
entre autre on peut citer la clause de reconstitution.
En théorie, les reconstitutions peuvent être calculées selon une méthode prorata capita
(proportionnelle au montant reconstitué), prorata temporis (proportionelle au temps res-
tant à couvrir jusqu’à la fin de la période de couverture) ou au double prorata.
Dans le cadre de notre mémoire nous considérerons des traites avec reconstitutions gra-
tuites et illimitées 1 .
Exemple :
Considérons un programme avec les caractéristiques suivantes :
– Risk A : 4 Me
– Risk B : 6 Me
– Risk C : 11 Me
53
Figure 3.4 – Application du traité XS en couverture par risque
Au final, pour l’assureur sa charge nette est de 4 Me (correspondant aux zones en bleu
foncé sur le graphique). Quant au réassureur, sa charge est de 17 Me (correspondant
aux zones en bleu clair sur le graphique).
Supposons maintenant que ces trois pertes proviennent d’un même évènement,
Au final, pour l’assureur, sa charge nette est de 12 Me (correspondant aux zones en bleu
foncé sur le graphique). Quant au réassureur, sa charge est de 9 Me (correspondant aux
zones en bleu clair sur le graphique).
• Le Stop-Loss
Le principe consiste à couvrir l’assureur contre une déviation de sa charge, qu’elle vienne
des gros ou des petits sinistres. Le Stop-Loss est souvent exprimé en terme de ratio S/P.
54
Le réassureur s’engage alors à protéger, à hauteur d’un certain montant, les résultats dé-
passant le ratio S/P cible au-delà duquel l’assureur est obligatoirement en perte.
On peut aussi souligner que le Stop-loss peut aussi fonctionner de manière similaire à un
traité par excédent de sinistre, en disposant d’une rétention et d’une capacité. Néanmoins
contrairement, à ce dernier qui s’applique individuellement sur les sinistres, celui-ci s’ap-
plique directement sur la charge brute totale.
exemple :
Réassurance proportionnelle
Pour le traité quote-part, la tarification est relativement simple. La part de prime à céder au
réassureur correspond à la part de sinistre pris en charge par le réassureur. Par exemple pour
un traité quote-part 50%, l’assureur doit céder la moitié de ses primes.
Réassurance non-proportionnelle
• le Burning Cost
55
Le Burning Costest une méthode basée sur la sinistralité historique. L’idée consiste à re-
garder ce qu’aurait coûté le traité sur les années antérieurs.
00
S
BC =
P
Avec,
00
S : La charge cédée au réassureur via le traité
P : la prime brute
Pour les années précédentes, on considère les primes brutes et les sinistres, puis on observe
ce qu’aurait rapporté le traité cette année-là. Il ne faut pas oublier de corriger les primes
et les sinistres en As if. C’est-à-dire avec prise en compte l’inflation.
Exemple :
Le réassureur a aussi la possibilité d’estimer des quantiles pour limiter d’avantage son
exposition. Ainsi dans 90% des cas le Burning cost est inférieur à 6%. Par conséquent,
en demandant 6% des primes, le réassureur n’a que 10% des cas où il fait des pertes.
La grande force du Burning cost réside dans la simplicité de sa mise en place. Néanmoins,
celui-ci trouve ses limites, dès lors qu’il s’agit de tarifier des contrats qui jouent relative-
ment peu.
Dans le cadre de notre compagnie d’assurance virtuelle, cette méthode était difficilement
applicable à cause de l’absence d’un historique de prime et de sinistre.
• Monte Carlo
C’est une méthode par simulation. L’idée consiste à simuler la charge par des méthodes
de type Monte-Carlo, puis d’appliquer la réassurance. C’est cette méthode de tarifi-
cation qui a été retenue dans le cadre du mémoire.
Pour cela, il faut tout d’abord estimer des lois pour les fréquences et les coûts des sinistres.
Puis il faut simuler un certain nombre de sinistres ainsi que leurs coûts. Enfin pour chaque
trajectoire, en déduire les charges brutes, nettes et cédées.
Il existe différents principes de prime. Pour l’étude, nous avons retenus le principe de
l’écart-type, où la prime s’écrit :
q
P (S) = E(S) + α V ar(S)
56
Avec, α = 0,3
Remarque : On considère que pour toutes les structures de réassurance, la notation du réas-
sureur est la même, à savoir une notation de A.
• Abattement (de 80%) prévu par la formule standard sur la volatilité afin de tenir compte
de la réassurance non proportionnelle sur la Responsabilité civile automobile et la respon-
sabilité civile générale.
Ainsi, pour la branche «responsabilité civile automobile», on passe d’une volatilité de 10%
à 8%.
Quant à la branche «responsabilité civile générale», on passe d’une volatilité de 14% à 12%.
• Rétention : 35 Me ;
• Capacité : 665 Me ;
57
Figure 3.7 – Bilan de la compagnie avec application de la structure A
On constate bien qu’ici les cessions en réassurance sont inexistantes à l’actif du bilan, car
comme indiqué ci-dessus il n’était pas possible de modéliser correctement l’impact du traité sur
le BE de prime
58
Figure 3.9 – Composition du SCR après application de la structure A
On observe donc une réduction de SCR de 19,6% par rapport à la situation initiale sans
réassurance.
59
Figure 3.11 – Composition du SCR non-vie après application de la structure B
On observe donc une réduction de SCR de 9,2% par rapport à la situation initiale sans
réassurance.
Dans cette réassurance, c’est le BE de primes va être affecté. Il est affecté de manière
identique au taux de cession du traité quote-part. Ainsi dans le cas présent, le BE de primes
sera divisé par deux.
60
Figure 3.13 – Bilan de la compagnie avec application de la structure C
On observe donc une réduction de SCR de 9,8% par rapport à la situation initiale sans
61
réassurance. Dans cette structure, c’est le BE de réserve qui est impacté. Il est affecté de
manière identique au taux de cession du traité. Ainsi, dans le cas présent le BE de réserve
sera réduit de 30%.
– Un traité excess of loss (XS) sur le risque catastrophe (pour la Lob incendie et autres
dommages aux biens) ;
– Abattement (de 80%) prévu par la formule standard sur la volatilité afin de tenir
compte de la réassurance non proportionnelle sur les LoB responsabilité civile auto-
mobile et générale ;
– Un quote-part à 50%, pour l’impact sur le SCR prime, dans le module non-vie ;
– Un loss portfolio transfert (LPT) à 30%, pour l’impact sur le SCR réserve, dans le
module non-vie.
62
Figure 3.18 – Composition du SCR après application de la structure D
On observe donc une réduction de SCR de 41% par rapport à la situation initiale.
Dans cette structure, cela a un impact sur le BE de primes et de réserves. D’une part,
le BE prime est affecté par le traité en quote-part à hauteur du taux de cession, de l’autre le
BE réserve est affecté par le traité Loss portfolio transfer.
La stratégie D (qui pour rappel combine les trois structures A, B et C) permet d’augmenter
de près de 117% le ratio de solvabilité par rapport à la situation initiale sans réassurance.
Individuellement, c’est l’application des traités non-proportionnel (structure A) qui semble avoir
le poids le plus important dans l’augmentation du ratio de solvabilité avec une hausse de 43%.
Pour les autres structures, le traité LPT (à 30%) ainsi que le traité quote-part (à 50%) représente
respectivement 19% et 18% .
63
Figure 3.20 – Évolution du risque de contrepartie, en fonction de de la notation du réassureur
Pour un même traité qui diffère seulement par la notation du réassureur, on remarque que
pour une notation comprise entre triple A et A, la différence n’est pas significative même si
la notation AAA est bien sûr plus optimale. En allant plus loin, on peut dire que le risque de
contrepartie reste relativement marginal vis-à-vis des autres SCR pour ces notations.
En effet, par rapport à une notation triple A : On observe une augmentation de 994 %
pour une notation triple B, une augmentation de près de 4 000% pour une notation
BB, et enfin de près de 7 360% pour les notations inférieures.
Néanmoins dans la pratique, la grande majorité des réassureurs dispose d’une notation supé-
rieure à triple BBB, comme le montre le graphe ci-dessous tiré d’une étude la fédération française
des sociétés d’assurance :
C’est pourquoi dans le cadre de notre mémoire nous considérerons, le/les réassureur(s) avec
64
une notation A.
La première méthode qui a été adoptée est une approche «Gross to Net».
L’idée est de déterminer le poids de la cession en réassurance par LoB, c’est-à-dire le ratio
«sinistres cédés / sinistres bruts» à partir des données provenant d’un des candidats retenus,
puis d’appliquer ce ratio aux BE bruts pour chacune des LoB.
Néanmoins cette méthodologie présentait un défaut majeur, et loin d’être négligeable dans le
cadre de notre étude. Cette approche imposait de mettre en place une stratégie de réassurance
relativement similaire à celle mise en place dans les données observées pour rester cohérent. Par
conséquent, cette approche présentait un aspect «statique», car elle ne nous permettait pas de
tester différents montages de réassurance.
La seconde approche mise en place, va consister à déterminer le Best estimate prime, puis
d’évaluer les impacts sur les Best estimate en fonction de la stratégie mise en place. En effet, le
Best estimate, qui va figurer dans notre bilan après réassurance sous Solvabilté 2, ne sera autre
que :
Les BEréserve ayant été déterminés dans le second chapitre, il reste à déterminer les BEprimes .
Dans un premier temps, l’approche qui a été retenue a été de déterminer un proxy, avec le ratio
«BE prime / BE réserve» sur les données d’un des candidats retenus, puis ensuite de l’appliquer
à nos Best estimate réserve pour obtenir nos propres Best estimate prime.
Néanmoins, une seconde approche a été développée car il semblait plus cohérent que les BE
de primes dépendent des volumes de primes. C’est pourquoi nous avons décidé d’observer sur
nos données client le ratio «BE de primes/primes», et d’appliquer celui-ci sur notre volume de
primes pour en déterminer notre BE de primes.
65
Chapitre 4
• le «statisme» du modèle, ne nous permet pas de faire des simulations et d’obtenir des
distributions (Par exemple, celle du résultat net de réassurance) ;
C’est pourquoi, dans le cadre de l’étude il nous a été nécessaire de développer un modèle
interne-partiel.
66
Deuxième partie
La construction de la compagnie
d’assurance virtuelle en modèle
interne partiel
67
Chapitre 5
Cette partie a pour objectif de détailler les caractéristiques ainsi que les calculs de l’ensemble
des termes du modèle interne partiel. Dans le cadre du mémoire, nous allons modéliser le risque
de prime, le risque catastrophe ainsi que le risque de réserve. Puis nous appliquerons diverses
structures de réassurance afin d’observer les impacts sur les SCR.
Nous avons utilisé le logiciel Risk explorer, qui se trouve être parfaitement adapté pour la
mise en place de ce genre de modèle. En effet, Risk explorer est un logiciel de modélisation des
risques destinés au secteur de l’assurance et de la réassurance des biens/IARD . La méthode
de génération des variables aléatoires sous ce logiciel est décrite en annexe (voir annexe
F).
La sinistralité globale pour chaque ligne d’activité, va être divisée en plusieurs catégories :
68
l’estimation risque de mal capter le comportement de la queue de distribution.
Pour les lois à queue fine, la fonction M E(t) décroît, voir tend vers 0. Pour une loi à queue
épaisse, telle que la loi Pareto ou Pareto généralisée, la fonction M E est croissante. Plus la
fonction est croissante, plus la loi est à queue épaisse.
A cause de l’absence de données exploitables, le «mean excess plot» n’a pu être réalisé que
sur la LoB responsabilité civile automobile. Voici la représentation de cette fonction sur le gra-
phique ci-dessous :
Figure 5.1 – Représentation de la fonction « mean excess plot » pour la LoB responsabilité civile automobile.
Les ordonnées correspondent au niveau du seuil(en Me).
Le seuil à retenir correspond, au seuil à partir duquel la courbe ME est affine (représentée
ici par la droite bleue). Nous allons donc retenir un seuil de 1Me.
Pour les autres LoB, le choix du seuil s’est fait en observant les pratiques de marché :
69
On suppose que la sinistralité grave des différentes lignes d’activités va être modélisée par un
modèle de Poisson–Pareto, dont le calibrage des paramètres se fera à partir d’un historique
de sinistralité selon la Lob.
Notations et hypothèses :
Et S la charge totale,
N, C1 , ..., CN sont indépendantes,
Les Ci ont même loi,
N
X
S= Ci siN > 0 ou 0 sinon
i=1
λn −λ
N ∼ P(λ) ⇔ P(N = n) = ·e
n!
E(N ) = V ar(N ) = λ
n
1 X
λ̂ = . Xi
n i=1
Où,
70
Si α < 1, E(C) = ∞ , la prime est infinie et le risque est non assurable, et les données
sont peu exploitables car la loi des grands nombres et le Théorème central limite ne sont plus
valables. Cependant dans la pratique on fixe un plafond dont la méthodologie a été détaillée
précédemment.
Les xi correspondent à la suite des sinistres observés dans l’historique étant supérieurs au
seuil.
Remarque : Nous faisons l’hypothèse, qu’il n’y a pas de sinistralité grave sur la LoB autres
assurances des véhicules à moteur.
Pour cela nous avons observé le ratio «Nombre de sinistre grave / Prime» sur la compagnie
«cible», puis nous avons appliqué le ratio sur notre prime fictive.
Une observation du marché, nous permet d’affirmer que globalement le montant des sinistres
graves est indépendant de la taille du portefeuille. Il n’est donc pas nécessaire de réaliser un
ajustement sur le paramètre de coût.
71
5.3 La sinistralité attritionnnelle
On suppose que la sinistralité attritionelle pour chacune des LoB va suivre une loi log-
normale.
SoitXi ∼ LogN (µ, σ 2 ), ∀i Xi > 0
Où
σ2 2 2
E[X] = eµ+ 2 et V ar(X) = (eσ − 1).e2µ+σ
Ce choix de loi se justifie de la manière suivante : la loi Log-normale a des propriétés statis-
tiques qui correspondent bien aux données :
– Elle a une queue de distribution intermédiaire, ainsi de temps en temps un sinistre peut
s’écarter fortement de la moyenne ;
– C’est une loi présentant une asymétrie positive et prenant des valeurs positives. Ces pro-
priétés sont donc parfaitement adapter à la situation, car les coûts des sinistres prennent
des valeurs positives.
La charge des sinistres attritionels n’est pas directement calibrée de manière individuelle,
mais seulement de manière agrégée.
– La charge totale par année de survenance sur la LoB (qui correspond à l’ultime des triangles
projetés) ;
Au final on a,
Le calibrage des paramètres de la loi Log-normal va être réalisée avec la méthode des mo-
ments (démonstration en annexe G).
La loi Log-normale possédant deux paramètres, il est nécessaire d’avoir les deux premiers
moments, c’est-à-dire l’espérance et la variance.
σ2
(
E(X) = eµ+ 2
2 2
V ar(X) = (eσ − 1).e2µ+σ
Après application de la méthode, on obtient l’estimation suivante pour les deux paramètres
de la loi :
72
\ σ̂ 2
rln(E(X)) −
µ̂ =
2
V\
ar(X)
σ̂ =
ln( \ + 1)
e2ln(E(X))
Avec,
\ = 1 . Pn Xi
E(X) n i=1
ar(X) = 1 . n (Xi − E(X))
V\ \ 2
P
n i=1
Et X1 , ..., Xn un échantillon suivant une LogN (µ, σ 2 )
Ainsi, le calibrage des paramètres a été réalisé sur la sinistralité attritionelle agrégée. A par-
tir de la loi de sinistralité, on va déterminer celle du S/P car en pratique, le calibrage se fait
directement sur le Loss ratio attritionel. Pour passer des paramètres « calibrés » à partir de la
sinistralité, à ceux en se basant sur le S/P attritionel , nous avons cherché à déterminer la loi
de S/P en sachant que :
S une variable aléatoire, tel que S ∼ LogN (µ, σ 2 ).La densité d’une loi log-normale s’écrit :
1 (lnx − µ)2 1
f (x; µ, σ) = √ .exp(− 2
) = fy (ln(x); µ, σ)
xσ 2π 2σ x
(ln(x) − µ)2
Z ∞
S x 1
E( )= . √ .exp(− )dx
P 0 P xσ 2π 2σ 2
x
Changement de variable : on pose y = P ⇔ x = y · P et dx = P.dy
R ∞ yP )−µ)2
= 0 P .
1√
yP σ 2π
.exp(− (ln(yP
2σ 2
)P dy
R ∞ yP 2
= 0 P . yσ
1
√
2π
.exp(− (ln(y)−(µ−ln(P
2σ 2
)))
)dy
S
Par identification, on trouve bien que P suit aussi une loi log-normale, avec comme paramètre
S
∼ LogN (µ − ln(P ), σ 2 )
P
Néanmoins, cette méthodologie n’est cohérente que lorsque notre portefeuille est à peu près
stable d’une année de survenance à l’autre. C’est pourquoi, pour les LoB présentant une évolu-
tion conséquente de leur portefeuille, il était nécessaire d’adopter une autre méthodologie.
Exemple :
En effet, ces risques ne peuvent pas être appréhendés par une approche classique coût/fréquence,
et requièrent une table d’événements stochastiques associant une fréquence et une loi de coût
73
propres à chaque événement : ces tables d’événements (ou Event Loss Tables), concernent la
tempête Europe.
Les sorties des modèles catastrophes reposent sur la «resimulation» d’événements historiques
(par exemple Lothar et Martin) ainsi que d’événements «fictifs» générés par le logiciel sur les
expositions actuelles de notre portefeuille. Cette étape est essentielle afin de valider les sorties
du modèle.
Pour tous les périls modélisés, la table d’événements stochastiques se présente de la manière
suivante :
A noter que les montants présentés ici, sont bruts de réassurance. Chaque événement est
caractérisé par :
– Une probabilité de survenance qui est modélisée par une loi de Poisson de moyenne «fré-
quence», cette loi est donnée directement par le modèle catastrophe ;
Ainsi dans cet exemple, l’événement 2 impacte les deux entités 1 et 2 contrairement à l’évé-
nement 1 qui impacte seulement l’événement 2.
Cette garantie couvre une liste d’évènements définis par la loi. On peut citer entre autre :
les inondations, les séismes, les ouragans.
74
Néanmoins les tempêtes, ne sont pas prises en charge par la CCR.
Dans notre étude, nous avons décidé de retenir, les 3 périls suivants (en plus de tempête), à
savoir : l’inondation, les tremblements de terre et la sécheresse. En effet, nous avons décidé de
ne pas modéliser le risque grêle, celui-ci représentant un poids relativement faible par rapport
aux autres périls.
L’idée va consister ici à calibrer une loi de fréquence, plus particulièrement une loi log-
normale dans l’objectif d’aboutir à des résultats cohérents avec ce qui a été obtenu en formule
standard, à savoir :
Ces coûts peuvent être vus comme étant les événements bicentenaires (c’est-à-dire avec une
probabilité de réalisation de 0,5%).
Puis on procède à l’agrégation des 3 périls en utilisant la formule suivante, en considérant que
les périls sont indépendants entre eux :
q
Cout2inondation + Cout2tremblementdeterre + Cout2secheresse
Par hypothèse, nous considérons que les primes relatives aux CAT NAT représentent 10%
des primes totales sur la Lob incendie et autres dommages aux biens.
Comme pour le calibrage des paramètres sur la partie attritionelle, celui est réalisé sur des Loss
ratio et non pas sur un montant de sinistralité. Le quantile à 99,5% de la distribution du Loss
ratio sur la partie CAT s’écrit donc :
q
Cout2inondation + Cout2tremblementdeterre + Coutsecheresse
q99,5% =
Pcatnat
Nous considérons que le loss ratio moyen sur la sinistralité CAT, correspond au Loss ratio
moyen sur toute la LoB incendie et autre dommage aux biens
S S
cat nat moyen = LoB incendie et autre dommage aux biens moyen = 75%
P P
A partir de ces deux données :
75
Après calibrage, on observe donc les différences suivantes entre le calibrage initial en formule
standard et celui réalisé pour le modèle interne partiel :
L’écart observé sur le quantile à 99,5% de la distribution du loss ratio S/P est voulu. Il a pour
objectif de mettre avant le gain qu’apporte le développement d’un modèle interne partiel au
niveau de la connaissance de sa sinistralité.
Concernant les frais, seront considérés les frais d’acquisition, de gestion et ceux d’adminis-
tration. L’ensemble de ces frais est calé de façon déterministe, correspondant à un pourcentage
des primes. On conserve les frais de la formule standard (A savoir 25% des primes).
Une fois les paramètres de toutes les lois déterminés, il a été décidé d’effectuer 50 000 simu-
lations. Ce nombre de simulations a été retenu car il nous permet d’avoir un échantillon de
taille correcte, et donc un bon niveau de précision tout en ayant un temps «algorithmique
» raisonnable.
Finalement, notre SCR prime sous modèle interne partiel correspondra à l’opposé du quan-
tile à 0,5 % de notre échantillon des résultats techniques sur le risque de prime.
i
SCRprime = −V aR0,5% (RTi ) − E(RTi )
Comme il l’a été dit précédemment, la LoB incendie et autres dommage aux biens est
concernée par de la sinistralité CAT, à savoir : Tempête, Inondation, tremblement de terre
et sècheresse.
L’approche retenue pour déterminer le SCR CAT, est la même que celle pour le risque de
prime.
A savoir, retenir l’opposé du quantile à 0,5 % de notre échantillon des résultats techniques
sur le risque CAT et centrer.
76
Chapitre 6
Nous avons tout d’abord retenues des données de marché, tirées d’un benchmark concernant
les coefficients de variations (CoV) à retenir par LoB.
σ0
CoV =
BE
0ù,
σ 0 : correspond à l’écart-type
Les Best estimate et les coefficients de variation étant connus, on est en mesure de déterminer
les écarts-type par LoB.
Au final, on a l’espérance (⇔ le BE) et l’écart-type de notre loi log-normale.
1 V ar(X)
µ = ln(E(X)) − .ln(1d + )
2 (E(X))2
V ar(X)
σ 2 = ln(1 + )
(E(X))2
77
6.2 Détermination du SCR réserve sur la plateforme Risk Ex-
plorer
Une fois les paramètres de notre loi déterminés, nous avons décidé d’effectuer 50 000 simu-
lations.
Une fois les réalisations effectuées, on peut ensuite déterminer les boni/mali, c’est-à-dire les
plus ou moins-values par rapport à notre Best Estimate pluggé initialement sur la plateforme
(Pour rappel, il correspond à la moyenne de notre loi préalablement calibrée).
Finalement, notre SCR réserve sous modèle interne correspondra à l’opposé du quantile à
0,5 % de notre échantillon de boni/mali, soit le pire «mali» dans 99,5% des cas.
78
Chapitre 7
Au final, une fois les SCR primes obtenus pour chacune des LoB, on réalise une première
diversification entre LoB pour obtenir le SCR prime total, pour cela on utilise les matrices de
corrélation de la formule standard. (Voir annexe B)
Enfin une seconde diversification entre le SCR prime et le SCR réserve est effectuée, puis une
dernière entre le SCR obtenus précédemment et le SCR CAT. Toutes les diversifications sont
réalisées avec les matrices de corrélation de la formule standard.
79
Chapitre 8
Agrégation générale
Pour les autres SCR à savoir SCR marché, contrepartie et opérationnel, on les conserve en
formule standard. Ainsi l’agrégation générale, se fait de manière similaire à ce qui est fait en
formule standard. C’est-à-dire que la diversification est faite avec les matrices de corrélation de
la formule standard.(Voir annexe B)
80
Chapitre 9
rappel : Il n’y a pas de résultat pour la LoB dommage automobile, car on a fait précédemment
l’hypothèse qu’il n’y avait pas de sinistre grave sur cette LoB.
Les résultats concernant les SCR seront abordés plus en détail dans la seconde partie.
81
Figure 9.4 – Comparaisons SCR "prime et réserve" et SCR CAT entre formule standard et modèle interne
partiel
Sur le graphique ci-dessous, on observe que les SCR "prime et réserve" et CAT sont du même
ordre entre la formule standard et le modèle interne partiel. Le calibrage du modèle inerne partiel
a aussi été réalisé de telle manière à ce que ces deux SCR soient légèrement inférieurs à ceux
obtenus en formule standard. L’objectif étant de mettre en avant la gain qu’apporte le passage au
modèle interne partiel au niveau des exigences de solvabilité. En effet, cela traduit une meilleure
compréhension de l’entreprise de ses risques. Maintenant que le modèle est correctement calibré,
nous pouvons maintenant passer à la seconde phase qui va consister à mettre en place diverses
structures de réassurance sur le modèle.
82
Chapitre 10
Application de la réassurance au
modèle interne partiel
Figure 10.1 – Composition du SCR souscription non-vie dans la stratégie par défaut
Structure A
Description
83
– Rétention : 35 millions d’euros ;
Pour la stratégie A, on observe que l’application du traité excess of loss entraîne une réduc-
tion de 65% du risque catastrophe, et de 26% du risque de prime. Le risque de réserve n’est lui
pas affecté.
Figure 10.3 – Comparaison SCR souscription non-vie avant et après application de la stratégie de réassurance
A
84
Structure A bis
Description
Cette stratégie comporte un traité Excess of loss sur le péril tempêtes avec reconstitutions
gratuites et illimitées. A cela s’ajoute l’application du traité cat nat CCR (Quote-part à 50%
+ Stop-loss) sur les autres périls (inondations, tremblements de terre, sécheresses)
Pour la stratégie A bis, on observe que l’application du traité excess of loss entraîne une
réduction de 65% du risque Catastrophe, et de 26% du risque de prime. Le risque de réserve
n’est lui pas affecté.
Figure 10.5 – Comparaison SCR souscription non-vie avant et après application de la stratégie de réassurance
A bis
On observe donc une réduction de SCR souscription non-vie de 31%. A un million près, les
deux structures A et A bis sont équivalentes. Ce point sera développé plus en détail dans
la sous-section suivante.
Structure D
Description
85
Cette structure se compose de :
• Quote-part à 50% ;
• Traité XS cat sur le péril tempêtes avec reconstitutions gratuites et illimitées + traité cat
nat CCR (Quote-part à 50% + Stop loss) sur les autres périls (inondations, tremblements
de terre, sécheresse) ;
Pour la stratégie D, on observe que tous les sous-modules du risque non-vie se retrouvent
affectés par le programme de réassurance. Comme précédemment, le risque catastrophe subit
une réduction de 65%. Sans surprise, le risque de réserve diminue de 30%, quant au risque de
prime il est réduit de 55%.
Figure 10.7 – Comparaison SCR souscription non-vie avant et après application de la stratégie de réassurance
D
86
Structure E
Description
Application d’une quote-part à 50%, puis sur la charge nette du quote-part, application d’un
traité XS par risque sur les LoB « responsabilité civile automobile» et « responsabilité civile
générale » ;
Pour la stratégie E, on observe que l’application du traité excess of loss entraîne une réduction
de 65% du risque Catastrophe, et de 26% du risque de prime. Le risque de réserve
n’est pas affecté.
Figure 10.9 – Comparaison SCR souscription non-vie avant et après application de la stratégie de réassurance
E
Structure E bis
Description
87
Cette structure est identique à la structure E. La seule différence réside dans la méthodologie
d’application du traité XS, sur la charge nette de quote-part. Dans la structure E bis, la rétention
et la capacité initiale du traité restent inchangées, tandis que dans la E, elles sont multipliées
par (1 − taux de cession) ;
Pour la stratégie E bis, qui a été décrite précisément dans la partie précédente, on observe
que l’application du traité excess of loss entraine une réduction de 26% du risque de prime. Le
risque de réserve et le risque catastrophe ne sont pas affectés.
Figure 10.11 – Comparaison SCR souscription non-vie avant et après application de la stratégie de réassurance
E bis
Ainsi au vu des résultats obtenus, on peut conclure que les deux structures de réassurance
E et E bis sont équivalentes en termes de SCR (en arrondissant les résultats au million près).
En annexe H se trouve une analyse détaillée de la comparaison de ces deux structures, avec
une tierce dans laquelle est appliquée d’abord le traité XS, puis un traité en quote-part sur la
charge nette.
Structure G
Description
88
• Application du programme CCR (Quote-part 50% + Stop-Loss) ;
• Traité XS sur le risque CAT (identique à celui appliqué dans la structure A/A bis) ;
• Traité XS sur la LoB RCG ;
• Traité XS sur la LoB RC Auto ;
• Au final, un traité Stop-Loss s’applique aux charges nettes des XS cat, XS RCG, XS RCA
et prenant aussi en considération la sinistralité attritionnelle.
Pour la stratégie G, qui a été décrite précisément dans la partie précédente, on observe les
résultats suivants : Le risque catastrophe subit une réduction de 67%, quant au risque de prime
il est réduit de 55%. Le risque de réserve n’est lui pas affecté.
Figure 10.13 – Comparaison SCR souscription non-vie avant et après application de la stratégie de réassurance
G
89
Dans le cadre de notre mémoire, on observe que les deux structures sont équivalentes.
En effet, pour la quasi-totalité des réalisations, les sinistres cédés sont les mêmes d’une struc-
ture à l’autre et sont inférieurs à la capacité du traité (665 Me ). Néanmoins le fait d’avoir des
sinistres cédés inférieurs à la capacité ne signifie pas nécessairement qu’il n’y a pas de reconsti-
tutions. On peut juste ici conclure que les reconstitutions ne sont pas significatives.
Par exemple, considérons un traité en excédent de sinistres 40Me XS 10e. Il y’a un sinistre
de valeur 30 Me :
20
On devra payer une reconstitution à hauteur de 40 , et ce même si le sinistre ne dépasse pas
la capacité.
90
Troisième partie
L’optimisation de réassurance
91
Chapitre 11
La capacité du risque
La capacité du risque, correspond « à une évaluation par le Management du coût du
risque maximum que l’institution financière peut assumer, tenant compte de sa liquidité, de ses
engagements et de son business plan. » 1
L’appétence au risque
L’appétence au risque correspond au niveau global de risque qu’une entité est prête à
prendre, dans la réalisation de ses objectifs (rentabilité, croissance, réassurance) à l’horizon de
son business plan.
Les limites
Les limites sont « des mesures quantitatives basées sur des hypothèses de calcul et qui
matérialisent la déclinaison de l’appétence au risque par catégorie de risques sur les lignes de
services ou tout autre niveau de déclinaison jugé pertinent ».1
92
Risquophile
Profil d’un individu ou d’une entité, qui contrairement au profil précédent aura tendance à
accepter davantage de risque.
11.1.2 Illustration
Le graphe ci-dessous représente les différentes situations dans lesquelles peut se trouver une
compagnie vis-à-vis de son cadre d’appétence au risque.
Dans la première situation, l’exposition au risque est inférieure à la limite minimale, des
actions correctives sont à prévoir.
Dans la seconde situation, correspond au cas optimal : l’exposition au risque, est bien com-
prise entre les seuils, c’est une situation à maintenir.
Dans le troisième cas, comme dans le premier, il nécessaire de lancer des opérations correc-
tives même si la situation n’est pas encore critique.
Enfin dans la dernière situation, l’exposition au risque est supérieure à la capacité du risque.
La situation n’est pas viable, et il est urgent d’acter un plan de redressement.
• Un premier profil, qui sera caractérisé par une aversion aux risques importante.
Par conséquent, elle voudra limiter son exposition aux risques, et aura tendance à recourir
davantage à la réassurance.
• Un second profil, qu’on pourra qualifier de « risquophile », qui sera donc plus enclin
à prendre du risque et à subir des pertes importantes.
Chacun des deux profils, possédera un certain nombre de caractéristiques qui représente-
ront son appétence au risque, et donc permettront de définir des contraintes sur l’optimi-
sation.
93
11.2 Les contraintes d’optimisation
Les caractéristiques que nous avons retenues pour définir les contraintes que devra respecter
le programme d’optimisation seront les suivantes :
• D’une part, déterminer un seuil de résultat moyen net de réassurance sous lequel
l’assureur ne souhaite pas passer, pour chacune des LoB. Ce critère a été retenu car
comme toute entreprise, une compagnie d’assurance a pour objectif de maximiser sa renta-
bilité, c’est-à-dire d’être en mesure de faire le meilleur résultat possible. Pour rappel, le
résultat technique correspond aux primes auxquelles on soustrait les sinistres et les frais ;
A noter, que ce ne sont pas des contraintes « d’égalité » mais des contraintes « d’inégalité
». C’est-à-dire que l’assureur acceptera toujours une structure de réassurance permettant d’at-
teindre un quantile à 99,5% de la distribution de la charge nette inférieur au seuil définit, à
condition que le résultat net soit supérieur (ou égal) au seuil associé.
Remarque importante :
On peut constater que le résultat technique de notre compagnie d’assurance virtuelle est
négatif, sur la partie « catastrophe » de la ligne d’activité « Incendie et autre dommages aux
biens » et sur la ligne d’activité « dommage automobile », ce qui s’explique par le fait que les
primes ne sont pas suffisantes pour faire face aux sinistres catastrophes, qui sont très importants.
Dans la réalité, c’est un fait que les compagnies d’assurance font généralement peu de résultat au
niveau de la souscription. C’est pourquoi, il n’est pas alarmant d’observer des résultats négatifs
dans le cadre du mémoire.
Néanmoins, observer exclusivement le gain en SCR, n’est pas très pertinent dans le cadre de
l’étude. En effet, il est facile de trouver des structures offrant un gain en SCR très conséquent
94
mais en contrepartie le résultat que l’assureur devra céder au réassureur sera beaucoup trop
important. On peut par exemple penser au cas extrême, où l’assureur cède l’intégralité de ses
expositions.
C’est pourquoi, il est plus intéressant d’analyser plus précisément la « rentabilité » des
structures de réassurance, en prenant pour indicateur le ratio suivant : gain en SCR/résultat
cédé moyen. Ce ratio peut donc se traduire de la manière suivante : Si le ratio vaut x, cela signifie
que pour 1 euro de résultat cédé moyen au réassureur, cela apporte un gain en SCR de x euros
à l’assureur.
Ce ratio correspond donc à la fonction « objectif » de notre programme d’optimisation.
Ainsi l’objectif est de trouver le meilleur ratio de telle manière à ce que le résultat technique
net moyen et le quantile à 99,5% de la charge nette ne dépassent pas leurs seuils respectifs.
Comme il l’a été dit en seconde partie, nous avons posé l’hypothèse que l’impact du SCR sur
le risque de contrepartie, pouvait être vu comme étant équivalent à la baisse subie par le risque
de marché. Par conséquent, pour notre étude, l’optimisation du gain de SCR total est
équivalent à optimiser le gain de SCR, exclusivement pour le risque souscription
non-vie. De plus, centrer l’étude sur le SCR souscription non-vie plutôt que sur le SCR total,
est une bonne approximation car elle permet d’évaluer de manière plus juste l’impact de la
réassurance. En effet, après la phase d’agrégation des différents SCR, les effets de la réassurance
se retrouvent "dilués". C’est pourquoi, on se concentrera exclusivement sur ce SCR.
95
Chapitre 12
La méthode d’optimisation
Néanmoins, nous nous sommes rapidement rendus compte qu’aucune de ces méthodes d’op-
timisation usuelles ne pouvait s’appliquer correctement dans le cadre de notre mémoire.
En effet la fonction « objectif », qui pour rappel est le ratio « Gain en SCR/Résultat cédé
moyen », ne peut en aucun cas s’écrire comme une fonction analytique simple sur laquelle on
pourrait appliquer une méthode d’optimisation. En effet, la détermination du gain en SCR est
un calcul suffisamment complexe pour ne pas pouvoir être résumé en une simple fonction, et
de même concernant le résultat net. L’absence du caractère analytique de la fonction «
objectif » était suffisante pour ne pas être en mesure d’appliquer correctement une méthode
d’optimisation usuelle.
En plus de cela, ce ratio ne possède pas les propriétés mathématiques usuelles,qui certes ne sont
pas forcément nécessaire selon la méthode mais qui peuvent s’avérer être utiles. En particulier,
il n’est pas différentiable ni concave. C’est pourquoi, nous allons générer stochastiquement
des distributions empiriques (modèle DFA), via le logiciel Risk Explorer.
Nous allons procéder en plusieurs étapes afin de trouver une structure optimale pour la com-
pagnie d’assurance que nous avons modélisée.
• Mise en oeuvre d’une méthode de tarification par simulation sur les traités de réassurance
non-proportionnelle ;
• Détermination des niveaux de rétention et de capacité à tester, ainsi que le pas de test à
partir de l’étude menée au point précédent ;
96
• Détermination d’une liste de traités respectant les critères de décisions (quantile à 99,5%
de la charge nette, résultat net moyen) et pouvant être des solutions potentielles au pro-
gramme de réassurance ;
• Analyse détaillée de ces traités pour déterminer celui (ou ceux) maximisant la fonction
objectif.
De plus cette méthodologie avait davantage de sens dans le cadre du mémoire, due fait que
la contrainte relative au quantile à 99,5% ainsi que celle sur le résultat net porte toujours sur
une LoB en particulier.
Pour justifier cette démarche, la méthodologie mise en place consiste à observer la stabilité
des différents indicateurs que l’on utilise, afin d’en déduire à partir de combien de simulations
on obtient un résultat stable.
Dans un premier temps, nous allons observer le comportement des estimateurs utilisés pour
effectuer la tarification des traités non-proportionnels, à savoir la moyenne et la variance empi-
riques des charges cédées.
97
Les graphiques ci-dessous représentent les comportements des différents estimateurs en fonc-
tion du nombre de simulations réalisées :
Figure 12.1 – Ce graphique représente l’évolution de la moyenne empirique des charges cédées en fonction de
la taille de l’échantillon observé. Le traité non-proportionnel observé est un 35 Me XS 665 Me.
Figure 12.2 – Ce graphique représente l’évolution de l’écart-type empirique des charges cédées en fonction de
la taille de l’échantillon observé. Le traité non-proportionnel observé est un 35 Me XS 665 Me.
On remarque qu’ici c’est à partir de 25 000 simulations, que l’estimateur devient plus stable.
Enfin, nous allons observer un dernier indicateur qui est le résultat cédé moyen :
Figure 12.3 – Ce graphique représente l’évolution du résultat cédé moyen en fonction de la taille de l’échantillon
observé. Le traité non-proportionnel observé est un 35 Me XS 665 e.
98
Ainsi de ces observations, on peut conclure que l’on peut réduire le nombre de simulations à
effectuer à 25 000, tout en gardant un bon niveau de précision.
• La "probabilité d’attachement"
• La "probabilité d’épuisement"
Avec la nouvelle réglementation, l’intérêt se porte essentiellement sur les queues de distri-
bution. Ces indicateurs vont donc aussi permettre de regarder l’impact de la réassurance
quand on a une période de retour faible (c’est à dire lorsqu’on a des évènements plus
réguliers).
Figure 12.4 – Evolution de la probabilité d’attachement, en fonction de la rétention (avec capacité fixe)
Ainsi, on observe que la probabilité d’attachement tend rapidement vers 0, avec l’augmen-
tation de la rétention.
Le graphique ci-dessous représente quant à lui la stabilité de cet indicateur suivant le nombre
de simulations réalisée :
99
Figure 12.5 – Evolution de la probabilité de rattachement en fonction de la taille de l’échantillon observé pour
un traité non-proportionnel observé est un 665 Me XS 35 Me.
Figure 12.6 – Evolution de la probabilité d’épuisement, en fonction de la capacité (avec rétention fixe)
100
On observe le même phénomène que pour la probabilité d’attachement, à savoir que la pro-
babilité va tendre rapidement vers 0 avec l’augmentation de la capacité du traité.
Le graphique ci-dessous représente quant à lui la stabilité de cet indicateur suivant le nombre
de simulations réalisées :
On constate, sans surprise qu’il reste très proche de 0 et devient plus stable à partir de 25
000 simulations, correspondant au nombre de simulations effectuées.
101
Chapitre 13
Application à la structure D
A noter que la structure D est aussi caractérisée par l’application de la garantie CAT NAT
CCR, qui a été décrite dans le chapitre précédent et qui s’applique aussi sur le risque catas-
trophe, mais sur les autres périls que tempête,grêle et neige. On peut aisément faire l’hypothèse
que les paramètres de cette garantie sont stables, et donc la mettre de côté pour l’optimisation.
Afin de déterminer les couples (rétention, capacité) à tester, nous procédons au préalable à
une observation de la distribution des évènements tempête, représentés ci-dessous :
102
On peut remarquer sur le graphique ci-dessus que 40% des évènements sont inférieurs à 100
K e, et que près de 72% des évènements sont inférieurs à 1 million d’euros. Cela s’explique par le
fait que les évènements tempêtes génèrent un nombre conséquent de sinistres avec des montants
modérés.
Néanmoins l’objectif des traités non proportionnels étant de gérer les sinistres à caractère
exceptionnel nous allons seulement observer les traités dont la rétention dépasse 5 millions d’eu-
ros. Ce qui comprend environ 5% des évènements. De plus, il n’est pas aisé de trouver sur le
marché des traités ayant une rétention en dessous de ce niveau.
Sur le second graphique ci-dessous, nous pouvons observer avec davantage de précision la
répartition des sinistres au-delà de 2 millions d’euros.
La Tail Value at Risk est une mesure de risque cohérente 1 . La mesure de risque exige
que l’on s’intéresse à la distribution de probabilités des queues de la distribution. La VaR ne
permet pas de traiter cette problématique car elle définit un seuil. De plus elle ne dit rien sur
l’importance de la perte quand elle se produit, ni d’ailleurs sur la distribution des pertes au-delà
de la VaR.
Ici, X est la variable aléatoire correspondant au montant des sinistres individuels. Autrement
dit, la T V aR est la moyenne des VaR de niveau supérieur à α.
On définit aussi, l’expected shortfall, au niveau de probabilité α, notée ES(X, α) :
103
Démonstration :
Z +∞
ES(X, α) = E((X − V aR(X, α))+ ) = (x − V aR(X, α))+ · f (x)dx
−∞
1 1 1 Z
V aR(X, α) + ES(X, α) = V aR(X, t)dt = T V aR(X, α)
1−α 1−α α
Dans le cadre du mémoire, nous allons utiliser cette relation pour déterminer différents
niveaux de T V aR. L’expected shortfall, sera estimée par détermination de la moyenne empirique
sur nos simulations. Nous avons préalablement observé la stabilité de cet estimateur afin de
déterminer le nombre de simulations nécessaires.
104
Figure 13.4 – Stabilité de l’estimateur de la moyenne empirique de l’Expected Shortfall en fonction du nombre
de sinistres simulés.
Remarque importante :
Ce graphique a été construit à partir d’une observation constituée de 25 000 simulations
globales. En effet, une seule simulation peut contenir plusieurs sinistres.
On remarque qu’à partir de 100 000 sinistres simulés, l’estimateur est d’avantage stable.
Comme précédemment, on pourra donc garder un nombre de simulations globales égal à 25 000
sans perte de précision.
On obtient alors les résultats suivants :
Nous décidons de comparer les traités dont la rétention varie de 5 millions à 105 millions
d’euros et la capacité de 100 millions à 650 millions d’euros. Ces deux paramètres combi-
nés, nous permettent d’atteindre un plafond maximal de 755 millions d’euros.
Dans un premier temps nous testerons l’ensemble des couples rétention/capacité avec un pas
de 10 millions d’euros pour la rétention et de 50 millions d’euros pour la capacité.
Une première analyse est effectuée en observant l’évolution du quantile à 99,5% de la dis-
tribution de la charge nette et du ratio gain en SCR sur résultat cédé moyen, pour une seule
rétention et en faisant varier le niveau de la capacité.
105
Figure 13.6 – Évolution du ratio "gain en SCR sur résultat cédé moyen" avec application d’un traité XS de
rétention 35 Me et capacité variable
De la même manière, nous obtenons les résultats suivants pour des traités non-proportionnels
de rétention 15 millions d’euros :
Figure 13.7 – Évolution du ratio "gain en SCR sur résultat cédé moyen" avec application d’un traité XS de
rétention 15 Me et capacité variable
Nous remarquons que pour une rétention donnée, plus la capacité augmente, plus le traité
semble efficace en terme de quantile, puisqu’on observe une réduction du quantile à 99,5% de la
distribution de la charge nette. Néanmoins, à partir d’un certain seuil, il n’est plus intéressant
d’augmenter la capacité en termes de réduction du quantile. En effet, on peut observer sur les
deux graphiques que les derniers points sont à peu près au même niveau d’abscisse. Cela se
traduit par le fait qu’à partir d’un certain montant l’augmentation de la capacité n’implique
pas forcément une cession de sinistre plus importante. Ce seuil est atteint lorsque le plafond du
traité dépasse la valeur potentielle maximale d’un évènement tempête.
Concernant le ratio « gain en SCR/résultat cédé moyen », globalement celui-ci va avoir ten-
dance à augmenter avec la capacité. Par contre, comme pour le quantile, à partir d’un certain
106
seuil il n’est plus optimal d’augmenter la capacité du traité. Il semblerait qu’à partir d’un seuil
la hausse tarifaire liée à l’agrandissement de la capacité n’apporte pas ou peu de gain en SCR
supplémentaire. Sur le premier graphe, on peut remarquer un "creux important", tradui-
sant une chute du ratio. Cette baisse peut s’expliquer que le passage d’un niveau de capacité
à l’autre à entraîner un gain en SCR relativement faible par rapport au coût nécessaire pour
l’acquisition du traité.
Même si d’un niveau de rétention à l’autre, l’aspect du graphe peut changer on retrouve néan-
moins les caractéristiques décrites précédemment.
A ce stade, nous pouvons donc conclure qu’il existe sûrement un niveau optimal de ca-
pacité pour chaque niveau de rétention.
Les résultats globaux obtenus pour tous les traités testés sont les suivants :
Figure 13.8 – représentation des couples testés sur un graphique "Résultat net moyen/quantile à 99,5% de la
charge nette
Les deux lignes bleues représentent, la contrainte sur le quantile à 99,5% de la distribution de
la charge nette et celle portant sur le résultat net moyen. Par conséquent, la partie rectangulaire
supérieure gauche du graphique, représente les couples (rétention, capacité) qui peuvent être
potentiellement solution du programme d’optimisation.
107
Figure 13.9 – zoom sur la zone des solutions potentielles
On obtient donc une liste de structures décrites ci-dessous, qu’il faudra analyser plus en
détail afin de déterminer la ou les solution(s).
De même pour le second profil de risque, qui est cette fois averse au risque, on obtient les
résultats suivants :
Figure 13.11 – Représentation des couples testés sur un graphique "Résultat net moyen/quantile à 99,5% de la
charge nette
108
On remarque, bien entendu que le graphe est identique au précèdent. La seule différence fon-
damentale réside dans le déplacement des segments bleus, illustrant la variation des contraintes,
d’un profil de risque à l’autre. Cela entraîne par conséquent une modification de l’aire de la zone
des solutions potentielles.
On observe une liste de solutions potentielles plus importante pour le premier profil, tradui-
sant bien sa volonté à prendre du risque.
Pour chaque couple appartenant aux listes décrites précédemment, nous allons observer la
valeur du ratio « Gain en SCR/Résultat cédé moyen », sur le graphe ci-dessous.
La ou les solution(s) optimale(s) correspondront à celles donnant le ratio le plus élevé. Pour
le premier profil de risque, risquophile :
Figure 13.13 – Représentation des solutions potentielles sur un graphique "Ratio gain en SCR sur résultat cédé
moyen/Quantile 99,5%"
Ainsi, ici la solution optimale, est le couple (rétention, capacité) N possédant les caractéris-
tiques suivantes :
109
Figure 13.16 – représentation des solutions potentielles sur un graphique "Ratio gain en SCR sur résultat cédé
moyen/Quantile 99,5%"
Ainsi, ici la solution optimale, est le couple (rétention, capacité) possédant les caractéristiques
suivantes :
Dans la continuité de l’analyse du traité optimal, nous affinons les résultats en prenant un
pas plus petit pour tester les différents couples (capacité, rétention). Nous passons à un pas
de 5 millions d’euros pour la rétention et de 25 millions d’euros pour la capacité. Nous testons
alors d’autres traités dont les paramètres seront probablement plus optimaux que ceux de l’étape
précédente.
Nous soutirons ainsi les résultats suivants :
Figure 13.19 – Représentation des couples testés sur un graphique "Résultat net moyen/quantile à 99,5% de la
charge nette
110
En faisant un zoom sur la zone des solutions potentielles, on obtient le résultat suivant :
Comme précédemment, on obtient donc une liste de structures décrites ci-dessous, qu’il
faudra analyser plus en détail afin de déterminer la ou les solution(s).
Puis en représentant les couples sur un graphe « ratio gain en SCR sur résultat cédé moyen
/ quantile à 99,5% de la charge nette », on obtient donc les résultats suivants :
Figure 13.22 – Représentation des solutions potentielles sur un graphique "Ratio gain en SCR sur résultat cédé
moyen/Quantile 99,5%"
111
Figure 13.23 – Caractéristique de la solution
On observe donc que même en prenant un pas plus fin, on trouve la même solution opti-
male pour ce profil de risque que celle trouvée précédemment.
Pour le second profil, averse au risque, les résultats obtenus sont les suivants :
Figure 13.24 – représentation des couples testés sur un graphique "Résultat net moyen/quantile à 99,5% de la
charge nette
En faisant un zoom sur la zone des solutions potentielles, on obtient le résultat suivant :
Comme précédemment, on obtient donc une liste de structures décrites ci-dessous, qu’il fau-
dra analyser plus en détail afin de déterminer la ou les solution(s).
112
Figure 13.26 – Liste des solutions potentielles
Enfin en représentant les couples sur un graphe « ratio gain en SCR sur résultat cédé moyen
/ quantile à 99,5% de la charge nette », on obtient donc les résultats suivants :
Figure 13.27 – Représentation des solutions potentielles sur un graphique "Ratio gain en SCR sur résultat cédé
moyen/Quantile 99,5%"
On en déduit du graphique, que le couple (rétention, capacité) donnant le plus haut niveau
de ratio est le couple S, qui possède les caractéristiques suivantes :
Contrairement au profil précédent, appliquer un pas plus fin permet ici d’obtenir une solution
plus précise pour le profil de risque « averse au risque » par rapport à celle obtenus précédem-
ment.
113
Pour les deux profils de risque, les deux indicateurs de réassurance, à savoir la probabilité
d’attachement et d’épuisement sont très faibles (inférieures à 1%).
Le Loss portfolio transfer (LPT), s’applique sur le risque de réserve. Il était donc compliqué
de le prendre en compte simultanément avec les autres type traités dans le cadre de l’optimisa-
tion, c’est pourquoi il a été laissé de côté.
Prenons par exemple, le cas de la ligne d’activité "Autres assurances des véhicules à mo-
teurs", où il y’a exclusivement un traité en quote-part appliqué.
Pour rappel, sur le premier profil de risque (averse au risque), l’objectif de quantile est de
200 Me. Sachant que la valeur du quantile initial dans la stratégie par défaut, c’est-à-dire sans
réassurance, est de 472 Me, la valeur optimale du paramètre sera donc de :
200
P art de sinistre cédé = (1 − ) ≈ 57%
472
En effet, l’application d’un traité quote-part permet de réduire de manière proportionnelle
le quantile à 99,5%.
Pour le second profil « risquophile », l’objectif de quantile était de 300 Me, par conséquent
la valeur optimale du paramètre est de :
300
P art de sinistre cédée = (1 − ) ≈ 36%
472
Pour les autres branches, on obtient les résultats suivants :
114
13.3 Impact global
Comme il l’a été expliqué précédemment, nous avons procédé à une optimisation LoB par
LoB. Par conséquent jusque-là nous avons donc observé exclusivement des ratios « gain en SCR
sur résultat cédé » par LoB. Nous allons donc combiner les résultantes de toutes les optimisations
LoB par LoB, pour pouvoir observer le ratio qui est solution de l’optimisation toute LoB
confondus. On obtient les résultats suivants :
Figure 13.31 – valeur des ratios gain en SCR sur résultat cédé moyen obtenu pour la structure D pour chacun
des profils
On observe que le ratio est supérieur pour le profil risquophile, justifiant bien sa prise de
risque. On remarque aussi que la relation qui lie les "optimums locaux" ( c’est à dire les ratios
optimaux obtenus LoB par LoB) à l’optimum global obtenus ici, est complexe. En aucun cas,
l’optimum global est la somme des optimums locaux.
115
Chapitre 14
Jusque là, l’optimisation a été effectuée sur une structure de réassurance simple. Pour aller
plus loin nous allons considérer une structure plus approfondie et diversifiée.
Cette nouvelle structure possède les mêmes caractéristiques que la structure observée
précédemment. Cependant, nous allons la complexifier en ajoutant de nouveaux traités.
Pour rappel on va retrouver, un traité en excédent de sinistres sur le risque tempête, la garantie
CAT NAT CCR sur les autres périls, ainsi que des traité en quote-part sur les risques de prime
des différentes LoB. Par conséquent, on retrouvera à l’identique tous les résultats concernant
le traité en excédent de sinistres sur le risque tempête. De plus par soucis de simplicité, nous
conserverons les niveaux de cession des traités en quote-part s’appliquant sur les risques
de prime des différentes LoB, qui ont été définis dans le chapitre précédent.
L’attention va donc se concentrer sur les nouveautés que cette structure introduit. Plus
particulièrement l’application de traités en excédent de sinistres sur les risques de prime des
LoB responsabilité civile automobile et générale. Dans un second temps, ces deux traités
seront ensuite suivi d’un traité en quote-part sur la charge nette restante.
116
Figure 14.1 – Distribution des sinistres individuels de la LoB responsabilité civile générale
Figure 14.2 – statistiques sur les sinistres individuels de la LoB responsabilité civile générale (en euros)
Figure 14.3 – TVaR pour les sinistres individuels de la LoB responsabilité civile générale
On remarque sur le graphique ci-dessus que 82% des sinistres sont inférieurs à 2 Me. L’ob-
jectif des traités en excédent de sinistres étant de couvrir les sinistres à caractère exceptionnel
nous allons seulement observer les traités dont la rétention dépasse 2 Me. Ce qui comprend
entre 10% et 15% des sinistres.
Sur le second graphique ci-dessous, nous pouvons observer avec davantage de précision la
répartition des sinistres au-delà de 5 Me.
117
Figure 14.4 – Zoom sur la queue de distribution
La queue de distribution est relativement fine, seulement 0,5% des sinistres sont supérieurs
à 10 Me.
Nous décidons alors de comparer des traités dont la rétention varie entre 2 Me et 5 Me
et la capacité de 1 Me à 10 e. Ces deux paramètres nous permettent d’atteindre un plafond
maximal de 15 Me pour prendre en compte le montant maximal de sinistre.
Notons avant d’analyser les différents résultats obtenus que les tests sur la rétention et la
capacité sont effectués avec des traités en excédents de sinistres contenant un nombre illimité
de reconstitutions gratuites.
Dans un premier temps, nous allons tester l’ensemble des combinaisons (rétention, capacité)
avec un pas de 1 Me pour la rétention et la capacité.
Néanmoins, après plusieurs séries de tests de couples (rétention, capacité), nous nous sommes
rapidement rendu compte que l’application d’un traité en excédent de sinistre sur la LoB respon-
sabilité civile générale n’était pas vraiment rentable en terme de gain en SCR. En effet, on observe
un gain en SCR négligeable, voir même négatif dans certain cas, correspondant à une hausse des
besoins en solvabilité. Ce phénomène s’explique par la fréquence très faible des sinistres graves
en responsabilité civile générale. On rappelle, que lors de la phase de calibrage, nous avons re-
tenu un paramètre égal à 1, pour la loi de fréquence. Par conséquent, il y’a un grand nombre
de simulations où le traité n’est pas exercé mais où on paye une prime conséquente. C’est pour-
quoi, au final sur l’intégralité des simulations, on peut en conclure que la tarification du traité
à un impact trop négatif sur le résultat technique de la Lob, et donc sur le gain potentiel en SCR.
Illustrons les propos, avec un exemple sur le couple (rétention, capacité) suivant : (2Me,1Me)
On obtient au final un gain en SCR négatif, correspondant donc à une perte de 178
466e.
Ce traité n’étant pas rentable sur les indicateurs observés, nous décidons de ne pas poursuivre
la démarche d’optimisation et donc de ne pas faire de réassurance.
118
Figure 14.5 – Distribution des sinistres individuels de la LoB responsabilité civile automobile
Figure 14.6 – Statistiques sur les sinistres individuels de la LoB responsabilité civile automobile (en euros)
On remarque sur le graphique ci-dessus que 77% des sinistres sont inférieurs à 3 Me. L’ob-
jectif des traités excess of loss étant de couvrir les sinistres à caractère exceptionnels nous allons
seulement observer les traités dont la rétention dépasse 5 Me, ce qui représente environ 10%
des sinistres.
Sur le second graphique, nous pouvons observer avec davantage de précision la répartition
des sinistres au-delà de 5 Me :
119
Figure 14.8 – Zoom sur la queue de distribution
Nous décidons alors de comparer des traités dont la rétention varie entre 5Me et 10
Me et pour la capacité de 1 Me à 15 Me. Ces deux paramètres combinés, permettent ainsi
d’atteindre un plafond maximal de 25 Me afin de prendre en compte le montant maximal de
sinistres.
Notons avant d’analyser les différents résultats obtenus que les tests sur la rétention et la
capacité sont effectués avec des traités en excédents de sinistres contenant un nombre illimité
de reconstitutions gratuites.
La méthodologie va consister ici, à observer tout d’abord les traité en excédent de sinistre
sans application de traités en quote-part sur la charge nette, puis dans un second temps d’ap-
pliquer des traités en quote-part avec différents niveaux de cession sur la charge nette du traité
en excédent de sinistre.
Nous allons tester l’ensemble des combinaisons (rétention, capacité) avec un pas de 1Me
pour la rétention et la capacité.
Les résultats globaux obtenus pour tous les traités testés sont les suivant : pour le premier
profil de risque, qui est risquophile :
Figure 14.9 – Représentation des couples testés sur un graphique "Résultat net moyen/quantile à 99,5% de la
charge nette
Note importante : Le quantile à 99,5% est celui de la charge nette globale de la sinistralité
grave en responsabilité civile automobile, et non pas celui de la charge individuelle.
Le second graphique ci-dessous est un zoom de la zone contenant la(les) solution(s) poten-
tielle(s), correspondant à la partie rectangulaire supérieure gauche du premier graphique :
120
Figure 14.10 – Zoom sur la zone contenant les solutions potentielles
On obtient donc une liste de structures décrites ci-dessous, qu’il faudra analyser plus en
détail afin de déterminer la ou les solution(s).
Enfin en représentant les couples sur un graphe « ratio gain en SCR sur résultat cédé moyen
/ quantile à 99,5% de la charge nette », on obtient les résultats suivants :
Figure 14.12 – Représentation des solutions potentielles sur un graphique "Ratio gain en SCR sur résultat cédé
moyen/Quantile 99,5%"
On en déduit du graphique, que le couple (rétention, capacité) donnant le plus haut niveau
de ratio est le couple F, qui possède les caractéristiques suivantes :
121
Figure 14.13 – caractéristiques de la solution
A partir de l’observation de la figure 14.9, on peut tirer les conclusions suivantes : D’une
part, le quantile à 99,5% de la charge nette décroît avec l’augmentation de la capacité pour tout
niveau de rétention. A partir d’un certain seuil cette réduction de quantile se fait plus discrète.
On remarque aussi que le niveau de quantile à 99,5% minimal que l’on peut espérer atteindre
est fortement lié au niveau de rétention. Ainsi plus le niveau de rétention est faible plus le quan-
tile à 99,5% minimal sera petit. Cette remarque est aussi valable pour le résultat net moyen.
On observe ainsi que les niveaux de rétention testés sont trop faibles pour atteindre l’objectif
de quantile à 99,5% fixé pour le profil « averse au risque », qui est de 45 Me. Il a donc été de
décidé de tester des niveaux de rétentions plus faible : 3 Me et 4 Me.
A même niveau de capacité, le ratio « gain en SCR sur résultat cédé moyen » augmente
avec le niveau de rétention jusqu’à un certain seuil, valant 9 Me. En effet, au-delà de ce seuil
ce résultat n’est plus valables, et on observe une chute du ratio, en passant d’une rétention de
9 Me à 10 Me.
Nous allons maintenant représenter les simulations des charges brutes et nettes de réassurance
effectuées sous Risk Explorer.
Figure 14.15 – Représentation des simulations sous Risk Explorer de la "charge brute de réassurance/charge
nette de réassurance" pour le traité optimal du profil risquophile
On constate qu’avec nos simulations sous Risk Explorer, on retrouve bien le comportement de
fonctionnement d’un traité en excédent de sinistres. On peut découper le graphique en 3 zones,
séparée par 2 segments correspondant respectivement à la rétention et au plafond du traité.
A la gauche du premier segment bleue, les points ont un comportement linéaire, traduisant le
fait que la charge brute et la charge nette de réassurance se confondent, le traité n’étant pas
encore appliqué.
La seconde zone, est la zone d’application du traité caractérisée par un "plateau" traduisant une
stagnation de la charge nette de réassurance : Tout ce qui dépasse la rétention est pris en charge
par le réassureur.
122
Enfin dans la dernière zone, le traité n’est plus opérationnel, on retrouve donc le comportement
linéaire initial entre la charge brute et nette de réassurance.
On remarque que la majorité des simulations se trouvent en première zone. Enfin, on constate
un nombre conséquent de simulations en dernière zone qui contraste avec le faible nombre de
simulations en seconde zone où le traité est appliqué. Cette répartition des simulations traduit
donc bien l’appétence au risque de la compagnie.
Après avoir testé les nouvelles rétentions, on obtient les résultats suivants pour le profil «
averse au risque » :
Figure 14.16 – Représentation des couples testés sur un graphique "Résultat net moyen/quantile à 99,5% de la
charge nette
Le second graphique ci-dessous est un zoom de la zone contenant la(les) solution(s) poten-
tielle(s), correspondant à la partie rectangulaire supérieure gauche du premier graphique
On obtient donc une liste de structures décrites ci-dessous, qu’il faudra analyser plus en
détail afin de déterminer la ou les solutions.
123
Figure 14.18 – Liste des solutions potentielles
Enfin en représentant les couples sur un graphe « ratio gain en SCR sur résultat cédé moyen
/ quantile à 99,5% de la charge nette », on obtient les résultats suivants :
Figure 14.19 – Représentation des solutions potentielles sur un graphique "Ratio gain en SCR sur résultat cédé
moyen/Quantile 99,5%"
On en déduit du graphique, que le couple (rétention, capacité) donnant le plus haut niveau
de ratio est le couple J, qui possède les caractéristiques suivantes :
Nous allons maintenant représenter les simulations des charges brutes et nettes de réassurance
effectuées sous Risk Explorer.
124
Figure 14.22 – Représentation des simulations sous Risk Explorer de la "charge brute de réassurance/charge
nette de réassurance" pour le traité optimal du profil averse au risque
On observe le même comportement des traités en excédent des sinistre qui a a été décrit
précédemment.
On remarque qu’une majorité des simulations se trouvent dans les deux premières zones,
et très peu dans la dernière zone où le plafond du traité est dépassé. Cette répartition des
simulations traduit donc bien l’appétence au risque de la compagnie, qui souhaite dans ce cas
limiter son exposition au risque.
Concernant les indicateurs de réassurance définis précédemment, on observe les résultats
suivants pour les solutions optimales de chacun des deux profils de risque :
On observe ainsi une probabilité d’attachement plus importante, traduisant une rétention
plus faible pour le profil« averse au risque ». De l’autre côté, la probabilité d’épuisement
est plus faible pour ce profil de risque, lié au plafond plus élevé du traité XS.
M ontant cédé QP = (M ontant brut de réassurance − montant cédé XS) · T aux de cession
Par exemple, pour une rétention de 8 Me et une capacité variable, on observe les
résultats suivants :
125
Figure 14.24 – Impact de l’ajout d’un traité en quote-part sur le quantile à 99,5% de la charge nette et le
résultat net moyen
Maintenant, nous allons considérer une représentation graphique «Ratio gain en SCR sur
résultat cédé moyen/Quantile à 99,5% ». Pour un niveau de rétention de 4 Me et une capacité
variable , on a les résultats suivants :
Figure 14.25 – Impact de l’ajout d’un traité en quote-part sur le ratio "gain en SCR sur résultat cédé moyen"
Globalement, on observe ici que l’ajout de la quote-part a rarement un impact positif sur le
ratio, par rapport à la situation sans quote-part. Pour les deux niveaux de quote-part, on observe
un maintien du niveau de ratio compris entre 1,6 et 1,7. Ces niveaux de ratios équivalant entre
les deux cessions différentes, s’explique par le fait que "l’économie" de résultat cédé moyen pour
la cession à 10% (vis à vis de celle à 50%) se compense par le gain en SCR réalisé qui lui sera
plus faible pour la cession à 10%.
Si on se concentre sur le couple (rétention, capacité) : (4 Me,15 Me) (points indiqués sur le
schéma avec les étiquettes) qui correspond à la solution du programme d’optimisation pour le
126
profil averse au risque, on se rend compte que l’ajout d’une quote-part n’a pas d’impact positif
sur l’indicateur.
Figure 14.26 – Impact de l’ajout d’un traité en quote-part sur le ratio "gain en SCR sur résultat cédé moyen
On observe ici que l’application de la quote-part n’a pas d’impact positif sur l’indicateur
observé, à savoir le ratio "gain en SCR sur résultat cédé moyen", et en particulier pour le couple
(8 Me,6 Me) (points indiqués sur le schéma avec les étiquettes) correspondant à la solution du
programme d’optimisation pour le profil risquophile.
Note importante concernant les contraintes du programmes d’optimisation : Étant donné que
nous considérons une structure de réassurance plus développée, nous décidons de revoir cer-
taine de nos contraintes initiales. Nous gardons les seuils concernant les quantiles à 99,5%,
cependant nous allons revoir à la baisse les seuils sur le résultats net moyen, afin d’avoir une
marge de manoeuvre plus importante. En effet, suite à la première phase d’optimisation,
les contraintes portant sur le résultat net moyen sont presque arrivées à saturation, ne laissant
par conséquent qu’un panel de traité Stop-Loss potentiellement compatible très limité.
Ainsi, nous choisissons les nouveaux seuils suivants :
Dans un premier temps, nous allons observer l’impact sur le ratio « gain en SCR sur résultat
cédé moyen » des stratégies optimales définies précédemment, en ajoutant un traité en quote-part
sur la charge attritionnelle.
127
Figure 14.27 – Impact du ratio « gain en SCR sur résultat cédé moyen » avec l’ajout d’un traité "quote-part"
sur la charge attritionnelle.
Le graphique ci-dessus représente l’impact de l’ajout d’un traité en quote-part sur la charge
attritionnelle pour chacune des stratégies optimales définis précédemment associées à leur profil
de risque respectif. Le pourcentage de cession des quote-parts définis précédemment est, pour
rappel, de 38% pour le profil « averse au risque » et de 58% pour le profil « risquophile ».
On n’observe que l’ajout du traité en quote-part sur la charge attritionnelle impacte négati-
vement le ratio « gain en SCR sur résultat cédé ». On remarque aussi que malgré les différents
niveaux de cessions des traités en quote-part entre les deux profils de risque, on obtient au final
des ratios fortement similaires. On a observé le phénomène similaire lorsque l’on avait ajouté des
traités en quote-part sur la charge nette d’un traité en excédent de sinistre. En effet le profil « ris-
quophile », va réaliser une « économie » en terme de résultat cédé vis-à-vis du profil « averse au
risque », cependant en contrepartie le gain en SCR sera moins conséquent. Il y’a donc un effet
« compensatoire » qui s’applique, rendant les ratios similaires, malgré la différence de cession.
Ce n’est pas observable sur le graphique, mais ce traité impacte bien entendu aussi de ma-
nière proportionnelle le quantile à 99,5% de la charge nette et le résultat net moyen.
Nous allons maintenant déterminer l’impact d’un traité Stop-Loss sur le ratio pour les deux
profils de risque, en faisant varier le niveau de rétention et de capacité du traité.
Nous avons décidé de tester des niveaux de rétention compris entre 40 et 90 millions
d’euros et des niveaux de capacité compris entre 70 et 140 millions d’euros. Le pas retenu
sera de 10 millions d’euros.
Pour le profil « risquophile », on observe les résultats suivants :
128
Figure 14.28 – Évolution du ratio « gain en SCR sur résultat cédé » selon le niveau de rétention et de capacité
du traité Stop-Loss pour le profil « risquophile ». La droite bleue représente le niveau de ratio de la stratégie
optimale précédente sans le traité Stop-Loss.
L’axe bleu horizontal représente le niveau de ratio de la stratégie optimale précédente avant
l’ajout du traité Stop-Loss.On peut donc en conclure qu’ici tous les traités testés impactent
positivement le ratio.
De plus sur le graphique, on peut constater des alignements horizontaux des points.
Les différents points sur un même alignement correspondent aux structures de réassurance où le
traité Stop-Loss à un même plafond. On peut en conclure qu’à un même niveau de plafond
pour le traité Stop-Loss, on observe des ratios du même ordre. Enfin, nous considérons dans un
second temps une représentation graphique similaire, mais cette fois en prenant en considération
en abscisse le résultats net moyen obtenu pour les structures considérées :
Figure 14.29 – Évolution du ratio « gain en SCR sur résultat cédé » et du résultat net moyen selon le niveau de
rétention et de capacité du traité Stop-Loss pour le profil « risquophile ». L’axe bleu vertical représente le seuil
sur le résultat net moyen, ainsi les solutions potentielles se trouvent à la droite de cet axe.
Ainsi au niveau de l’optimisation, le traité Stop-Loss donnant le meilleur ratio possède les
caractéristiques suivantes :
129
Figure 14.30 – Caractéristiques de la solution
L’ajout d’un traité Stop-Loss a donc un impact positif sur le ratio observé.
Figure 14.31 – Évolution du ratio « gain en SCR sur résultat cédé » selon le niveau de rétention et de capacité
du traité Stop-Loss pour le profil « averse au risque ».
Comme précédemment, tous les traités testés ont un impact positif sur le ratio car étant au
dessus de l’axe bleu, représentant le niveau de ratio optimal avant l’introduction du traité.
De plus comme pour le graphique antécédent, on observe le même phénomène décrit précé-
demment concernant les alignements horizontaux de points. De plus, on observe une conver-
gence du niveau de ratio pour les différents niveaux de rétention testés autour de 1,92. De
l’autre côté, dans le premier graphique le ratio semble évoluer de manière linéaire. Cette diffé-
rence de comportement entre les deux profils doit trouver son explication dans le pourcentage
de cession de la quote-part. Pour le profil « risquophile », où la cession de la quote-part est
plus faible, il y a donc une charge potentielle soumise au traité Stop-Loss qui sera plus impor-
tante entraînant alors une perspective d’augmentation du ratio plus importante. De l’autre côté,
pour le profil «averse au risque », la charge potentielle soumise au traité sera plus faible, et
donc l’augmentation du ratio atteindra plus rapidement ses limites, se traduisant ainsi par une
convergence.
Enfin, nous considérons dans un second temps une représentation graphique similaire, mais cette
fois en prenant en considération en abscisse le résultats net moyen obtenu pour les structures
considérées :
130
Figure 14.32 – Évolution du ratio « gain en SCR sur résultat cédé » et du résultat net moyen selon le niveau
de rétention et de capacité du traité Stop-Loss pour le profil « averse au risque ».L’axe bleu vertical représente
le seuil sur le résultat net moyen, ainsi les solutions potentielles se trouvent à la droite de cet axe.
Au niveau de l’optimisation, le traité Stop-Loss donnant le meilleur ratio possède les carac-
téristiques suivantes :
Comme précédemment, l’ajout du traité Stop-Loss impacte de manière positive le ratio pour
les deux profils. De plus dans les deux cas, le profil risquophile est davantage récompensé en
terme de ratio.
De plus maintenant, nous décidons d’observer l’impact en appliquant un traité Stop-Loss sur
les charges nettes des autres LoB. On supposera que les traités possèdent les mêmes caracté-
ristiques que le précédent, mais ils seront re-tarifier pour chaque LoB. On obtient les résultats
suivants :
131
Figure 14.35 – Impact global
On observe ici des ratios sensiblement plus faibles pour les deux profils que ceux observés
précédemment. Cela s’explique par le fait, que les caractéristiques du traité ne doivent pas
être parfaitement ajustées pour les LoB en question. De plus, on remarque que cette structure
donnera l’avantage pour le profil « averse au risque » en terme de ratio.
132
Chapitre 15
Conclusion
Dans ce mémoire, nous avons développé un système d’optimisation sous contraintes de plu-
sieurs structures de réassurance, mélangeant à la fois de la réassurance proportionnelle et non-
proportionnelle. Cette optimisation s’est bien entendu basée sur la nouvelle réglementation Sol-
vabilité II, où la réassurance est particulièrement mise en valeur et contribue directement à
l’amélioration de la marge de solvabilité des assureurs.
Nous avons dans un premier temps construit de toute pièce une compagnie d’assurance vir-
tuelle non-vie, qui soit à la fois représentative du marché français tout en ayant un niveau de
modélisation abordable. La modélisation s’est tout d’abord faite sous la formule standard propo-
sée par l’EIOPA. Néanmoins dans le cadre du mémoire, cette modélisation a rapidement atteint
ses limites : en particulier, le manque de données exploitables et l’inadaptation de la formule
standard à la réassurance non-proportionnelle. Tout cela nous a donc amené à développer la
compagnie sous un modèle interne partiel.
Par la suite, nous avons observé les impacts de différents types de structures de réassurance
sur les indicateurs de Solvabilité II, plus particulièrement sur les différents SCR qui composent
la compagnie virtuelle (SCR prime, SCR réserve, SCR CAT,. . . ) et aussi le ratio de solvabilité.
Enfin pour la phase d’optimisation, nous avons pris en compte le fait que toute compagnie
d’assurance dispose d’un profil de risque, qui lui est propre et qui reflète son appétence à prendre
du risque. Ce profil de risque est capital car c’est lui qui détermine les contraintes qui vont peser
sur le programme d’optimisation. Dans le souci de couvrir au mieux les différentes situations,
nous avons décidé de définir deux profils de risque, l’un averse au risque et l’autre risquophile,
et de procéder à l’optimisation sur les deux profils. Selon ce profil, l’assureur doit planifier sa
stratégie de réassurance en fonction de la réduction du coût du capital associée. C’est pourquoi,
nous avons choisi d’analyser le ratio du gain en SCR sur le résultat cédé moyen au réassureur.
L’objectif était donc de déterminer la structure donnant le meilleur ratio, tout en respectant les
contraintes fixées et variant en fonction du profil de risque.
La première contrainte porte sur un seuil de quantile à 99,5% de la charge nette, que l’entre-
prise souhaite atteindre. A cela s’ajoute que, comme toute entreprise, une compagnie d’assurance
a pour objectif de maximiser sa rentabilité, c’est-à-dire d’être en mesure de faire le meilleur ré-
sultat possible. C’est pourquoi, nous avons aussi considéré dans nos critères d’optimalité un seuil
de résultat net moyen à respecter.
Nous avons alors testé un grand nombre de traités en excédent de sinistres sur le risque
tempête caractérisés par le couple (rétention, capacité). Les principales conclusions tirées de
notre étude sont les suivantes : Premièrement, à un niveau de rétention fixée il existe un unique
niveau de capacité permettant de maximiser le ratio gain SCR sur le résultat cédé moyen.
Deuxièmement, la mise en place d’un traité en excédent de sinistres sur la LoB responsabilité
civile générale, s’est avérée ne pas être rentable puisqu’elle augmente l’exigence en solvabilité.
C’est pourquoi, cette structure a naturellement été mise de côté. Enfin, nous avons mis en place
133
une structure similaire sur la LoB responsabilité civile automobile, qui elle s’est avérée rentable.
Enfin, nous avons testé de nombreux traités Stop-Loss, s’appliquant d’une part sur la charge
nette issue du traité en excédent de sinistre observé précédemment, mais aussi sur la charge
attritionnelle de la LoB. Les principales conclusions tirées sur ce point sont les suivantes : d’une
part à même niveau de plafond, différents traités Stop-loss donnent des niveaux de ratio simi-
laires. De plus, on observe qu’indiscutablement l’ajout de ce type de traité a un impact
positif sur l’indicateur observé.
La principale limite du modèle est liée au logiciel utilisé, Risk explorer. Dans le cadre de
l’optimisation, il était compliqué de considérer plus de 2 paramètres en simultanée. En effet
dans cette situation, il aurait été nécessaire d’observer et de tester de très nombreuses combinai-
sons de ces paramètres dans l’espoir d’obtenir un résultat cohérent. Cette problèmatique était
d’autant plus renforcée du fait qu’il n’était pas possible d’automatiser via le logiciel, les com-
binaisons a effectuer. Par conséquent, tout devait se faire manuellement. De plus, pour chaque
simulation à tester, il était nécessaire de faire tourner deux fois le modèle. Une première fois,
pour effectuer la tarification des traités et enfin une seconde pour obtenir les indicateurs désirés.
Ainsi considérer plus de 2 paramètres en simultanée était une méthodologie qui ne pouvait être
appliquée justement, car bien trop chronophage et laborieuse.
Enfin une autre limite de l’étude qui peut être mise en avant, est le "raffinement" des couples
solutions (rétention,capacité) obtenues pour les traités en excédent de sinistre et Stop-Loss. En
effet on considère un pas de test discret (et non pas un pas continu) dans les tests des
niveaux de rétention et de capacité. Même si un premier raffinage a été effectué, il serait très
probablement possible de trouver une solution encore plus précise.
Enfin, il reste toujours une partie non modélisable (Pouvoir de négociation entre les deux partis
ainsi que la disponibilité des traités sur le marché).
Malgré un aspect a priori simple du fonctionnement des contrats de réassurance au premier
abord, les relations ainsi que les comportements des différents indicateurs de réassurance sont
bien plus complexes qu’il n’y parait. Beaucoup de facteurs entre en jeux, notamment la com-
binaison et l’ordre établi entre les différents traités de réassurance. Pour améliorer le modèle,
il pourrait être intéressant de tester de nouvelles combinaisons de structures de réassurance, et
aussi éventuellement faire la même démarche en modélisant cette fois une compagnie "vie".
Pour aller plus loin, il pourrait être intéressant de développer les 3 points suivants :
• Développer un algorithme plus simple, pour éviter d’avoir à effectuer de très nombreux
tests afin de converger plus rapidement vers la solution optimale.
134
Bibliographie
Articles
[PL00] E. Jack Chen W. David Kelton Pierre L’Ecuyer Richard Simard. An Object-
oriented random-number package with many long streams and substreams. 2000.
[DC05] Michel Denuit et Arthur Charpentier. Mathématiques de l’assurance non-vie.
Economica, 2005. isbn : 9782717848601.
[B.09] SOLIOZ B. L’impact de la réassurance sur la marge de solvabilité. Colloque ASA,
2009.
[Eur09] Journal officiel de l’Union Européenne. Directive 2009/138/CE du parlement eu-
ropéen et du conseil du 25 Novembre 2009. 2009.
[(FS13] Financial Stability Board (FSB). Principles for An Effective Risk Appetite Frame-
work. 2013.
[Eur14] Journal officiel de l’Union Européenne. Règlement délégué (UE) 2015/ 35 de la
commission du 10 Octobre 2014. 2014.
Ouvrages
[Pre02] Willamn T. Vetterling Brian P. Flannery William h Press Saul A. Teukolsky. Nu-
merical recipes in C. The Art of scientific computing, 2002.
[CD05] M. Pesonen C.D. Daykin T.Pentikainen. Practical Risk Theory for Actuaries. Chap-
man Hall, 2005.
[DG05] Plantin G Deelstra G. Théorie du risque et réassurance. ECONOMICA, 2005.
Sites internet
[Spi12] Bernard Spitz. Les chiffres de la sinistralité. Fédération Française des Sociétés d’As-
surance. Juin 2012.
[Ffsc] Rapport FFSA. Fédération Française des Sociétés d’Assurance, http ://www.ffsa.fr/.
2013.
[Ffsa] http ://eur-lex.europa.eu/legal-content.
[Ffsb] http ://www.institutdesactuaires.com/gene/main.php ?base=379.
Autres
[EIO10a] EIOPA. Annexes to the QIS 5 Technical Specifications. 2010.
[EIO10b] EIOPA. QIS 5 Technical Specifications. 2010.
[Bur15] Inès Burr. Impact d’un dispositif de réassurance non-proportionnelle sur le risque
de réserve. 2015.
135
Table des figures
1 Évolution du ratio "gain en SCR sur résultat cédé moyen" avec application d’un traité XS de
rétention 35 M e et capacité variable . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2 Impact de l’ajout d’un traité en quote-part sur le quantile à 99,5% de la charge nette et le
résultat net moyen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3 Impact de l’ajout d’un traité en quote-part sur le ratio "gain en SCR sur résultat cédé moyen . 12
4 Évolution du ratio « gain en SCR sur résultat cédé » selon le niveau de rétention et de capacité
du traité Stop-Loss pour le profil « averse au risque ». La droite bleue représente le niveau de
ratio de la stratégie précédente sans le traité Stop-Loss. . . . . . . . . . . . . . . . . . . . 13
5 evolution of the ratio "SCR gain on average yielded results" with application of a treaty XS
retention 35M e and variable capacity . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
6 Impact of the addition of a treaty QP on quantile 99.5 % of the net charge and the average net
income . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
7 Impact of the addition of a treaty QP on the ratio "SCR gain on average yielded results" . . . 19
8 Evolution of the ratio "gain on SCR result yielded" according to the retention level and Stop-Loss
Treaty ability to profile "risk averse". The blue line represents the level of the previous strategy
ratio without the treaty Stop-Loss. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
136
3.15 Composition du SCR après application de la structure C . . . . . . . . . . . . . . . . . . . 61
3.16 Bilan de la compagnie avec application de la structure D . . . . . . . . . . . . . . . . . . . 62
3.17 Composition du SCR non-vie après application de la structure D . . . . . . . . . . . . . . . 62
3.18 Composition du SCR après application de la structure D . . . . . . . . . . . . . . . . . . . 63
3.19 Tableau des ratios de solvabilité par stratégie . . . . . . . . . . . . . . . . . . . . . . . . 63
3.20 Évolution du risque de contrepartie, en fonction de de la notation du réassureur . . . . . . . . 64
3.21 Notations des 25 réassureurs les plus importants . . . . . . . . . . . . . . . . . . . . . . . 64
5.1 Représentation de la fonction « mean excess plot » pour la LoB responsabilité civile automobile.
Les ordonnées correspondent au niveau du seuil(en Me). . . . . . . . . . . . . . . . . . . . 69
5.2 Seuil des sinistres graves . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
5.3 Table d’évènements stochastiques . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
5.4 Table d’évènements stochastiques avec plusieurs entités . . . . . . . . . . . . . . 74
5.5 Valeur des risques CAT en formule standard . . . . . . . . . . . . . . . . . . . . 75
12.1 Ce graphique représente l’évolution de la moyenne empirique des charges cédées en fonction de
la taille de l’échantillon observé. Le traité non-proportionnel observé est un 35 Me XS 665 Me. 98
12.2 Ce graphique représente l’évolution de l’écart-type empirique des charges cédées en fonction de
la taille de l’échantillon observé. Le traité non-proportionnel observé est un 35 Me XS 665 Me. 98
12.3 Ce graphique représente l’évolution du résultat cédé moyen en fonction de la taille de l’échantillon
observé. Le traité non-proportionnel observé est un 35 Me XS 665 e. . . . . . . . . . . . . . 98
12.4 Evolution de la probabilité d’attachement, en fonction de la rétention (avec capacité fixe) . . . 99
12.5 Evolution de la probabilité de rattachement en fonction de la taille de l’échantillon observé pour
un traité non-proportionnel observé est un 665 Me XS 35 Me. . . . . . . . . . . . . . . . . 100
12.6 Evolution de la probabilité d’épuisement, en fonction de la capacité (avec rétention fixe) . . . . 100
12.7 Ce graphique représente l’évolution de la probabilité d’épuisement en fonction de la taille de
l’échantillon observé. Le traité non-proportionnel observé est un 665 Me XS 35 Me. . . . . . 101
137
13.4 Stabilité de l’estimateur de la moyenne empirique de l’Expected Shortfall en fonction du nombre
de sinistres simulés. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
13.5 TVAR sur les évènements "tempête" . . . . . . . . . . . . . . . . . . . . . . . . . 105
13.6 Évolution du ratio "gain en SCR sur résultat cédé moyen" avec application d’un traité XS de
rétention 35 Me et capacité variable . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
13.7 Évolution du ratio "gain en SCR sur résultat cédé moyen" avec application d’un traité XS de
rétention 15 Me et capacité variable . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
13.8 représentation des couples testés sur un graphique "Résultat net moyen/quantile à 99,5% de la
charge nette . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
13.9 zoom sur la zone des solutions potentielles . . . . . . . . . . . . . . . . . . . . . . . . . 108
13.10Liste des solutions potentielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
13.11Représentation des couples testés sur un graphique "Résultat net moyen/quantile à 99,5% de la
charge nette . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
13.12Liste des solutions potentielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
13.13Représentation des solutions potentielles sur un graphique "Ratio gain en SCR sur résultat cédé
moyen/Quantile 99,5%" . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
13.14Caractéristiques de la solution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
13.15Caractéristiques de la solution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
13.16représentation des solutions potentielles sur un graphique "Ratio gain en SCR sur résultat cédé
moyen/Quantile 99,5%" . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
13.17Caractéristiques de la solution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
13.18Caractéristiques de la solution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
13.19Représentation des couples testés sur un graphique "Résultat net moyen/quantile à 99,5% de la
charge nette . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
13.20Zoom sur la zone contenant les solutions potentielles . . . . . . . . . . . . . . . . . . . . . 111
13.21Liste des solutions potentielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
13.22Représentation des solutions potentielles sur un graphique "Ratio gain en SCR sur résultat cédé
moyen/Quantile 99,5%" . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
13.23Caractéristique de la solution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
13.24représentation des couples testés sur un graphique "Résultat net moyen/quantile à 99,5% de la
charge nette . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
13.25Zoom sur la zone contenant les solutions potentielles . . . . . . . . . . . . . . . . . . . . . 112
13.26Liste des solutions potentielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
13.27Représentation des solutions potentielles sur un graphique "Ratio gain en SCR sur résultat cédé
moyen/Quantile 99,5%" . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
13.28Caractéristiques de la solution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
13.29Caractéristiques de la solution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
13.30Cession "optimales" des quote-parts par LoB . . . . . . . . . . . . . . . . . . . . . . . . 114
13.31valeur des ratios gain en SCR sur résultat cédé moyen obtenu pour la structure D pour chacun
des profils . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
14.1 Distribution des sinistres individuels de la LoB responsabilité civile générale. . . . . . . . . . 117
14.2 .
statistiques sur les sinistres individuels de la LoB responsabilité civile générale (en euros) . . 117
14.3 TVaR pour les sinistres individuels de la LoB responsabilité civile générale . . . . . . . . . . 117
14.4 Zoom sur la queue de distribution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
14.5 Distribution des sinistres individuels de la LoB responsabilité civile automobile . . . . . . . . 119
14.6 Statistiques sur les sinistres individuels de la LoB responsabilité civile automobile (en euros) . . 119
14.7 TVaR sur les sinistres individuels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
14.8 Zoom sur la queue de distribution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
14.9 Représentation des couples testés sur un graphique "Résultat net moyen/quantile à 99,5% de la
charge nette. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
14.10Zoom sur la zone contenant les solutions potentielles . . . . . . . . . . . . . . . . . . . . . 121
14.11Liste des solutions potentielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
14.12Représentation des solutions potentielles sur un graphique "Ratio gain en SCR sur résultat cédé
moyen/Quantile 99,5%" . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
14.13caractéristiques de la solution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
138
14.14caractéristiques de la solution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
14.15Représentation des simulations sous Risk Explorer de la "charge brute de réassurance/charge
nette de réassurance" pour le traité optimal du profil risquophile . . . . . . . . . . . . . . . 122
14.16Représentation des couples testés sur un graphique "Résultat net moyen/quantile à 99,5% de la
charge nette . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
14.17Zoom sur la zone contenant les solutions potentielles . . . . . . . . . . . . . . . . . . . . . 123
14.18Liste des solutions potentielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
14.19Représentation des solutions potentielles sur un graphique "Ratio gain en SCR sur résultat cédé
moyen/Quantile 99,5%" . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
14.20Caractéristiques de la solution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
14.21Caractéristiques de la solution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
14.22Représentation des simulations sous Risk Explorer de la "charge brute de réassurance/charge
nette de réassurance" pour le traité optimal du profil averse au risque . . . . . . . . . . . . 125
14.23Valeur de la probabilité d’attachement et d’épuisement . . . . . . . . . . . . . . . . . . . 125
14.24Impact de l’ajout d’un traité en quote-part sur le quantile à 99,5% de la charge nette et le
résultat net moyen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
14.25Impact de l’ajout d’un traité en quote-part sur le ratio "gain en SCR sur résultat cédé moyen" . 126
14.26Impact de l’ajout d’un traité en quote-part sur le ratio "gain en SCR sur résultat cédé moyen . 127
14.27Impact du ratio « gain en SCR sur résultat cédé moyen » avec l’ajout d’un traité "quote-part"
sur la charge attritionnelle. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
14.28Évolution du ratio « gain en SCR sur résultat cédé » selon le niveau de rétention et de capacité
du traité Stop-Loss pour le profil « risquophile ». La droite bleue représente le niveau de ratio
de la stratégie optimale précédente sans le traité Stop-Loss. . . . . . . . . . . . . . . . . . 129
14.29Évolution du ratio « gain en SCR sur résultat cédé » et du résultat net moyen selon le niveau
de rétention et de capacité du traité Stop-Loss pour le profil « risquophile ». L’axe bleu vertical
représente le seuil sur le résultat net moyen, ainsi les solutions potentielles se trouvent à la droite
de cet axe. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
14.30Caractéristiques de la solution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
14.31Évolution du ratio « gain en SCR sur résultat cédé » selon le niveau de rétention et de capacité
du traité Stop-Loss pour le profil « averse au risque ». . . . . . . . . . . . . . . . . . . . . 130
14.32Évolution du ratio « gain en SCR sur résultat cédé » et du résultat net moyen selon le niveau
de rétention et de capacité du traité Stop-Loss pour le profil « averse au risque ».L’axe bleu
vertical représente le seuil sur le résultat net moyen, ainsi les solutions potentielles se trouvent
à la droite de cet axe. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
14.33Caractéristique de la solution . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
14.34Impact global . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
14.35Impact global . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
139
Abréviations
Fire : Raccourci pour désigner la LoB 7 (Assurance Incendie et autres dommages aux biens) ;
PD : Probabilité de défaut ;
RC : Responsabilité civile ;
XS : Excédent de sinistres ;
140
Annexes
La courbe des taux SWAP qui a été retenue dans le cadre du mémoire est celle de Mai 2016
disponible sur le site de l’Institut des Actuaires (voir bibliographie).
Valeur des coefficients de la matrice de corrélation utilisée pour l’agrégation du SCR sous-
cription non-vie
Valeur des coefficients de la matrice de corrélation utilisée pour l’agrégation entre les diffé-
rentes LoB :
141
Figure 15.3 – Matrice de corrélation entre les différentes LoB
Annexe C :Valeurs des σ pour chacune des LoB, pour la partie prime dans le cadre de la
détermination du SCR prime et réserve :
Figure 15.4 –
Figure 15.5 –
142
Annexe D :
143
Annexe E : Valeurs des σ pour chacune des LoB, pour la partie réserve dans le cadre de la
détermination du SCR prime et réserve
144
Figure 15.6
Dans le logiciel Risk explorer, il y a deux options de génération des variables aléatoires : une
option "générique" et l’autre "avancé".
la méthodologie pour l’option "générique" a été extrait du livre “Numerical Recipes for C” (en
bibliographie), et accessible à l’adresse suivante : http ://apps.nrbook.com/c/index.html
Le générateur "avancé" est bien plus performant et puissant que le précédent parce qu’il
est possible de voir instantanément le détail de n’importe quelle simulation. Par exemple, si on
considère un échantillon de 50 000 simulations, il est possible de voir immédiatement la simula-
tion 49 999 sans avoir besoin d’obtenir les 49 998 simulations précédentes.
145
Annexe G : Démonstration de la méthode des moments pour la loi Log-normale
La loi Log-normale possédant deux paramètres, il est nécessaire d’avoir les deux premiers
moments, c’est-à-dire l’espérance et la variance.
σ2
(
E(X) = eµ+ 2
2 2
V ar(X) = eσ − 1).e2µ+σ
Soit X1 , ..., Xn un échantillon suivant une LogN (µ, σ 2 )
Avec,
\ = 1 . Pn Xi
E(X) n i=1
ar(X) = 1 . n (Xi − E(X))
V\ \ 2
P
n i=1
2
\ = eµ̂+ σ̂2
E(X)
2 2
ar(X) = (eσ̂ − 1).e2µ̂+σ̂
V\
Par substitution,
\ − σ̂ 2
µ̂ = ln(E(X)) 2
σ̂ 2
2 \
2(ln(E(X))− )+σ̂ 2
ar(X) = (eσ̂ − 1).e
V\ 2
σ̂ 2
(
\ −
µ̂ = ln(E(X)) 2
2 \ 2 2
ar(X) = (eσ̂ −
V\ 1).e2(ln(E(X))−σ̂ +σ̂
\ − σ̂2
µ̂ = ln(E(X))
2
eσ̂2 = V \
ar(X)
\ + 1
2ln(E(X)
e
Puis on obtient, l’estimation suivante pour les deux paramètres :
\ − σ̂2
µ̂ = ln(E(X))
2
σ̂ 2 = ln( V \
ar(X)
\ + 1)
2ln(E(X)
e
\ − σ̂ 2
µ̂ =rln(E(X)) 2
V\
ar(X)
σ̂ =
ln( \ + 1)
e2ln(E(X)
Montage 1 :
• Application d’un traité en quote-part, puis d’un traité XS sur la charge nette de quote-part
(structure E et E bis) ;
Montage 2 :
• Application d’un traité XS, puis d’une quote-part sur la charge nette restante (structure
F).
146
Quant aux propriétés des traités, on retient les suivantes :
Pour observer les impacts des différents montages nous allons considérer les différentes si-
tuations possibles dans le cas où on a un seul sinistre concerné.
1er cas : Comparaison de la structure E, où une fois le quote-part appliqué les caractéris-
tiques du traité XS (rétention et capacité) se trouvent multipliées par (1-taux de cession) avec
la structure F.
Situation 1 : le sinistre est supérieur au plafond, et est de valeur 12.
Pour la structure E, après application du quote-part, le sinistre n’a plus qu’une valeur de 6.
Puis en appliquant le traité XS, l’assureur n’a plus qu’une charge nette de 3.
Remarque :
La rétention du traité passe de 2 à 1 et la capacité du traité passe de 6 à 3.
Pour la structure F,
147
Figure 15.9 – Application du traité XS dans la structure F
Après application du traité XS, l’assureur n’a plus qu’une charge nette de 6, et donc avec
l’exercice du quote-part il ne lui reste plus qu’une charge nette de 3.
Situation 2 : Le sinistre est compris entre la rétention et le plafond. On suppose qu’il a une
valeur de 6.
Dans la structure F,
148
Figure 15.12 – Application du traité XS dans la structure F
En exerçant dans un premier temps le traité XS, l’assureur n’a plus qu’une charge de 2, et
donc au final une charge nette de 1 après le quote-part.
Enfin dans le dernier cas, où on a un sinistre inférieur à la rétention cela n’a bien entendu aucune
incidence sur la charge nette de l’assureur que l’on exerce l’un ou l’autre des montages. Dans les
deux situations, elle sera la même.
De plus, l’observation de nos résultats sur la plateforme risk explorer, nous prouvent que
cette assertion qui est valable pour un sinistre peut aussi se généraliser lorsqu’on a plusieurs
sinistres.
2ème cas : Dans le premier montage, la rétention et la capacité du traité XS ne sont pas
affectées par le taux de cession, après l’application de ce dernier. Ici, c’est donc la structure E
bis qui est étudiée.
Situation 1 : Le sinistre est supérieur au plafond du traité XS. On suppose qu’il a une
valeur de 12.
Dans la structure E bis, après l’application du quote-part, le sinistre ne vaut plus que 6. Puis
en appliquant le traité XS, on obtient les résultats suivants :
149
Figure 15.13 – Application du traité XS, net de quote-part dans la structure E bis
La charge nette après exercice du XS est de 6, et donc n’est plus que de 3 après le quote-part.
Dans cette situation, c’est le montage 1 qui sera le plus intéressant pour l’assureur en terme
de charge nette.
Situation 2 : Le sinistre est compris entre la rétention et le plafond. On suppose qu’il a une
valeur de 6.
Dans la structure E bis, après application du quote-part, le sinistre ne vaut plus que 3.
150
Figure 15.16 – Application du traité XS, net de quote-part dans la structure E bis
Dans la structure F,
Suite à l’application du traité XS, il ne reste plus que la rétention de 2 à la charge de l’as-
sureur. Au final, après exercice du quote-part la charge nette est de 1.
Ainsi dans cette situation, c’est le second montage qui sera le plus intéressant pour l’assureur
en termes de charge nette. Enfin dans le dernier cas où on a un sinistre inférieur à la rétention,
comme pour le 1er cas cela n’a aucune incidence sur la charge nette de l’assureur que l’on exerce
l’un ou l’autre des montages. Dans les deux situations, elle sera la même.
Conclusion du second cas : Dans le second cas, on remarque qu’en fonction de la taille du
sinistre par rapport à la rétention et la capacité du traité XS, le montage 1 ou le montage 2 sera
plus favorable au niveau de la charge nette restante pour l’assureur. Le seul point de convergence
entre les deux cas, est l’équivalence entre les deux montages que l’on retrouve lorsqu’on a un
sinistre sous la rétention.
Néanmoins contrairement au cas précédent, on ne peut pas généraliser les résultats obtenus
dans le cas où on a plusieurs sinistres. En effet, en fonction du positionnement des différents
sinistres vis-à-vis de la rétention et de la capacité, le « meilleur » montage » pourra varier.
151
une mesure de risque est cohérente si elle vérifie les propriétés suivantes :
• invariante par translation
λ ∈ R, X ∈ U
• Sous-additive
• Positivement homogène
Multiplier le risque d’un portefeuille par un scalaire multiplie la mesure de risque par ce
même scalaire.
• Monotone
Si un portefeuille Y a une valeur au moins égale à un portefeuille X dans tous les états de marché
(états du monde), sa mesure de risque ne peut (doit) pas être plus grande que celle de X.
T V aR(X + λ, α) = T V aR(X, α) + λ
Sous-additive (on suppose que les risques sont continus)
T V aR(X + Y, α) = CT E(X + Y, α)
= E(X + Y |X + Y > V aR(X + Y, α)) = E(X|X > V aR(X + Y, α)) + E(Y |Y > V aR(X + Y, α))
<= E(X|X > V aR(X, α)) + E(Y |Y > V aR(Y, α)) = T V aR(X, α) + T V aR(Y, α)
152
L’inégalité se justifie par la proprieté suivante :
Soient le risque X et le niveau de perte x tels que FX (x) > 0. Quel que soit l’événement
aléatoire G tel que P[G] = 1 − F X(x), on a E[X|G] ≤ E[X|X > x].
Monotone :
T V aR(Y, α) = E(Y |Y > V aR(Y, α)) ≥ E(Y |X > V aR(X, α)) ≥ E(X|X > V aR(X, α)) = T V aR(X, α)
Positivement homogène :
Trivial, car on sait que la V aR est elle-même positivement homogène.
153