Vous êtes sur la page 1sur 142

Université Claude Bernard – Lyon 1

INSTITUT DE SCIENCE FINANCIERE ET D'ASSURANCES

Mémoire présenté
devant l’Institut de Science Financière et d’Assurances
pour l’obtention
du diplôme d’Actuaire de l’Université de Lyon

le 23 septembre 2008

Par : Arnaud LACOUME


Titre: Mesure du risque de réserve sur un horizon de un an

Confidentialité : ⌧ NON OUI (Durée : 1 an 2 ans 5 ans)

Membre du jury I.A. Entreprise : Towers Perrin


M. THEROND Pierre

Membres du jury I.S.F.A.


M. AUGROS Jean-Claude
M. BIENVENÜE Alexis Directeur de mémoire :
Mme EYRAUD-LOISEL Anne Christian de La FOATA
M. LAURENT Jean-Paul
M. LEBOISNE Nicolas
M. LOISEL Stéphane
Mme MAUME-DESCHAMPS Véronique
M. PLANCHET Frédéric Secrétariat
M. QUITTARD-PINON François Mme GARCIA Marie-José
Mme REY-FOURNIER Béatrice Mme BARTHELEMY Diane
M. RULLIERE Didier M. BRIAS Samy
Mme BRUNET Marie-Christine
Mme GHAZOUANI Sondès
Invité : M. HUET Jean-Daniel
Mme MOUCHON Marie-Claude

Bibliothèque :
Mme SONNIER Michèle

50 Avenue Tony Garnier


69366 Lyon Cedex 07
Remerciements.

Je souhaitais remercier ici les personnes qui


ont compté et contribué à la réalisation de ce mémoire :
Merci à Francis Berthoix,
qui m’a consacré un peu de son temps précieux
et a su me conseiller dans les moments difficiles.
Merci à Christian de La Foata
pour m’avoir donné l’occasion de travailler sur ce sujet.
Merci à Stéphane Loisel pour son suivi pédagogique,
Merci à Daniel Chaise, Emmanuel Dubreuil
et à Philippe Berger de m’avoir convaincu que
l’actuariat est un métier passionnant.
Merci enfin à Donald E. Knuth, car j’ ♥ LATEX.

1
Résumé. Les études quantitatives (QIS) de Solvency II, dont la quatrième vient de
s’achever, ont pour but de calibrer au mieux les différents paramètres nécessaires au
calcul de la marge de solvabilité (SCR). Celle-ci, d’après la définition qu’en donne
la Commission Européenne, est paramétrée pour supporter toutes les pertes sur une
année calendaire. Concernant le provisionnement en assurance non vie, les méthodes
actuarielles classiques mesurent le risque jusqu’au développement ultime des charges
et non sur une seule année calendaire, ce qui entraı̂ne une sur calibration du risque de
réserves, plus particulièrement sur les branches longues.
L’objet de ce mémoire est d’adapter les méthodes de provisionnement classiques comme
la méthode de Chain Ladder, de Bornhuetter-Ferguson ou du bootstrap pour mesurer
le risque à un an. Il sera présenté dans ce mémoire chacune de ces méthodes en détail
dans leur version classique avec une vision du risque à l’ultime (long terme) et dans
leur version modifiée avec une vision sur un horizon de un an (court terme). En plus de
celles-ci, il sera présenté une méthode de calcul de risque à un an basée sur la volatilité
des facteurs de développement. Dans l’optique de travailler sur une année calendaire et
de mesurer les éventuels chocs pouvant impacter la nouvelle année, nous allons décrire
un outil permettant de diagnostiquer les tendances impactant les années calendaires
(la méthode de Zenwirth) et une méthode permettant de mesurer le risque de taux
d’intérêt sur un horizon de un an.

Abstract. The quantitative impact studies (QIS) whose lattest version (QIS 4) has
just finished, aims to calibrate the different parameters necessary for the calculation
of the Solvency Capital Requirement (SCR). From the definition of the Solvency Di-
rective framework, the SCR is parametrized to take into account the losses for the
next 12 months. Nevertheless, in non life insurance reserving, the classical actuarial
methods measure risk until ultimate development of losses and not only for a calendar
year. This leads to an overparametrization of the reserve risk, particularly on long tail
business.
The purpose of this report is to adapt reserving methods like Chain Ladder, Bornhuetter-
Ferguson or the bootstrap method to measure the one year reserve risk. All of these
methods are fully describe in their classical version (long terme view) and in their
modified one (short term view). Moreover, it will be presented a method of calculation
of the one year risk based on the volatility on the link ratio. Always with the view of
working on a one year time horizon, we have described a tool to diagnostic calendar
years trends (Zenwirth method) and a method which allows for the measurement of
the impact of interest rate risk in a one year time horizon.

2
Table des matières

1 Définition du risque à un an 10

I Méthodes de type Chain Ladder 11

2 Autour du modèle de Mack 12


2.1 Le modèle de Mack . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.2 Claims Development Result (CDR) . . . . . . . . . . . . . . . . . 18
2.2.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.2.2 Erreur de prédiction conditionnelle des CDR . . . . . . . 20
2.2.3 Approximation des formules de la MSEP des CDR . . . . 23
2.2.4 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

3 Méthodes Bootstrap 32
3.1 Méthode du bootstrap . . . . . . . . . . . . . . . . . . . . . . . . 32
3.2 Modification de la méthode du bootstrap pour l’obtention du
risque à un an . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.2.1 Méthode directe . . . . . . . . . . . . . . . . . . . . . . . 36
3.2.2 Méthode récursive . . . . . . . . . . . . . . . . . . . . . . 37

II Interlude : Risques calendaires et Impact de chocs


de taux sur un an 39

4 Modèles linéaires sur les log-incréments 40


4.1 Méthode de Christophides . . . . . . . . . . . . . . . . . . . . . . 41
4.1.1 Description de la méthode . . . . . . . . . . . . . . . . . . 41
4.1.2 Mesure du risque à un an . . . . . . . . . . . . . . . . . . 45
4.2 Méthode de Zenwirth . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.2.1 Un exemple instructif . . . . . . . . . . . . . . . . . . . . 49
4.2.2 Etude des tendances sur notre triangle de données . . . . 53

5 Impact sur un an du risque de taux 58


5.1 Au niveau des provisions économiques . . . . . . . . . . . . . . . 58
5.2 Au niveau des provisions comptables . . . . . . . . . . . . . . . . 63

3
III Méthodes de type Bornhuetter Ferguson 64
6 Un modèle de Bornhuetter Ferguson stochastique 65
6.1 Méthode de Bornhuetter-Ferguson . . . . . . . . . . . . . . . . . 65
6.2 Modèle de calcul de la volatilité à partir du loss ratio combiné . . 66
6.2.1 Modélisation de la volatilité . . . . . . . . . . . . . . . . . 67
6.2.2 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
6.2.3 Prise en compte d’un facteur de queue . . . . . . . . . . . 71

7 Mesure du risque à un an à partir de la volatilité des facteurs


de développement 73
7.1 Risque de process . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
7.2 Risque de paramètre . . . . . . . . . . . . . . . . . . . . . . . . . 76
7.3 Risque systématique . . . . . . . . . . . . . . . . . . . . . . . . . 77
7.4 Volatilité total . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
7.5 Détermination de la distribution des réserves . . . . . . . . . . . 79

8 Modèles bayésiens 82
8.1 Markov chain Monte Carlo (MCMC) . . . . . . . . . . . . . . . . 82
8.2 Modèles bayésiens implémentés sous WinBUGS . . . . . . . . . . 84
8.2.1 Un modèle bayésien pour la méthode de Chain Ladder . . 84
8.2.2 Un modèle bayésien pour la méthode de Bornhuetter-
Ferguson . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
8.2.3 Modification de ces méthodes pour l’obtention du risque
à un an . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
8.3 Modèle GLM bayésien de Verall pour la méthode de Bornhuetter-
Ferguson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94

9 Synthèse des résultats 98

Annexes 101

A Erreur d’estimation dans le modèle de Mack 101


A.1 Version récursive du modèle de Chain Ladder . . . . . . . . . . . 101
A.2 Mean square Error of prediction . . . . . . . . . . . . . . . . . . 102
A.2.1 Approche 1 . . . . . . . . . . . . . . . . . . . . . . . . . . 103
A.2.2 Approche 2 . . . . . . . . . . . . . . . . . . . . . . . . . . 105
A.2.3 Approche 3 . . . . . . . . . . . . . . . . . . . . . . . . . . 105
A.2.4 Comparaison des trois premières approches . . . . . . . . 106
A.2.5 L’approche bayésienne d’A. Gisler . . . . . . . . . . . . . 107
A.2.6 L’approche bayésienne de M. Wüthrich . . . . . . . . . . 110
A.3 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111

B Estimation de la variance des pertes sur une année calendaire


(preuve de la prop. 6.2.1) 112

C Codes relatifs à l’implémentation du bootstrap sur R 115


C.1 Bootstrap classique . . . . . . . . . . . . . . . . . . . . . . . . . . 115
C.2 Modifications relatives à l’obtention du risque à un an . . . . . . 117

D Codes R relatifs à la méthode de Christophides 120

4
E Codes WinBUGS 123
E.1 Code relatif à la Bayesian p-value . . . . . . . . . . . . . . . . . 123
E.2 Codes relatifs à la méthode de Chain Ladder bayésienne . . . . . 124
E.2.1 A l’ultime . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
E.2.2 A un an . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
E.3 Codes relatifs à la méthode de Bornhuetter Ferguson bayésienne 127
E.3.1 A l’ultime . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
E.3.2 A un an . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129

F Simulation sur un autre jeu de données 131


F.1 Résultats obtenus - commentaires . . . . . . . . . . . . . . . . . . 132
F.2 Code relatif à la méthode bayésienne de Verall . . . . . . . . . . 134

5
Introduction

L
Tolle, lege

’approche du risque par année calendaire consiste à analyser le risque


au niveau de l’année comptable. Elle peut être utilisée comme me-
sure de l’évaluation des performances à court terme. Cette approche
est adaptée à la détermination du capital économique, c’est-à-dire à
la différence entre la moyenne et le percentile 99.5% de la distribution de la
société toute entière (en tenant compte de tous les risques possibles sur le passif
et l’actif), et à la détermination de la marge de solvabilité, c’est-à-dire, à la
probabilité que la société soit solvable dans 99,5% des cas à la fin de l’année qui
suit l’année en cours.
Classiquement, le provisionnement étudie l’incertitude sur la totalité du dévelop-
pement des sinistres jusqu’aux sinistres ultimes (full run off ). Cette approche
constitue une vision à long terme. Celle-ci est très importante pour des questions
de solvabilité et toutes les méthodes de provisionnement actuelles se concentrent
sur cette vue à long terme. Dans ce mémoire, on propose de se concentrer plutôt
sur une vision à court terme. Celle-ci est très importante pour les raisons sui-
vantes :
– Si le comportement à court terme n’est pas adéquate, la compagnie n’a que
faire d’une vision à long terme puisqu’elle sera déclarée insolvable avant qu’elle
n’y parvienne.
– Une vision à court terme est adaptée aux décisions de management, ainsi
qu’à la majorité des actions prises par une compagnie d’assurance, comme la
tarification des produits d’assurance, les ajustements de primes, ou la clôture
des états et bilans financiers.
– Les performances à court terme des compagnies d’assurance sont attendues
et analysées par les autorités de régulation, les clients, les investisseurs, les
actionnaires, les agences de notations, etc.

Par ailleurs, dans le contexte de Solvency II et du questionnaire QIS 3, une étude


de l’AISAM-ACME a pointé le niveau élevé de la calibration du risque de réserve
pour le calcul du SCR. C’est le cas en particulier pour les branches longues en
assurance non vie, comme la responsabilité civile ou pour la branche workers
compensation. Rappelons que l’AISAM-ACME représente 80% des sociétés d’as-
surance mutuelles en Europe.
On peut lire en effet dans la directive européenne sur Solvency II (Solvency II
draft Directive framework cf. [25]) à la page 12, la définition du SCR suivante :
The Solvency Capital Requirement corresponds to the economic capital a (re)in-
surance undertaking needs to hold in order to limit the probability of ruin to

6
0.5%, i.e. ruin would occur once every 200 years (see Article 101). The Sol-
vency Capital Requirement is calculated using Value-at-Risk techniques, either
in accordance with the standard formula, or using an internal model : all poten-
tial losses over the next 12 months, including adverse revaluation of assets and
liabilities, are to be assessed. The Solvency Capital Requirement reflects the true
risk profile of the undertaking, taking account of all quantifiable risks, as well
as the net impact of risk mitigation techniques.

Le risque de réserve est alors défini comme une partie du risque de souscrip-
tion (qui couvre le risque sur les primes et sur les réserves) comme suit :
Underwriting risk means the risk of loss, or of adverse change in the value of
insurance liabilities, due to inadequate pricing and provisioning.

Ainsi, le risque de réserve capture le risque provenant


– d’une période d’occurrence de un an, pendant laquelle un évènement peut se
produire
– et d’une période pendant laquelle l’évènement impacte les réserves et les
conséquences que cela entraı̂ne sur le montant des provisions ultimes.
On peut penser, par exemple, à une décision jurisprudentielle. Cette approche
est très différente des méthodologies actuarielles classiques qui capturent des
évènements inattendus intervenant durant toute la durée de vie du portefeuille.
Ce type de risque est quant à lui pris en compte dans Solvency II dans le calcul
du risque de marge, détaillé dans la remarque suivante.
Remarque 0.0.1. Le risque de réserve ne doit pas être confondu avec celui du
risque de marge, qui mesure aussi le risque de réserve au bilan, mais n’a pas
le même horizon que le risque de réserve. Il est défini ainsi à la page 100 du
Solvency II draft Directive framework par :
The risk margin shall be such as to ensure that the value of the technical provi-
sions is equivalent to the amount insurance and reinsurance undertakings would
be expected to require in order to take over and meet the insurance and rein-
surance obligations. The risk margin shall be calculated by determining the
cost of providing an amount of eligible own funds equal to the Solvency Capi-
tal Requirement necessary to support the insurance and reinsurance obligations
over the lifetime thereof.

Le risque de marge est le coût financier de l’incertitude des provisions sur toute
la durée de vie du portefeuille.
Des participants à QIS 3 ont émis des objections concernant les calibrations
de Solvency II du risque de réserve qu’ils considèrent comme trop élevées. Par
exemple, la volatilité choisie pour la branche Responsabilité civile est de 15%
pour QIS 3 et QIS 4, pour la branche worker compensation, elle est de 15% pour
QIS 3 et de 10% pour QIS 4. Cette calibration semble plus consistante avec une
approche à l’ultime plutôt que sur un horizon de un an. Par conséquent, si le
risque de réserve est sur calibré, cela entraı̂ne un niveau de prudence inapproprié
lors de l’application de la méthodologie Coût du Capital (CoC) de Solvency II.
L’étude de AISAM-ACME (cf [1]) sur l’évaluation du risque de réserve et du
risque de marge sous Solvency II, qui a réuni une dizaine de participants sur 7
pays, a conclu que la calibration du risque de réserve pour la formule standard
serait plus appropriée avec une approche sur un horizon de un an, si elle était

7
divisée par 2 ou 3.
De plus, les participants ont calculé le CoC en utilisant la calibration QIS 3
et leur calibration obtenue à l’aide de modèles sur un horizon de un an. Ces
résultats ont été traduits en un pourcentage du best estimate et en une VaRx%
de sorte que x produise le même montant que le CoC. En utilisant la calibration
QIS 3 pour le risque de réserve, le risque de marge est équivalent à une VaR qui
est en général au dessus de 90%, voire de 95%. Rappelons que la première étude
quantitative QIS 1 fixée un risque de marge avec une VaR75% . En considérant
la calibration sur des méthodes à horizon un an, la méthode du Coût de Capital
CoC fournit des VaR dont le niveau de prudence se situe entre 70 et 85%.
La calibration du risque de réserve, en concordance avec la définition du SCR,
doit donc refléter l’approche sur un an, plutôt qu’à l’ultime. Ainsi, il est impor-
tant de ce point de vue, de développer et de décrire des méthodes actuarielles
idoines.
La dernière étude quantitative QIS 4 n’a toujours pas tranché le problème,
car les calibrations, même si elles sont légèrement plus faibles que pour QIS
3, restent à des niveaux élevés. La question a été soulevée (cf [7] page 34-35
TS.XIII.B.12) lors des échanges questions-réponses, et le sujet semble être ac-
tuellement toujours à l’étude :
Question : We ask for more explanations about the standardized method for
the calculation of the entity specific standard deviation for reserve risk :
We need an explicit definition of the RunOff y , which is the « absolute run-off
result of the undiscounted net best estimate provision PCOy » : Is it the dif-
ference between the ultimate cost estimated at year 2006 and the ultimate cost
estimated at year 2007 ?
What is the year y : is it the occurrence year (or underwriting year for decen-
nial insurance) or the accounting year ? Indeed in the AISAM/ACME study it
was the accounting year, and the run-off result of year y was calculated for the
whole provision (booked at year y for all occurrence years). It was calculated for
many accounting years y, and the entity specific standard deviation was equal to
the standard deviation of the run-off results calculated for years y (See page 15
of the AISAM/ACME study). In QIS4 it seems y is the occurrence (or under-
writing) year ?
Answer : RunOffy is meant to be the difference between
the best estimate claims provision (or estimated ultimate) at the beginning of
year y
the sum of the best estimate claims provision at the end of year y and the
payments made during year y which correspond to the claims provision at the
beginning of the year (i.e. payments which are not subject to premium but re-
serve risk).
RunOffy relates to the risk of a run-off loss of the whole technical provisions
during a one year time horizon. In that sense, y is the end point of an obser-
ved one year time horizon. To increase clarity, the notation RunOffy might be
replaced by RunOff y,y+1 . Accordingly, PCOy means « PCO at the beginning of
year y »in TS.XVII.D.9.
As laid out in TS.XIII.B.37, non-life risk assessment is still a work in progress,
in particular for long tailed business. Accordingly, the methodology in TS.XVII.D
will need to be reviewed thoroughly following QIS4.

Il faut noter enfin l’utilisation possible de modèles internes pour évaluer le SCR.

8
Cette solution est acceptable si la formule standard (le « benchmark ») n’est pas
trop éloignée du « risque réel »choisi. Plus grand est l’écart entre le modèle in-
terne et la formule standard et plus difficile sera la validation de celui-ci. La
calibration de la formule standard reste donc un enjeu crucial, spécialement
pour les assureurs travaillant sur des branches longues.

Dans ce mémoire, nous commencerons par définir l’approche à un an, puis


décrirons différentes méthodes actuarielles classiques de provisionnement et le
moyen de les adapter au calcul du risque sur un horizon de un an. Nous nous
intéresserons dans une première partie à l’approche classique de Chain Ladder.
Le risque à l’ultime (l’erreur de prédiction) s’obtient en utilisant un modèle
stochastique sous jacent, comme la méthode de Mack ou la technique du boots-
trap. Une approche similaire au modèle de Mack, développée par M. Merz et
M. Wütrich, appelé Claims Development Result est d’abord présentée, suivie de
l’adaptation de la méthode du bootstrap pour capturer le risque à un an.
Les méthodes du type Chain Ladder présentent l’inconvénient de ne pas pou-
voir tenir compte de données exogènes, ce qui n’est pas le cas de la méthode de
Bornhuetter-Ferguson. En deuxième partie, nous présentons alors des méthodes
permettant d’incorporer des avis d’experts. Cela passe par la connaissance d’une
estimation des ultimes (Borhuetter-Ferguson) ou par l’adaptation de modèles
plus complexes de type bayésien. Une présentation de tels modèles pour le cal-
cul à l’ultime et à un an se trouve en dernière partie. Celle-ci débute par le
calcul du risque à un an par un modèle stochastique sous jacent à la méthode
de Bornhuetter Ferguson développé par Munich Re.
Entre ces deux parties, nous nous sommes interrogés sur l’impact d’un choc sur
une année calendaire. Ce type de phénomène est très lié à l’étude du risque à un
an. La méthode de Zenwirth, basée sur la régression des log-incréments, est tout
à fait adaptée pour les étudier. Après une présentation de son cas particulier, la
méthode de Christophides, et de son adaptation pour calculer le risque à un an,
on détaille comment la méthode de Zenwirth permet de détecter des tendances
sur les années calendaires.
Dans cette partie, on a cherché à estimer l’effet d’un choc de taux ou de (sur) in-
flation sur le calcul des provisions économiques. En effet, comptablement, il est
interdit d’escompter les provisions, sauf pour des branches longues impliquant
des rentes. Toutefois, d’un point de vue économique, il est nécessaire d’en tenir
compte afin d’avoir une vision plus juste des provisions et des produits finan-
ciers attendus. On termine cette deuxième partie par expliquer la méthodologie
à suivre pour comprendre quel impact peut avoir un choc de taux, de table et
de mortalité sur un an sur un portefeuille de rentes.
Tout au long de ce mémoire, des applications numériques seront effectuées sur
des données réelles et seront commentées.

9
Chapitre 1

Définition du risque à un an

O n se donne un triangle de données cumulées Cij avec 1 ≤ i ≤ I et


1 ≤ j ≤ J. Le montant C biJ indique la valeur de la prédiction de la
charge ultime pour l’année d’accident i.
Dans une vision à l’ultime, on est intéressé par la variabilité de cet
estimateur par rapport à sa valeur à l’ultime, alors que dans une optique à un
an, on est intéressé par la variabilité de cet estimateur par rapport à sa valeur
dans un an. Soit C b (0) la valeur de cet estimateur aujourd’hui et C b (1) sa valeur
iJ iJ
(1) (1)
b −C b (0) , est une
dans un an. La variation calendaire, définie par CYiJ = C iJ iJ
(1)
variable aléatoire. Le risque sur les réserves à un an est défini par Var(CYiJ ).
(1)
En premier lieu, on a besoin d’un estimateur (un prédicteur en fait) CY d iJ
(1)
de la variable aléatoire CYiJ . Le risque à un an est alors un estimateur de
l’écart quadratique moyen (la mean square error of prediction) de cette variable
aléatoire. En supposant que les charges ultimes projetées ne sont pas biaisées,
la valeur attendue de cette variable aléatoire est nulle :
       
(1) b (1) − C
b (0) = E C b (1) − E C b (0) = CiJ − CiJ = 0.
E CYiJ = E C iJ iJ iJ iJ

Donc, un prédicteur de la variation calendaire est la constante nulle. La mean


square error of prediction, qui est par définition, le carré de la différence entre
la variable aléatoire et son prédicteur, est égale à
" 2 # 
  (1)
2   
(1) (1) (1) (1)
MSEP CY iJ =E CY iJ − CY
d
iJ = E CY iJ = Var CY iJ .

Une estimation du risque à un an est une estimation de la variance de la variation


calendaire de l’estimation des charges ultimes. Le but est alors de modifier les
méthodes stochastiques classiques de provisionnement dans l’optique de mesurer
ce risque à un an.

10
Première partie

Méthodes de type Chain


Ladder

11
Chapitre 2

Autour du modèle de Mack

D
Res, non verba

ans ce chapitre, il s’agit de comprendre comment peut s’adapter la


méthode de Mack pour estimer le risque à un an. Après avoir brièvement
rappelé le modèle de Mack, on décrira dans un deuxième temps l’incer-
titude liée à la différence entre deux estimations successives du mon-
tant des réserves : il s’agit des Claims Development Result.

2.1 Le modèle de Mack


Le modèle de Mack est un modèle stochastique qui sous-tend la méthode déter-
ministe de Chain Ladder. Comme cette dernière, il s’applique sur le triangle des
montants cumulés. Il s’agit d’un modèle non paramétrique, au sens où aucune
hypothèse de distribution n’est adoptée sur les composantes du triangle, et d’un
modèle conditionnel, au sens où les espérances sont prises conditionnellement
au triangle supérieur (ie. aux informations passées). On note Cij le montant
du sinistre pour l’année d’accident i ∈ {1, . . . , I} et l’année de développement
j ∈ {1, . . . , J}. Ce modèle est basé sur les hypothèses suivantes :

Hypothèses 2.1.1.
– (H1) Indépendance des exercices d’origine : Cij est indépendant de Ckj pour
i 6= k et j ∈ {1, . . . , J}
– (H2) ∀j ∈ {1, . . . , J}, ∃fj | ∀i ∈ {1, . . . , I}, E[Ci,j+1 |Ci1 , . . . , Cij ] = fj Cij
– (H3) ∀j ∈ {1, . . . , J}, ∃σj | ∀i ∈ {1, . . . , I}, Var[Ci,j+1 |Ci1 , . . . , Cij ] =
σj2 Cij .
Remarque 2.1.1. L’hypothèse (H3) est une hypothèse analogue à l’hypothèse
(H2), mais sur la variabilité du triangle. Elle permet de calculer l’erreur de
prédiction. Graphiquement, (H2) s’interprète, pour j fixé, en l’alignement des
couples
(Cij , Ci,j+1 )i=0,...,I−j .
Quant à (H3), cela signifie que, pour j fixé, les résidus

Ci,j+1 − fbj Cij


p , i = 0, . . . , I − j,
σj Cij

12
(où fbj est un estimateur du paramètre fj ) ne doivent faire apparaı̂tre aucune
structure non aléatoire.
Mack a prouvé dans son article (cf. [16]) les résultats suivants :
Théorème 2.1.1. (i) On note D := {Cij , i + j ≤ I + 1}. On a :
J−1
Y
E[CiJ |D] = fj Ci,I−i+1 .
j=I−i+1

(ii) Les estimateurs de Chain Ladder


I−i
X
Ci,j+1
i=1
fbj = I−i
X
Ci,j
i=1

sont des estimateurs sans biais de fj et sont non corrélés.

Théorème 2.1.2. (i) L’estimateur C biJ = fbI−i+1 . . . fbJ−1 Ci,I−i+1 est un esti-
mateur sans biais de E[CiJ |D].
(ii) L’estimateur Rbi du montant de provision E[Ri |D] avec Ri = CiJ − Ci,I−i+1
définit par Ri = CiJ − Ci,I−i+1 est un estimateur sans biais.
b b

Théorème 2.1.3. Un estimateur de σj2 pour j = 1, . . . , J − 2 est donné par :


J−j  2
1 X Ci,j+1
σ
bj = Cij − fbj ,
J − j − 1 i=1 Cij

avec, de plus,  4 
σ
bJ−2 2 2
σ
bJ−1 = min 2 , max(b
σ J−3 , σ
b J−2 ) .
σ
bJ−3

L’incertitude dans l’estimation de Cij par Cbij est traditionnellement mesurée


par l’écart quadratique moyen (conditionnellement à D) :
 2 
MSEP(CiJ ) := E CiJ − CiJ
b b D
 2
= Var(CiJ |D) + E[CiJ |D] − C
biJ .
| {z } | {z }
process variance
estimation error

Cette écriture décompose la MSEP en deux termes, l’erreur de process qui me-
sure la variabilité interne du modèle (quel est l’écart avec la moyenne ?) et
l’erreur d’estimation, liée à l’estimation des vraies facteurs de développement
fj . L’erreur de process provient du caractère stochastique du processus CiJ et
peut-être calculé explicitement. L’erreur d’estimation vient du fait que l’on a
estimé les coefficients de Chain Ladder réel fj par fbj . C’est cette dernière erreur
qui pose en fait les principales difficultés. Quelques rappels et commentaires sur
l’erreur d’estimation dans le cadre du modèle de Mack sont rappelés en annexe
A. La MSEP peut s’estimer à l’aide de la formule suivante :

13
Théorème 2.1.4. (i) Pour chaque année d’accident i, il vient :
 

J−1
 
2
X bj2
σ  1 1 
MSEP(
\ R bi ) = C + I−j .
biJ  

j=I−i+1 fb2
j
Cbij X 
 Ckj 
k=1

Cette expression est la somme de deux termes principaux, dont le premier cor-
respond à l’erreur de process et le second à l’erreur d’estimation.
(ii) Un estimateur de la MSEP agrégée du montant total des provisions pour
l’ensemble du portefeuille est donné par :
 

I
! I 
 J J−1

X X X X bj2
σ 
MSEP
\ R = MSEP(R
b i ) + 2C C .
bi  biJ bkJ 
 I−j 
i=2 i=2  k=i+1 j=I−i+1 b2
X
f Clj 
j
l=1

Exemple 2.1.1. Dans la suite du rapport, nous utiliserons les données présentées
à la page suivante.

14
AY/DY 1 2 3 4 5 6 7 8 9 10 11 12
i/k j=1 j=2 j=3 j=4 j=5 j=6 j=7 j=8 j=9 j=10 j=11 j=12
i=1 0.78 3.69 80.41 1,161.81 1,417.75 1,185.93 1,468.08 1,634.68 1,965.64 2,586.03 3,162.91 3,795.08
i=2 13.53 286.25 423.31 653.52 828.38 1,365.25 1,682.87 1,949.71 2,194.54 2,584.03 2,803.33 3,592.90
i=3 266.24 496.37 559.44 514.70 1,729.59 1,985.30 1,953.91 2,814.16 3,344.12 5,462.98 7,213.18 7,693.99
i=4 152.41 285.64 247.43 600.02 863.40 2,334.32 2,838.70 3,623.71 4,420.17 6,417.69 6,866.58 8,006.83
i=5 167.40 333.30 976.91 1,368.29 1,835.96 2,562.60 2,670.70 3,308.59 4,516.72 5,708.82 6,605.09 7,829.11
i=6 2.03 420.55 597.45 663.77 1,014.91 1,635.49 2,285.81 5,652.14 6,662.27 7,854.22 8,411.08 9,027.45
i=7 0.69 7,222.35 8,445.33 9,426.32 10,287.86 10,730.20 7,628.96 8,892.89 11,168.48 14,206.44 15,365.34 17,028.30
i=8 3.97 234.29 1,139.88 1,517.21 3,176.39 4,186.06 6,492.90 8,810.42 11,086.99 13,684.20 15,279.40 18,736.54
i=9 0.25 559.04 3,059.85 4,997.69 6,946.12 8,250.87 11,550.23 15,412.06 20,019.46 23,080.06 26,991.12 31,461.97
i=10 17.97 358.96 1,081.21 3,522.72 8,088.15 12,042.87 16,793.43 22,199.69 30,933.27 34,637.65 39,820.71 49,963.24
i=11 180.39 245.24 533.22 2,935.46 7,702.01 10,461.77 13,917.55 17,749.81 24,373.09 28,644.87 33,984.40
i=12 84.81 1,722.60 3,412.29 7,810.25 11,367.66 16,532.00 22,085.18 26,798.15 34,467.87 39,884.36
i=13 0.05 901.51 3,672.03 5,174.45 10,264.82 14,737.59 22,741.11 27,442.59 34,787.89
i=14 60.23 2,607.29 10,212.05 21,977.25 32,859.19 46,222.90 57,855.39 71,066.05
i=15 802.36 9,912.44 18,346.54 33,964.82 59,128.90 84,212.96 107,113.49
i=16 1,978.40 9,607.46 20,137.38 37,122.08 64,141.48 83,669.17
i=17 100.30 3,147.35 10,095.12 22,279.05 30,503.34
i=18 199.86 1,182.13 1,700.91 2,592.05
i=19 0.00 1.03 827.70
i=20 2.01 2.40

15
i=21 0.20
LDFs 9.800 2.164 1.868 1.620 1.363 1.278 1.264 1.298 1.191 1.149 1.186 1.162
CDFs 759.427 77.493 35.805 19.165 11.833 8.682 6.795 5.376 4.141 3.477 3.026 2.552
2
σk 4,857,164.30 38,751 1,876.56 833.25 280.78 396.69 300.32 48.76 121.60 40.23 66.04 107.31
AY/DY 13 14 15 16 17 18 19 20 21
i/k j=13 j=14 j=15 j=16 j=17 j=18 j=19 j=20 j=21
i=1 4,505.27 4,993.13 5,901.05 5,969.02 6,359.25 6,549.35 7,359.44 8,087.60 9,133.17
i=2 4,685.34 4,923.93 5,298.98 4,926.78 5,276.39 5,933.75 9,111.70 9,752.54
i=3 10,320.56 11,450.67 11,722.77 12,490.07 13,198.26 13,954.51 14,101.15
i=4 8,300.71 9,342.08 10,331.80 10,786.63 11,662.18 12,674.20
i=5 9,215.88 10,258.24 11,457.86 11,957.46 13,389.07
i=6 10,342.52 12,811.56 13,735.81 16,069.38
i=7 18,877.71 21,115.09 24,727.55
i=8 23,812.16 27,166.96
i=9 34,494.74
i=10
i=11
i=12
i=13
i=14
i=15
i=16
i=17
i=18
i=19
i=20
i=21
LDFs 1.133 1.111 1.064 1.081 1.072 1.156 1.083 1.129 1.000
CDFs 2.195 1.937 1.744 1.639 1.516 1.414 1.223 1.129 1.000
2
σk 23.60 35.72 54.93 6.81 10.42 578.56 3.33 0.02 0.00

Tab. 2.1 – Triangle de données cumulés


On peut lire sous le triangle le montant des coefficients de développement de
Chain Ladder (LDFs) et les facteurs de développement cumulés (CDFs). Le pa-
ramètre σj de variance du modèle de Mack y figure aussi en dernière ligne. Ces
paramètres ont été calculés avec les formules standards, rappelées supra.
On remarque que les données de ce triangle sont hétérogènes ou du moins
semblent l’être( !). Concernant la première année de développement, les charges
sur les différentes années d’accident sont très différentes, allant de montants
quasi-nuls à des montants de presque 2000. Les années d’accident 6 à 9 in-
clus ont des charges initiales très faibles pouvant se développer de manière
très différentes l’année suivante ; par exemple, pour i = 7, on a Ci1 = 0.69
et Ci2 = 7 222 ! Certaines années ont des développements similaires bien que le
montant des charges initiales aient pu varier du simple au double comme par
exemple l’année d’accident 15 et 16. A remarquer la valeur nulle de Ci,19 .
Au bout de 21 ans, le développement n’est pas terminé, mais on n’appliquera pas
de tail factor dans tout ce qui va suivre. De plus, à regarder les trois dernières
années d’accident et leur développement, on pourrait croire à une cessation de
l’activité, à un run off. Mais est-ce bien le cas, car une situation semblable
semble s’être déjà produite pour les années d’accident 6 à 9 ?
Ces données sont réelles, mais la source restera confidentielle. Elles n’ont pas été
retouchées et ont été choisies au hasard. Elles sont particulièrement pénibles à
traiter car elles présentent une certaine hétérogénéité, des incréments négatifs et
même une valeur nulle. Mais elles correspondent à la réalité des pratiques et non
à un exemple d’école. Le contexte et le domaine d’activité liés à ces données me
sont inconnus, de même donc que toutes les informations extérieures qui pour-
raient y être reliées comme des benchmarks d’activité, le loss ratio attendu, le
montant des primes émises pour chaque millésime, etc. La seule information
dont je dispose est qu’il s’agit de données américaines provenant de la branche
workers compensation.
Dans ce rapport, nous appliquerons brutalement les méthodes classiques bien
que certaines hypothèses ne soient pas toujours vérifiées par nos données. C’est
le travail de l’actuaire que de procéder aux sélections nécessaires (si on applique
la méthode de Chain Ladder par exemple) ou d’introduire un avis d’experts afin
que les résultats obtenus ne soient pas déconnectés de leur contexte.
On peut néanmoins vérifier graphiquement si les hypothèses de Chain Ladder
sont vérifiées. On présente les graphiques pour j = 1 et j = 5 pour l’hypothèse
(H2) :

Puis pour l’hypothèse (H3) :

16
On remarque que les hypothèses ne sont pas vérifiées pour j = 1, car les points
(Ci1 , Ci,2 )i=0,...,I−1 ne sont pas vraiment alignés et que les résidus forment une
structure qui ne semble pas très aléatoire. C’est d’ailleurs cette première année
de développement qui pose problème. Pour les années suivantes, à partir de
j = 5, les hypothèses sont raisonnablement vérifiées.
Dans cet exemple et les suivants, pour ne pas avoir à manipuler des nombres
trop volumineux, on exprimera la standard error of prediction, définie par la
racine de l’erreur de prédiction plutôt que la MSEP elle-même. L’application
des formules classiques du modèle de Mack nous permet d’obtenir les résultats
suivants :

AY Ci,J Ri √ Modèle
√ de Mack √
Process Risk Parameter risk Total risk
i=1 9,133 0 - - -
i=2 11,013 1,261 4 10 17
i=3 17,248 3,147 245 227 334
i=4 17,927 5,253 3,322 2,305 4,043
i=5 20,295 6,906 3,573 2,630 4,437
i=6 26,341 10,272 4,102 3,426 5,344
i=7 43,135 18,407 5,586 5,746 8,013
i=8 52,630 25,463 6,405 7,086 9,552
i=9 75,731 41,237 7,879 10,254 12,932
i=10 127,483 77,520 11,417 17,607 20,985
i=11 102,820 68,836 10,943 14,332 18,032
i=12 138,693 98,808 13,275 19,437 23,537
i=13 144,048 109,260 15,303 20,469 25,557
i=14 382,075 311,009 26,087 54,558 60,474
i=15 727,880 620,767 47,184 106,687 116,655
i=16 726,378 642,709 61,273 109,189 125,206
i=17 360,948 330,445 50,111 55,070 74,457
i=18 49,676 47,084 25,456 7,904 26,655
i=19 29,636 28,808 30,937 5,274 31,383
i=20 186 184 11,196 91 11,196
i=21 149 149 76,270 532 76,272
covariance 278,989
Total 2,447,523 132,497 431,970 451,844
Les montants de sinistres ultimes Ci,J sont décrits en colonne 2 par année
d’accidents, de même que le montant des provisions Ri dans la colonne sui-

17
vante. On obtient, en particulier, un montant de provisions (obtenu de ce fait
avec la méthode de Chain Ladder) de 2 447 523. Les trois dernières colonnes
détaillent l’erreur de prédiction, ventilée en erreur de process et erreur d’estima-
tion, par année d’accident. L’erreur standard de prédiction agrégée par année
d’accident est de 451 844, se répartissant pour 132 497 en erreur de process
et pour 431 970 en erreur d’estimation. L’agrégation de cette erreur n’est pas
seulement la somme des erreurs par année d’acident (cf. théorème 2.1.4), mais
un terme de covariance s’y ajoute, valant ici 278 989.

2.2 Claims Development Result (CDR)


Nous suivrons l’approche développée par M. Wütrich et M. Merz dans [19], [22]
et [20]. Une approche équivalente basée sur la version récursive du modèle de
Chain Ladder (cf. Annexe A, Hyp. A.1.1) produisant des résultats et des for-
mules semblables a été obtenue par M. De Felice et par F. Moriconi (cf. [9]).
Sous certaines hypothèses, la méthode de Chain Ladder permet d’estimer les
montants des sinistres ultimes. La différence entre deux estimations successives
du best estimate au temps I et I + 1 est appelée claims development result
(CDR). La réalisation des CDR a un impact direct sur le compte de résultat et
sur la solidité financière d’une compagnie d’assurance.
Il s’agit d’analyser formellement l’incertitude du claims development result,
c’est-à-dire l’incertitude liée aux fluctuations possibles autour de sa prédiction.
Nous répondrons en fait à deux questions :
– En général, on prédit les claims development result pour l’année calendaire
(I, I +1] au temps I par 0. On peut analyser l’incertitude de cette prédiction en
se posant la question suivante : « de combien la réalisation des CDR déviera-
t-elle par rapport à 0 » ? Il s’agit d’une vision prospective.
– Dans le compte de résultat au temps I +1, on obtient une observation pour les
CDR. On peut analyser si cette observation est dans un intervalle raisonnable
autour de 0. Il s’agit d’une vision rétrospective.

2.2.1 Généralités
On se place au temps t = I et on considère l’année calendaire (I, I + 1] sui-
vante. De manière peu formelle, les CDR correspondent aux sinistres encourus
les années précédentes, c’est-à-dire à la différence entre les réserves au temps
t = I et au temps t = I + 1, ajustée des paiements effectués durant l’année
calendaire (I, I + 1]. Nous supposerons que les hypothèses de la méthode de
Chain Ladder sont vérifiées.
Nous noterons Cij les charges cumulées pour l’année de déclaration i ∈ {1, . . . , I}
et l’année de développement j ∈ {1, . . . , J}. Nous supposerons pour simplifier
que I = J. Les informations connues au temps t = I sont inclues dans l’en-
semble :
DI := {Cij ; i + j ≤ I}.
Au temps t = I + 1, de nouvelles observations ont été obtenues et l’ensemble
des informations connues est :

DI+1 := {Cij ; i + j ≤ I + 1 et i ≤ I} = DI ∪ {Ci,I−i+1 ; i ≤ I}.

18
Plus formellement, cela signifie que l’on étend la tribu engendrée par les ob-
servations DI à la tribu engendrée par les observations DI+1 . Tout au long de
cette section, on se placera sous des hypothèses un peu plus strictes que les
hypothèses du modèle de Chain Ladder. Plus précisément, on supposera que :

Hypothèses 2.2.1. – Les payements cumulés Cij , pour i ∈ {1, . . . , I}, sont
indépendants.
– les (Cij )j=1,...,J forment une chaı̂ne de Markov et il existe des constantes
fj > 0 et σj > 0 telles que, pour tout 2 ≤ j ≤ J et 1 ≤ i ≤ I, on ait :
E(Cij |Ci,j−1 ) = fj−1 Ci,j−1
2
Var(Cij |Ci,j−1 ) = σj−1 Ci,j−1 .
Remarque 2.2.1. Cette hypothèse est un peu plus forte que celle de Mack,
qui supposait seulement que le premier et le second moment de Ci,j+1 ne
dépendaient que de Cij et non de Cil pour l < j.
Il est de plus facile de voir que ce modèle satisfait les hypothèses du modèle de
Chain Ladder et que l’on a :
J−1
Y J−1
Y
E[Ci,J |DI ] = Ci,I−i+1 fj et E[Ci,J |DI+1 ] = Ci,I−i+2 fj .
j=I−i+1 j=I−i+2

Les coefficients de Chain Ladder sont estimés par :


I−j
X
Ci,j+1 I−j
I i=1
X
fbj = où SjI = Ci,j
SjI i=1

et
I−j+1
X
Ci,j+1 I−j+1
i=1
X
fbjI+1 = où SjI+1 = Ci,j .
SjI+1 i=1

On montre (cf [16]) que les fbj sont des estimateurs sans biais de fj et sont non
corrélés. De plus, conditionnellement à Ci,I−i ,
I I I
C
bi,J = Ci,I−i+1 fbI−i+1 . . . fbj−1
est un estimateur sans biais de E[Ci,J |DI ] pour j ≥ I − i + 1 et, conditionnel-
lement à Ci,I−i+2 ,
Cb I+1 = Ci,I−i+2 fbI+1 . . . fbI+1
i,J I−i+2 j−1
est un estimateur sans biais de E[Ci,J |DI+1 ] pour j ≥ I − i + 2.
On note également que, étant donné Ci,I−i+1 ,
b DI = C
R I
bi,J − Ci,I−i+1
i

est un estimateur sans biais de E[RiI |DI ] et que étant donné Ci,I−i+2 ,
bDI+1 = C
R b I+1 − Ci,I−i+2
i i,J

est un estimateur sans biais de E[RiI+1 |DI+1 ].

19
Définition 2.2.1. Le CDR réel pour l’année d’accident i et l’année calendaire
(I, I + 1] est donné par

CDRi (I+1) = E[RiI |DI ]−(Zi,I−i+2 +E[RiI+1 |DI+1 ]) = E[Ci,J |DI ]−E[Ci,J |DI+1 ],

où Zi,I−i+1 désigne les payements incrémentaux.


Remarque 2.2.2. On remarque que E[CDRi (I+1)|DI ] = 0, ie pour les facteurs
de développement réels fj , le CDR attendu vu au temps I est nul par la méthode
de Chain Ladder (des prédictions successives génèrent une martingale).
Définition 2.2.2. Le CDR observable pour l’année d’accident i et l’année ca-
lendaire (I, I + 1] est donné par

CDR
[ i (I + 1) = R bDI+1 ) = C
bDI − (Zi,I−i+2 + R b I+1 .
bI − C
i i i,J i,J

Remarque 2.2.3. Le CDR réel CDRi (I + 1) est estimé par le CDR observable
CDR
[ i (I +1). Dans la prochaine section, on quantifiera la qualité de cette estima-
tion (vue prospective). De plus, le CDR observable CDR[ i (I + 1) est la position
qui apparaı̂t au compte de résultat au 31/12/I. Dans la prochaine section, on
quantifiera de même la qualité de cette position (vue rétrospective).

2.2.2 Erreur de prédiction conditionnelle des CDR


Comme les facteurs de développement fj ne sont pas connus, on connaı̂t seule-
ment le CDR observable et l’on n’est pas capable d’estimer le CDR réel. Le
[ i (I + 1) est un prédicteur DI -mesurable du CDR réel
CDR observable CDR
CDRi (I + 1). Au temps I, on peut mesurer la variabilité entre les CDR réels et
les CDR observables en considérant la MSEP (mean square error of prediction) :
Définition 2.2.3. On définit l’erreur de prédiction conditionnelle, notée MSEP
(mean square error of prediction) du CDR observable, par l’écart quadratique
moyen :
   2 
MSECDRi (I+1)|DI CDRi (I + 1) = E CDRi (I + 1) − CDRi (I + 1)
[ [ DI .

On mesure l’incertitude de la prédiction par la distance au sens de L2 (P ([.|DI ])).


On définit de même, la MSEP du CDR réel par
 2 
MSECDR
[ i (I+1)|DI (0) = E CDRi (I + 1) − 0
[ DI .

Remarque 2.2.4. (i) La première MSEP conditionnelle analyse la distance


entre le CDR réel et le CDR observable. Il s’agit de la vision rétrospective.
La deuxième MSEP est la vision prospective propre à la solvabilité, puisqu’elle
quantifie l’incertitude autour de 0 dans le budget pour les CDR à la fin de
l’année comptable. On rappelle que la marge de solvabilité doit contenir le ca-
pital nécessaire pour faire face à de possibles déviations du CDR autour de 0.
(ii) Comme CDRi (I + 1) est DI+1 -mesurable et de moyenne nulle conditionnel-
lement à DI , on a aussi la décomposition suivante :
 h i  
2
MSEP E CDRi (I + 1) DI = Var(CDRi (I+1)|DI )+E E[CDRi (I+1)|DI ] DI .
[ b \

20
Cette décomposition ne donne plus clairement une séparation entre l’erreur de
process et l’erreur d’estimation, car l’erreur de process influence aussi la volati-
lité de fbjI+1 et l’erreur d’estimation est alors sous estimée. Les deux termes de
la formule précédente sont évalués explicitement dans les deux lemmes suivants.
Lemme 2.2.1. Sous les hypothèses du modèle, « l’erreur de process »des CDR
pour l’année de survenance i ∈ {1, . . . , I} et l’année courante (I, I + 1], étant
donné les observations DI , est donnée par :
I
(σI−i+1 )2 /(fI−i+1
I
)2
Var(CDRi (I + 1)|DI ) = E[Ci,J |DI ]2 .
Ci,I−i+1

Un estimateur de l’erreur de process est obtenu par :


I
b 2 (b
σI−i+1 )2 /(fbI−i+1
I
)2
Var(CDR
d i (I + 1)|DI ) = Ci,J
Ci,I−i+1
avec
I−j  2
2 1 X Ci,j+1
bjI
σ = Ci,j − fbjI
I − j − 1 i=1 Ci,j

Preuve. Elle n’est pas difficile. On renvoie au lemme 4.2 de l’article [19]. 

Lemme 2.2.2. Sous les hypothèses du modèle, « l’erreur d’estimation »des


CDR pour l’année de survenance i ∈ {1, . . . , I} et l’année courante (I, I + 1],
étant donnée les observations DI , est donnée par :
 
2 bI 2 ∆
 I
E E[CDRi (I + 1)|DI ] DI = C
b \ i,J
b ,
i,J

avec
!2
σI
(b )2 /(fbI−i+1
I
)2
J−1
X CI−j+1,j (σbj I )2 /(fbjI )2
bI
∆ i,J = I−i+1 I + .
SI−i+1 j=I−i+2
SjI+1 SjI

Preuve. On renvoie à l’article [19]. 

MSEP des CDR réels


On peut écrire
   h i2
[ i (I + 1) = ΦIi,J + E CDR
MSEPCDRi (I+1)|DI CDR [ i (I + 1) DI ,

où
 
ΦIi,J = Var CDRi (I + 1) − CDR
[ i (I + 1) DI = Var(CDRi (I + 1)|DI )
   
[ i (I + 1) DI − 2Cov CDR
+ Var CDR [ i (I + 1), CDRi (I + 1) DI .

On a alors le résultat suivant, dont on trouvera la preuve dans [22] :

21
Lemme 2.2.3. L’estimateur de la MSE conditionnelle de l’estimateur des CDR
au temps t = I + 1 pour l’année courante (I, I + 1] et pour toute année de
survenance i ∈ {1, . . . , I} est :
   2  
I b Ii,J + ∆
b Ii,J ,
MSEP
\ CDR (I+1)|D CDR
i I
[ i (I + 1) = Cbi,J Φ

où Φb I = 0 et pour i > 1,


1,J
" # J−1
! !
I 2 bI 2
(b
σ
b I1,J = 1 + I−i+1 ) /(f I−i+1 ) Y σ I )2 /(fbI )2
(b
Φ 1 + l I+1 l CI−l+1,l −1 .
Ci,I−i+1 (Sl )2
l=I−i+2

L’agrégation autour des années d’accident doit tenir compte des corrélations
entre celles-ci. En effet, la même observation est utilisée pour estimer les coeffi-
cients de Chain Ladder et est appliquée à des années d’accident différentes. La
MSEP agrégée du CDR réel est estimée par :
Théorème 2.2.1. L’estimateur de la MSE conditionnelle des CDR réels agrégés
au temps t = I + 1 pour l’année courante (I, I + 1] et pour toute année de sur-
venance i ∈ {1, . . . , I} est :
I
! I
X X  
MSEP
\ PI CDR (I+1)|D
i=1 i I
CDR
[ i (I + 1) = \ CDR
MSEP [ i (I + 1)
i=1 i=1
X  
I bI b Ii + Λ
b Ii,J
+2 C
bi,J Ci,J Ψ
k>i>1

b I = 0 pour i > 1,
où Ψ i,1
! !−1
I
(b
σI−i+1 )2 /(fbI−i+1
I
)2 σI
(b )2 /(fbI−i+1
I
)2
bI =
Ψi 1+ I+1
1 + I−i+1 b Ii,J
Φ
SI−i+1 Ci,I−i+1

et où
J−1
!2
Ci,I−i+1 (b I
σI−i+1 )2 /(fbI−i+1
I
)2 X CI−j+1,j σjI )2 /(fbjI )2
(b
Λi,J = I+1 I
+ .
SI−i+1 SI−i+1 j=I−i+2
SjI+1 SjI

MSEP des CDR observables


On a les deux lemmes suivants dont on renvoie au paragraphe 4.2 de [19], [22]
et à [20] pour les preuves.
Lemme 2.2.4. « L’erreur d’estimation »des CDR observables pour tout le por-
tefeuille pour l’année calendaire (I, I + 1], étant donné les observations DI , est
estimée par :
 " I #!2 
X
(u-bias)2 := E bD  E
I
[ i (I + 1) DI
CDR 
i=1
I
X
I
2 X
= C
bi,J b Ii,J + 2
∆ C I bI b I
bi,J Ci,J Λk,J .
i=1 i>k>1

22
Reste alors à évaluer la « variance de process »des CDR observables :

Lemme 2.2.5. On estime la variance des CDR observables pour l’année cou-
rante (I, I + 1] par :

I
! I
X X
I
2 X
Var
d [ i (I + 1) DI
CDR = C
bi,J b Ii,J + 2
Γ C I bI b I
bi,J Ck,J Υi,J ,
i=1 i=1 k>i>1

où,
 
b Ii,J
Γ = Var
d CDR [ i (I + 1) DI
" # J−1
!
I
(b
σI−i+1 )2 /(fbI−i+1
I
)2 Y σ I )2 /(fbI )2
(b
= 1+ . 1 + l I+1 l CI−l+1,l − 1,
Ci,I−i+1 (Sl )2
l=I−i+2

et pour k > i > 1,


 
bI
Υ = Cov
d CDR [ i (I + 1), CDR[ k (I + 1) DI
i,J
" # J−1 !
I
(b
σI−i+1 )2 /(fbI−i+1
I
)2 Y σlI )2 /(fblI )2
(b
= 1+ I+1
. 1+ CI−l+1,l − 1.
SI−i+1 l=I−i+2
(SlI+1 )2

   
Remarque 2.2.5. On remarque que Var
d CDR [ i (I + 1) DI ≥ Var
d CDRi (I + 1) DI .

Le théorème suivant résume les deux lemmes précédents et donne une estimation
de la MSEP du CDR observable agrégée :

Théorème 2.2.2. L’estimateur de la MSEP conditionnelle du CDR observable


agrégée au temps t = I + 1 pour l’année courante (I, I + 1] et pour toute année
de survenance i ∈ {1, . . . , I} est :

I
X
I
2   X  
MSEP
\ PI [ (0) = C
bi,J b Ii,J + ∆
Γ b Ii,J +2 C I bI
bi,J Ck,J Υb Ii,J + Λ
b Ii,J .
i=1 CDRi (I+1)|DI
i=1 k>i>1

2.2.3 Approximation des formules de la MSEP des CDR


Cette section est basée sur le lemme ci-après et a pour but de simplifier les
formules de la section précédente en approchant les produits par des sommes.

Lemme 2.2.6. Si les aj sont des scalaires positifs tels que 1  aj , alors

J
Y J
X
(1 + aj ) − 1 ≈ aj .
j=1 i=1

23
On redéfinit alors les notations suivantes :
!2
J−1
X CI−j+1,j (σbj I )2 /(fbjI )2
b Ii,J :=
Φ
j=I−i+2
SjI+1 CI−j+1,j
I
b Ii,J + (b
b Ii,J :=Φ σI−i )2 /(fbI−i
I
)2 b Ii,J
Γ ≥Φ
Ci,I−i+1
I
b Ii,J + (b
b Ii,J :=Φ σI−i+1 )2 /(fbI−i+1
I
)2 b Ii,J .
Υ I+1
≥Φ
SI−i+1

Remarque 2.2.6. Ces définitions sont cohérentes avec celles de la section


précédentes. En effet, prenons par exemple Φ b I . On a les approximations sui-
i,J
vantes :
" # J−1
! !
I 2 bI 2 I 2 bI )2
I (b
σ I−i+1 ) /(f I−i+1 ) Y (bσ l ) /(f l
Φ
b i,J = 1 + 1+ CI−l+1,l − 1
Ci,I−i+1
l=I−i+2
(SlI+1 )2
" # J−1 !2
(b I
σI−i+1 )2 /(fbI−i+1
I
)2 X (b σjI )2 /(fbjI )2 CI−j+1,j
≈ 1+
Ci,I−i+1
j=I−i+2
CI−j+1,j SjI+1
J−1
!2
X (b σjI )2 /(fbjI )2 CI−j+1,j

j=I−i+2
CI−j+1,j SjI+1

où cette dernière approximation est valide car, en général,

σjI )2 /(fbjI )2
(b
1
CI−j+1,j

pour des données typiques. Le même raisonnement s’applique aux autres quan-
tités. Pour de plus amples détails, on renvoie à [20].

On peut alors montrer le résultat suivant :

Proposition 2.2.1. (MSEP conditionnelle pour une année d’accident)


L’estimateur de la MSE conditionnelle de l’estimateur des CDR réels au temps
t = I + 1 pour l’année courante (I, I + 1] et pour toute année de survenance
i ∈ {1, . . . , I} est :
   2  
I b Ii,J + ∆
b Ii,J
MSEP
\ CDR (I+1)|D CDR
i I
[ i (I + 1) = Cbi,J Φ

et pour les CDR observables par


 2  
I b Ii,J + ∆
b Ii,J .
MSEP
\[
CDRi (I+1)|DI
(0) = C
bi,J Γ

Remarque 2.2.7. On remarque immédiatement que


 
MSEP
\[
CDRi (I+1)|DI
(0) =MSEP
\ CDR (I+1)|D CDR
i I
[ i (I + 1) + Var(CDR
d i (I + 1)|DI )
 
≥MSEP
\ CDR (I+1)|D CDR
i I
[ i (I + 1)

24
puisque en effet le lemme 2.2.1 montre que l’on estime Var(CDR
d i (I + 1)|DI )
I
2 I
par Ci,J Φi,J . Néanmoins, pour des données typiques, les termes d’ordre
b b
supérieurs sont négligeables et l’on obtient une égalité approximative de ces
deux estimateurs.
Théorème 2.2.3. (MSEP conditionnelle agrégée) L’estimateur de la MSEP
conditionnelle des CDR réels agrégés au temps t = I + 1 pour l’année courante
(I, I + 1] et pour toute année de survenance i ∈ {1, . . . , I} est :
I
! I I
!
X X X
MSEP
\ PI CDR (I+1)|D
i=1 i I
CDR
[ i (I + 1) = MSEP
\ CDR (I+1)|D
i I
CDR
[ i (I + 1)
i=1 i=1 i=1
X  
I bI b Ii,J b Ii,J
+2 C
bi,J Ck,J Φ +Λ
k>i>1

et pour les CDR observables :


I
X X  
I bI b Ii,J + Λ
b Ii,J .
MSEP
\ PI [ (0) = MSEP
\[ (0)+2 C
bi,J Ck,J Υ
i=1 CDRi (I+1)|DI CDRi (I+1)|DI
i=1 k>i>1

Remarque 2.2.8. Comme pour les seules années d’accident, on a le même


genre d’inégalités pour les MSEP agrégées :
I
!
X
MSEP I [
\ P (0) = MSEP I CDR (I+1)|D
CDRi (I+1)|DI
\ P
i=1
CDRi (I + 1)
[
i I
i=1
i=1
I
X X  
I bI b Ii,J + Λ
b Ii,J
+ Var(CDR
d i (I + 1)|DI ) + 2 C
bi,J Ck,J Υ
i=1 k>i>0
I
!
X
≥ MSEP
\ PI CDR (I+1)|D
i=1 i I
CDR
[ i (I + 1) .
i=1

Remarque 2.2.9. (Comparaison avec la formule de Mack). Pour les


années d’accident, on a obtenu
"
I
 2 (b
σI−i+1 )2 /(fbI−i+1
I
)2 (bσI )2 /(fbI−i+1
I
)2
MSEP
\[
CDRi (I+1)|DI
(0) = C I
bi,J + I−i+1 I
Ci,I−i+1 SI−i+1
! 
J−1 I
X CI−j+1,j (σbj )2 /(fbjI )2 
+ .
j=I−i+2
SjI+1 SjI

En comparant cette formule avec celle de Mack (théorème 2.4.1), on remarque


que la MSEP des CDR réels considère seulement le premier terme de la variance
de process de la formule de Mack et pour l’erreur d’estimation, la diagonale
suivante (j = I − i + 1), alors que toutes les diagonales d’après (j ≥ I − i + 1)
sont écrasées par le facteur CI−j+1,j /SjI+1 ≤ 1. Pour les années d’accident
agrégées, on a obtenu
I
X
MSEP
\ PI [ i (I+1)|DI (0) =
CDR
MSEP
\[
CDRi (I+1)|DI
(0)
i=1
i=1
 ! 
I
)2 /(fbI−i+1
I
)2
J−1
(σbj I )2 /(fbjI )2
b I  (b
σI−i+1 CI−j+1,j
X X
+2 bI C
C + .
i,J k,J I
k>i>1
SI−i+1 j=I−i+2
SjI+1 SjI

25
De même, en comparant cette formule avec celle de Mack (théorème 2.4.1), on
remarque que la MSEP des CDR réels agrégés considère l’erreur d’estimation
pour la diagonale suivante (j = I − i + 1), mais écrase toutes les erreurs d’esti-
mations des diagonales d’après (j ≥ I − i + 1) par le facteur CI−j+1,j /SjI+1 ≤ 1.
Ces approximations permettent d’obtenir une décomposition naturelle qui au-
torise une interprétation simple comparable à la formule de Mack. Il est à noter
que cette décomposition (et donc son interprétation) n’est valable que pour les
formules approchées et non pour les formules exactes.

2.2.4 Exemple
Les données utilisées proviennent du triangle présenté dans la section précédente.
Le triangle de la page suivante contient les payements cumulés présentés dans
la section précédente ainsi que les payements cumulés estimés pour la nouvelle
diagonale. Celle-ci ne constitue pas une donnée et son estimation a été réalisée
par ailleurs à l’aide de la méthode du bootstrap. Cela va permettre le calcul
explicite des CDR observables.

26
j=1 2 3 4 5 6 7 8 9 10 11
i=1 0.8 3.7 80.4 1161.8 1417.7 1185.9 1468.1 1634.7 1965.6 2586.0 3162.9
2 13.5 286.3 423.3 653.5 828.4 1365.2 1682.9 1949.7 2194.5 2584.0 2803.3
3 266.2 496.4 559.4 514.7 1729.6 1985.3 1953.9 2814.2 3344.1 5463.0 7213.2
4 152.4 285.6 247.4 600.0 863.4 2334.3 2838.7 3623.7 4420.2 6417.7 6866.6
5 167.4 333.3 976.9 1368.3 1836.0 2562.6 2670.7 3308.6 4516.7 5708.8 6605.1
6 2.0 420.6 597.5 663.8 1014.9 1635.5 2285.8 5652.1 6662.3 7854.2 8411.1
7 0.7 7222.3 8445.3 9426.3 10287.9 10730.2 7629.0 8892.9 11168.5 14206.4 15365.3
8 4.0 234.3 1139.9 1517.2 3176.4 4186.1 6492.9 8810.4 11087.0 13684.2 15279.4
9 0.2 559.0 3059.9 4997.7 6946.1 8250.9 11550.2 15412.1 20019.5 23080.1 26991.1
10 18.0 359.0 1081.2 3522.7 8088.2 12042.9 16793.4 22199.7 30933.3 34637.6 39820.7
11 180.4 245.2 533.2 2935.5 7702.0 10461.8 13917.5 17749.8 24373.1 28644.9 33984.4
12 84.8 1722.6 3412.3 7810.2 11367.7 16532.0 22085.2 26798.2 34467.9 39884.4 47552.9
13 0.1 901.5 3672.0 5174.4 10264.8 14737.6 22741.1 27442.6 34787.9 42356.4
14 60.2 2607.3 10212.0 21977.3 32859.2 46222.9 57855.4 71066.1 92631.5
15 802.4 9912.4 18346.5 33964.8 59128.9 84213.0 107113.5 135237.7
16 1978.4 9607.5 20137.4 37122.1 64141.5 83669.2 109000.8
17 100.3 3147.4 10095.1 22279.0 30503.3 42560.1
18 199.9 1182.1 1700.9 2592.0 4170.7
19 0.0 1.0 827.7 1402.62
20 2.0 2.4 11.1
21 0.2 4.2

27
fbjI 9.800 2.164 1.868 1.620 1.363 1.278 1.264 1.298 1.191 1.149 1.186
fbI+1
j 9.801 2.164 1.867 1.619 1.367 1.285 1.263 1.300 1.196 1.159 1.124
j=12 13 14 15 16 17 18 19 20 21
i= 1 3795.1 4505.3 4993.1 5901.1 5969.0 6359.3 6549.3 7359.4 8087.6 9133.2
2 3592.9 4685.3 4923.9 5299.0 4926.8 5276.4 5933.8 9111.7 9752.5 11013.0
3 7694.0 10320.6 11450.7 11722.8 12490.1 13198.3 13954.5 14101.1 14917.6
4 8006.8 8300.7 9342.1 10331.8 10786.6 11662.2 12674.2 14195.7
5 7829.1 9215.9 10258.2 11457.9 11957.5 13389.1 13685.1
6 9027.4 10342.5 12811.6 13735.8 16069.4 16980.0
7 17028.3 18877.7 21115.1 24727.6 31896.2
8 18736.5 23812.2 27167.0 40703.6
9 31462.0 34494.7 39503.7
10 49963.2 58590.0
11 30028.5
12
13
14
15
16
17
18
19
20
21
fbjI 1.162 1.133 1.111 1.064 1.081 1.072 1.156 1.083 1.129 1.000
fbI+1
j 1.166 1.137 1.214 1.131 1.075 1.058 1.145 1.071 1.129 1.000

Tab. 2.2 – Triangle de données cumulés au temps I = 21 et I = 22


En utilisant les estimations des coefficients de développement fbjI et fbjI+1 , on
peut calculer le montant des réserves RbDI au temps t = I et Zi,I−i + RbDI+1 au
i i
temps t = I + 1. Cela fournit les réalisations des CDR observables (cf. tableau
suivant).

i bDI+1
Zi,I−i + R b DI
R CDR
[ i (I + 1)
i i
1 - - -
2 1,260 1,261 0.36
3 2,745 3,147 402
4 4,502 5,253 750
5 5,564 6,906 1,342
6 8,820 10,272 1,451
7 25,533 18,407 -7,126
8 45,393 25,463 -19,930
9 50,980 41,237 -9,743
10 94,122 77,520 -16,602
11 52,085 68,836 16,750
12 113,328 98,808 -14,519
13 123,328 109,260 -14,068
14 342,390 311,009 -31,381
15 677,630 620,767 -56,864
16 715,441 642,709 -72,732
17 370,296 330,445 -39,851
18 51,095 47,084 -4,011
19 28,410 28,808 398
20 431 184 -247
21 351 149 -202
Total 2,713,704 2,447,523 -266,181

On observe que l’on a un CDR observable négatif de -266 181. La question


que l’on se pose est de savoir si le CDR réel pourrait être positif si l’on avait
connu les facteurs de développement réels fj au temps t = I (vue rétrospective).
Pour cela , on doit calculer la MSEP en utilisant les formules précédentes. Dans
un deuxième temps, on souhaiterait savoir si cette valeur de -266 181 corres-
pond à l’incertitude que l’on aurait sur la valeur budgétaire des réserves du
compte de résultat, où l’on avait prédit que le CDR était 0 (vue prospective).
Le tableau suivant résume les résultats trouvés pour chaque année d’accident
et les estimations des MSEP agrégées. Dans un premier temps, on présente les
résultats intermédaires obtenus pour les différentes quantités définies à la section
précédente en utilisant leurs formules exactes. Puis, le tableau suivant résume
les MSEP obtenues avec et sans approximation.

28
i bI
∆ bI
Φ bI
Ψ bI
Γ bI
Λ bI
Υ
i,k i,k i,k i,k i,k i,k
1 0 0 0 0 0 0
2 0.00000 0.00000 0.00000 0.00000 0.00000 0.00000
3 0.00017 0.00000 0.00020 0.00020 0.00008 0.00009
4 0.01640 0.00004 0.03414 0.03418 0.00534 0.01111
5 0.00200 0.00363 0.00068 0.00431 0.00182 0.00381
6 0.00190 0.00368 0.00036 0.00404 0.00181 0.00377
7 0.00261 0.00370 0.00196 0.00566 0.00203 0.00428
8 0.00224 0.00387 0.00107 0.00494 0.00196 0.00416
9 0.00209 0.00395 0.00053 0.00448 0.00191 0.00403
10 0.00263 0.00396 0.00159 0.00555 0.00212 0.00447
11 0.00232 0.00412 0.00138 0.00550 0.00203 0.00440
12 0.00219 0.00418 0.00076 0.00494 0.00202 0.00435
13 0.00254 0.00422 0.00247 0.00668 0.00209 0.00467
14 0.00220 0.00430 0.00041 0.00471 0.00207 0.00443
15 0.00312 0.00434 0.00176 0.00610 0.00245 0.00502
16 0.00330 0.00460 0.00290 0.00751 0.00250 0.00541
17 0.00295 0.00482 0.00495 0.00978 0.00236 0.00542
18 0.00432 0.00490 0.12255 0.12744 0.00232 0.00690
19 0.00863 0.00493 0.64954 0.65447 0.00234 0.01121
20 0.21158 0.00499 3,444.12 3,444.12 0.00230 0.21427
21 12.54039 0.00500 258,033.60 258,033.61 0.00289 12.54250

Sans approximation Avec approximation Mack


i \ [
MSEP (0)1/2 MSEP [ 1/2
\ CDR|D (CDR) \ [
MSEP (0)1/2 [ 1/2
\ CDR|D (CDR)
MSEP \ 1/2
MSEP
CDR|D I CDR|D I Mack
I I
1 - - - -
2 20 15 15 15 20
3 334 227 334 227 335
4 4,032 2,299 4,032 2,299 4043
5 1,612 1,523 1,612 1,523 4,437
6 2,030 1,967 2,030 1,967 5,344
7 3,926 3,429 3,924 3,427 8,014
8 4,462 4,118 4,460 4,116 9,552
9 6,140 5,886 6,138 5,884 12,932
10 11,536 10,355 11,531 10,349 20,985
11 9,098 8,256 9,093 8,251 18,032
12 11,717 11,072 11,712 11,067 23,538
13 13,842 11,851 13,832 11,840 25,558
14 31,768 30,819 31,758 30,808 60,476
15 69,920 62,920 69,880 62,876 116,658
16 75,568 64,637 75,507 64,565 125,208
17 40,776 31,893 40,730 31,833 74,458
18 18,074 4,924 18,032 4,770 26,655
19 24,191 3,838 24,133 3,451 31,383
20 10,951 777 10,924 87 11,196
21 75,801 5,377 75,612 527 76,272
Cov 163,579 156,745 163,531 156,824 278,989
Total 272,407 244,589 272,251 244,581 451,844

Rappelons que la variance du CDR réel est estimée par


 2
I b Ii .
d (CDRi (I + 1)|DI ) = C
Var bi,J Ψ

et que comme les sinistres des différentes années d’accident sont indépendants,
on a !
X I XI
Var
d VarCDRi (I + 1)|DI = Var
d (CDRi (I + 1)|DI ) .
i=1 i=1
On estime l’écart-type des CDR réels par 100 020, ce qui signifie qu’il n’est
pas improbable que le CDR réel soit dans l’intervalle ±266 181. La racine de
l’estimation de la MSEP entre le CDR réel et observable est de 244 589, ce qui
signifie qu’il est plus probable que le CDR réel ait le même signe que le CDR
observable. De plus, l’incertitude de prédiction du CDR observable autour de 0
étant de 272 407, il est donc pas improbable que l’on ait un CDR observable de
-266 181. Le risque de marge, ie la marge de solvabilité, doit donc être directe-
ment relié à cette valeur de 272 407. Il s’agit d’une vision à court terme, qui doit

29
être correcte pour traiter le long terme. Pour le traiter, on peut par exemple
ajouter un coût du capital à l’ultime afin de s’assurer que le futur capital de
solvabilité puisse être financé.

Remarque 2.2.10. Le tableau précédent montre aussi une faible différence


entre les résultats obtenus avec les formules exactes et les formules approchées.
Pourtant, pour déduire ces dernières, il a été supposé que

σjI )2 /(fbjI )2
(b
1 .
CI−j,j

Cette hypothèse est valable pour des données standards. Malheureusement, nos
données ne le sont pas, et en particulier pour la première année d’accident. Son
hétérogénéité est telle que l’on a par exemple

σ1I )2 /(fb1I )2
(b
'258 034
C20,1
σ2I )2 /(fb2I )2
(b
'3 444.
C19,2

Les hypothèses du lemme 2.2.6 ne sont donc pas vérifiées ce qui pourraient en-
traı̂ner un biais dans l’approximation de la MSEP des CDR. Certains termes
n’apparaı̂traient alors plus comme négligeables. Néanmoins, les approximations
restent très proches des valeurs exactes, ce qui permet de conclure que l’uti-
lisation de celles-ci n’entraı̂nent pas de pertes d’informations substantielles et
demeurent un bon compromis entre précision et simplicité de calculs.

Remarque 2.2.11. L’information contenue dans l’année calendaire suivante


contient en substance un peu plus de 60% de l’incertitude complète, quand on la
compare à celle fournie par la méthode de Mack. Cette différence est conséquente
et démontre bien ici que pour des branches longues, le choix de la calibration
pour Solvency II et de la vision du risque considérée est déterminante et que
son impact peut-être important. Notons juste ici que ce résultat est inférieur à
ceux obtenus par l’étude de AISAM-ACME (cf. [1]) qui trouvait en moyenne un
risque à un an égal à environ 2/3 du risque à l’ultime. Toutefois, cette étude a été
réalisée sur des portefeuilles européens alors que nos données sont américaines.

Remarque 2.2.12. (Comparaison avec l’incertitude à l’ultime). La cons-


truction même des approximations des formules de la MSEP à un an combinée
avec la remarque 2.2.9 montre que celle-ci est inférieure à l’erreur de prédiction
estimée par la formule de Mack. En effet, l’erreur à un an se compose du même
premier terme que celui issu de la formule de Mack, mais les termes suivants
sont des diviseurs des termes correspondants de la formule de Mack. Dans ces
conditions, l’erreur à un an estimée par cette méthode est systématiquement
inférieure à l’erreur à l’ultime.

Remarque 2.2.13. (Munich Chain Ladder à un an). Dans un récent


article (cf. [21]) R. Dahms, M. Merz et M. Wüthrich se sont intéressés à la
vision à un an et au calcul des CDR dans le cadre d’une version stochastique
de la méthode de Munich Chain Ladder développée par R. Dahms. Rappelons

30
que cette méthode essaie de combiner les informations provenant du triangle
des charges et du triangle des payés afin d’obtenir une prédiction plus fiable du
montant des réserves. R. Dahms a présenté un modèle stochastique permettant
de combiner ces deux sources d’incertitude et de quantifier l’écart type de la
prédiction de la méthode de Munich Chain Ladder. Ce modèle a été revisité
dans une optique solvabilité avec une vision à un an et la MSEP des CDR
estimée dans [21].

31
Chapitre 3

Méthodes Bootstrap

L ’obtention des seuls moments d’ordre 1 et 2 est un inconvénient du


modèle de Mack. La procédure du bootstrap adaptée au provisionne-
ment permet d’avoir plus d’informations, puisqu’elle produit la dis-
tribution complète du montant des provisions, et donc les moments
d’ordre quelconque. Dans un premier temps, on rappelle brièvement la méthode
du bootstrap, puis on explique dans un deuxième temps comment l’adapter pour
capturer l’incertitude sur une année.

3.1 Méthode du bootstrap


On se place dans le cadre du modèle log Poisson surdispersé. On rappelle que ce
modèle est un modèle GLM dont les composantes aléatoires sont données par les
variables réponses Cij qui suivent une loi de Poisson surdispersée de paramètres
φ et µij = E(Cij ). Cela signifie que Cij /φ suit une loi de Poisson de paramètre
µij /φ = Var(Cij ). Le paramètre φ est un paramètre d’échelle qui est le rapport
entre la variance et l’espérance de Cij :

Var(Cij ) = φµij .

La fonction lien est la fonction logarithme. Le prédicteur linéaire s’écrit ηij =


log(µij ) = µ + αi + βj pour i, j = 0, . . . , I de sorte que

µij = eµ+αi +βj

avec α1 = β1 = 0. Renshaw et Verall ont montré en 1998 dans [27] que pour un
triangle de liquidation à incréments positifs, les valeurs prévues par un modèle
de Poisson (simple ou équidispersé) à lien log et les provisions par année d’ori-
gine et totale coı̈ncident avec les éléments correspondants calculés à l’aide de la
méthode de Chain Ladder.
De ce fait, on applique la méthode de Chain Ladder à chaque étape de la
procédure bootstrap avec des allers retours cumulés incréments. Plus précisément,
la méthode du bootstrap appliquée au provisionnement se décompose ainsi :
1. Ne pas oublier que l’on travaille avec un triangle de charges cumulées. Si
l’on a affaire à un triangle d’incréments, la première étape est alors de cal-

32
culer le triangle de charges cumulées, puis les coefficients de développement
et la provision correspondante par la méthode Chain Ladder.
2. Estimation du triangle ajusté : à partir de la diagonale du triangle, on
obtient de manière récursive les coefficients du triangle ajustés en divisant
les données du triangle non ajustées par les facteurs de développement.
3. Calcul du triangle des incréments ajustés Z bij . L’application directe de la
méthode du bootstrap sur les éléments (Cij )i+j≤I du triangle supérieur ne
s’avère pas pertinente car les valeurs prises par les variables explicatives
ne sont pas aléatoires. C’est pourquoi l’on procède au rééchantillonage des
résidus de Pearson.
(P )
4. Calcul des résidus de Pearson rij , ajustés via les degrés de liberté des
données :
(P ) Zij − Zbij
rij = q .
Zbij

Afin de corriger le biais dans la comparaison des estimations analytiques


et bootstrap de l’erreur de prédiction, on ajuste les résidus de Pearson en
tenant compte des degrés de liberté des données. Soit n = I(I + 1)/2 le
nombre de données et p = 2I − 1 le nombre de degré de liberté. On définit
alors les résidus de Pearson ajustés par :
r
adj n (P )
rij = r .
n − p ij
Comme les résidus sont en moyenne proches de zéro, cet ajustement a
pour effet d’augmenter leur variance, la moyenne demeurant globalement
adj adj
inchangée. Notons également que r1,J = rI,1 = 0.
A ce stade, on estime aussi le paramètre d’échelle à l’aide de la formule
suivante :
X  adj 2
φb = rij .
i+j≤I+1

5. Répéter N fois (N= 10 000 par exemple) les étapes suivantes :


– Rééchantillonage des résidus de Pearson ajustés
– Reconstitution du pseudo triangle des incréments, puis du pseudo tri-
angle de données cumulées. Calcul des facteurs de développement à
l’aide de la méthode de Chain Ladder.
Projection du triangle futur des payements cumulés (triangle inférieur),
puis du triangle futur des payements incrémentaux, utilisés comme es-
timation de la moyenne à l’étape suivante.
Cette étape permet de prendre en compte l’erreur d’estimation.
– Tirage aléatoire sur le triangle inférieur : sur toute la partie basse du
carré (sinistres tardifs et non manifestés), simuler un payement par un
tirage aléatoire selon une distribution de moyenne µf ij (obtenue à l’étape
précédente) et de variance φµf
b ij . Cette étape prend ainsi en compte l’er-
reur de process.

Remarque 3.1.1. Afin d’effectuer ces simulations et être en cohérence


avec notre modèle, on aurait tendance à choisir une loi de Poisson sur-
dispersée pour simuler les payements. Pour simuler cette loi, il suffit de

33
simuler une réalisation d’une loi de Poisson de moyenne µf ij /φ, puis de
b
multiplier le résultat par φ. Les modélisations sont alors des multiples
b
de φ,b ce qui est un inconvénient, surtout si φ est grand. Il peut alors
être jugé préférable d’utiliser une loi Gamma paramétrée de sorte que
sa moyenne soit µf ij et sa variance φµ
bf ij .
Les simulations ne seront alors plus des multiples de φ. b Toutefois, la
procédure du bootstrap peut générer quelquefois des moyennes négatives
µfij et des réajustements sont dans ce cas nécessaires pour éviter que la
variance ne soit négative. On peut par exemple simuler avec la valeur
absolue de la moyenne et corriger ultérieurement le signe du payement.

– Evaluation des coûts ultimes en sommant les payements simulés pour


chaque année d’accident et évaluation de la provision globale.
– On stocke le résultat et on réitère.
6. Distribution du nombre de sinistres : après N itérations, on dispose d’une
distribution empirique pour chaque point du triangle inférieur et pour les
sinistres inconnus par année d’accident.
L’erreur de prédiction est l’écart type des provisions stockées.

Exemple 3.1.1. La procédure bootstrap sur nos données donnent les résultats
suivants. Le triangle ajusté obtenue à l’étape 2 est :

1 2 3 4 5 6 7 8 9 10 11
1 13.3 130.8 283.2 529.2 856.9 1,170.7 1,511.2 1,901.1 2,453.4 2,909.7 3,332.7
2 21.3 208.3 451.1 842.8 1364.7 1864.5 2406.7 3027.7 3,907.3 4,634.1 5,307.7
3 22.8 223.3 483.5 903.4 1,462.8 1,998.5 2,579.7 3,245.3 4,188.1 4,967.2 5,689.3
4 23.1 226.4 490.3 916.0 1,483.3 2,026.6 2,615.9 3,290.8 4,246.8 5,036.8 5,769.0
5 25.9 253.4 548.7 1,025.3 1,660.2 2,268.2 2,927.8 3,683.2 4,753.2 5,637.4 6,456.9
6 33.3 326.4 706.8 1,320.6 2,138.4 2,921.5 3,771.1 4,744.0 6,122.3 7,261.1 8,316.7
7 65.5 642.2 1,390.5 2,598.1 4,207.1 5,747.8 7,419.3 9,333.5 12,045.1 14,285.7 16,362.4
8 70.7 692.7 1,500.0 2,802.6 4,538.1 6,200.2 8,003.2 10,068.0 12,992.9 15,409.8 17,650.0
9 101.2 991.9 2,147.7 4,012.7 6,497.7 8,877.4 11,459.0 14,415.4 18,603.3 22,063.8 25,271.3
10 169.5 1,661.4 3,597.3 6,721.2 10,883.4 14,869.4 19,193.5 24,145.3 31,160.0 36,956.3 42,328.7
11 136.1 1,333.8 2,888.1 5,396.2 8,738.0 11,938.2 15,409.8 19,385.5 25,017.4 29,671.1 33,984.4
12 183.0 1,793.0 3,882.3 7,253.7 11,745.7 16,047.5 20,714.2 26,058.4 33,628.8 39,884.4
13 189.3 1,854.8 4,016.1 7,503.7 12,150.6 16,600.6 21,428.1 26,956.5 34,787.9
14 499.0 4,889.8 10,587.7 19,782.2 32,032.8 43,764.5 56,491.4 71,066.1
15 946.1 9,271.6 20,075.4 37,509.2 60,737.5 82,982.0 107,113.5
16 953.9 9,348.3 20,241.7 37,819.8 61,240.5 83,669.2
17 475.1 4,656.3 10,082.2 18,837.7 30,503.3
18 65.4 640.7 1,387.3 2,592.0
19 39.0 382.3 827.7
20 0.2 2.4
21 0.2
12 13 14 15 16 17 18 19 20 21
1 3,933.8 4,549.1 5,129.7 5,668.4 6,439.4 6,910.7 7,344.4 8,306.0 8,834.1 9,879.7
2 6,265.0 7,244.9 8,169.7 9,027.6 10,255.5 11,006.1 11,696.9 13,228.3 14,069.3
3 6,715.4 7,765.7 8,757.0 9,676.5 10,992.8 11,797.3 12,537.7 14,179.3
4 6,809.5 7,874.6 8,879.7 9,812.1 11,146.8 11,962.6 12,413.4
5 7,621.5 8,813.6 9,938.5 10,982.2 12,476.0 13,389.1
6 9,816.7 11,352.1 12,801.1 14,145.3 16,069.4
7 19,313.6 22,334.4 25,185.1 27,829.8
8 20,833.4 24,091.9 27,167.0
9 29,829.3 34,494.7
10 49,963.2
11
12
13
14
15
16
17
18
19
20
21

Le triangle des résidus ajustés calculés à l’étape 4 est

34
1 2 3 4 5 6 7 8 9 10 11
1 -3.61 -11.10 -6.44 55.93 -4.16 11.90 -3.32 -11.87 -9.89 8.06 7.86
2 -1.76 6.58 -7.12 -8.57 -15.95 1.74 -10.13 -14.92 -22.47 -13.14 -18.38
3 53.55 2.20 -12.83 -21.46 29.10 -12.70 -25.27 7.92 -14.12 50.40 40.17
4 28.24 -5.16 -16.99 -3.72 -13.40 41.79 -3.67 4.45 -5.42 45.11 -10.99
5 29.22 -4.29 21.28 -4.10 -6.97 5.05 -22.55 -4.49 4.43 10.87 2.82
6 -5.69 7.69 -10.95 -23.20 -17.13 -6.10 -7.18 80.57 -10.41 1.65 -16.12
7 -8.41 290.55 18.22 -6.85 -19.56 -29.38 -42.90 -15.61 -8.79 17.69 -21.15
8 -8.33 -16.49 3.63 -26.92 -1.92 -16.80 12.46 5.84 -12.59 3.85 -14.31
9 -10.54 -11.68 41.54 1.77 -11.30 -23.14 14.83 17.49 6.81 -7.14 13.04
10 -12.22 -31.29 -28.96 -12.82 6.56 -0.52 6.81 6.78 21.55 -28.85 -2.71
11 3.99 -34.37 -33.73 -2.22 25.88 -8.17 -0.28 -2.39 13.87 -5.88 16.41
12 -7.62 0.73 -9.18 18.56 -14.64 13.81 13.63 -9.07 1.20 -11.14
13 -14.44 -19.66 13.76 -35.30 6.83 0.36 48.00 -11.68 -5.77
14 -20.62 -29.22 26.52 28.15 -12.98 15.82 -10.19 -11.86
15 -4.91 9.03 -23.94 -14.44 13.34 19.99 -8.32
16 34.83 -8.77 -3.66 -4.70 24.69 -20.34
17 -18.06 -18.42 21.69 38.47 -33.46
18 17.46 17.81 -8.75 -9.49
19 -6.56 -19.40 18.97
20 3.74 -1.26
21 0.00
12.00 13.00 14.00 15.00 16.00 17.00 18.00 19.00 20.00 21.00
1 1.33 4.02 -4.04 16.71 -26.59 -3.92 -12.28 -5.13 9.14 0.00
2 -5.69 3.78 -23.69 -17.31 81.40 -15.37 -1.33 44.18 -7.25
3 -17.87 51.07 4.63 -22.42 -15.89 -3.57 0.61 -38.74
4 3.25 -24.81 1.20 1.97 -25.29 2.20 10.01
5 1.83 5.92 -2.59 5.07 -27.01 18.02
6 -23.96 -5.90 28.14 -12.03 9.80
7 -24.90 -22.38 -12.06 19.76
8 5.09 33.43 5.30
9 -1.36 -25.10
10 30.14
11
12
13
14
15
16
17
18
19
20
21

Le paramètre d’échelle est estimé à φb = 397.6253. La distribution des réserves


a été obtenue empiriquement à partir de 10 000 simulations. Elle est présentée
ci-dessous sous la forme d’un histogramme :

La moyenne, le risque de prédiction et le quantile 75 et 95% sont explicités dans


le tableau ci-dessous :
Moyenne Erreur de prédiction VaR75% VaR95%
2,450,353 512,319 2,657,257 3,283,887

35
On remarque tout d’abord que le montant des réserves est très semblable à
celui obtenu par la méthode de Chain Ladder, ce qui est normal puisque le
modèle sous-jacent que l’on a choisi reproduit cette méthode. Toutefois, l’erreur
de prédiction est quant à elle légèrement plus élevée, puisqu’elle est de l’ordre
de 512 000 contre 450 000 pour le modèle de Mack. Il est à noter que la méthode
du bootstrap n’est sûrement pas la méthode la plus indiquée pour traiter nos
données, car celles-ci sont loin d’être homogènes. Cette méthode ne tient pas
compte des changements de tendances intervenants sur les années d’accident.
La tendance à la baisse qui se reflète sur les 3 dernières années ainsi que les
irrégularités de certains millésimes sont complètement gommées par la méthode
du bootstrap. Il est donc possible que celle-ci conduise à une sur estimation de
l’erreur de prédiction.

3.2 Modification de la méthode du bootstrap


pour l’obtention du risque à un an
3.2.1 Méthode directe
Afin de calculer l’erreur de prédiction sur un an, la méthode du bootstrap est
modifiée comme suit :
1. Les 4 premières étapes sont semblables à la méthode bootstrap classique.
Elle fournit en particulier une estimation du best estimate R. Seule la
procédure itérative est différente.
2. Répéter N fois (N= 10 000 par exemple) les étapes suivantes :
– Rééchantillonage des résidus de Pearson ajustés
– Reconstitution du pseudo triangle des incréments, puis du pseudo tri-
angle de données cumulées. Calcul des facteurs de développement détermi-
nés par la méthode de Chain Ladder.
– Estimation de la diagonale suivante à l’aide des facteurs de développe-
ment déterminés par la méthode de Chain Ladder. Estimation des paie-
ments incrémentaux sur la diagonale, dont les valeurs déterminent la
moyenne utilisée pour la simulation de l’étape suivante.
– Simulation des paiements sur la diagonale à l’aide d’une loi gamma dont
la moyenne µf ij est déterminée à l’étape précédente et la variance φµ
bfij .

L’erreur de process est incorporée à cette étape.


– A l’aide de la méthode de Chain Ladder, on détermine une estimation de
la provision RN correspondant à cette itération que l’on stocke. L’erreur
d’estimation est prise en compte dans cette étape.
3. Distribution du nombre de sinistres et estimation du risque de prédiction
à un an comme étant σ(RN ) = σ(RN − R) l’écart-type des provisions.

36
Exemple 3.2.1. Le calcul du risque à un an donne quant à lui un résultat de
296 666 :
Moyenne Erreur de prédiction VaR75% VaR95%
2,251,442 296,666 2,434,315 2,754,179
La distribution empirique des réserves est présentée ci-après.

L’erreur de prédiction sur un an est cette fois aussi inférieure à l’erreur de


prédiction à l’ultime, même si elle reste légèrement supérieure à celle prédite par
la méthode des claims development result. Les mêmes remarques que précédemment
s’appliquent.
Remarque 3.2.1. Le code utilisé pour implémenter ces méthodes sur le logiciel
R est fourni en Annexe C.

3.2.2 Méthode récursive


On peut trouver dans l’article [9] une méthode du bootstrap basée sur la version
récursive du modèle de Chain Ladder (cf. Annexe A.) permettant de retrouver
sensiblement les mêmes résultats que par le calcul des CDR. Nous allons la
décrire brièvement, sans en donner d’application numérique. Cette méthode
permet d’obtenir la distribution empirique complète du montant des réserves et
de tester que les formules analytiques obtenues dans le chapitre précédent sont
correctes.
Avec les mêmes notations que précédemment, on définit le facteur de dévelop-
pement élémentaire (ou le d-facteur) par :
Ci,j+1
∀i ∈ {1, . . . , I − 1}, ∀j ∈ {1, . . . , I − i + 1}, Fij := .
Ci,j
On écrit les résidus en fonction des d-facteurs comme suit :
I I
Ci,j − Ci,j−1 fbj−1 p Fi,j−1 − fbj−1
ij = I
p = Ci,j−1 I
.
σ
bj−1 Ci,j−1 σ
bj−1

37
Les résidus ajustés sont définis par
ij − µ
ij :=
σ
avec
I−1 I−i I−1 I−i
1 XX 1 XX 2
µ := ij , σ := (ij − µ ) .
N i=0 j=1 N i=0 j=1

Etant donné un ensemble (ij ) de résidus, à chaque itération, un nouvel ensemble


(e
ij ) de résidus est créé par bootstrap (rééchantillonage) de ceux-ci. Un nouvel
ensemble de d-facteurs en est alors déduit :
I
I
σ
bj−1
Feij = fbj−1 +p ij ,
e i = 0, . . . , I − 1, j = 1, . . . , I − i,
Ci,j−1

ainsi qu’un ensemble de facteurs de développement :


I−j
I
X Ci,j−1
fej−1 = Fei,j−1 I , j = 1, . . . , J.
i=0
Sj−1

La diagonale suivante est dérivée récursivement à partir des paramètres fejI et


ejI appliqués à la dernière diagonale observable :
σ

ei,J−i+1 := fejI Ci,J−i + σ


ejI
p
C Ci,J−i i,J−i+1 , i = i, . . . , I.

Attention ici, certaines hypothèses techniques doivent être envisagées pour les
résidus i,j (cf. annexe A). Il est nécessaire de faire un grand nombre de simu-
lations afin de assurer une certaine fiabilité du résultat.
A chaque itération bootstrap, l’estimation de l’ultime C b I+1 à la fin de l’année
iJ
I est obtenue en appliquant la méthode de Chain Ladder au triangle élargi à la
nouvelle diagonale bootstrap :

eb I+1 eI+1 eI+1


C iJ = Ci,J−i+1 fi,J−i+1 . . . fi,J−1 ,
e i = 2, . . . , J,

avec
I−j
X
Cij + C
ei,J−i+1
I+1 i=0
fei,j−1 = I−j+1
, j = 1, . . . , J.
X
Cij
i=0

La distribution empirique des réserves est alors obtenue en combinant toutes


les itérations, l’erreur de prédiction est estimée comme l’écart-type des réserves
simulées. L’erreur de process est obtenue en simulant seulement les résidus ij
sans bootstrap, et l’erreur d’estimation en considérant seulement la variabilité
du bootstrap sans ajouter les termes d’erreurs ij .

38
Deuxième partie

Interlude : Risques
calendaires et Impact de
chocs de taux sur un an

39
Chapitre 4

Modèles linéaires sur les


log-incréments

N ous noterons Zij les données incrémentales pour l’année d’accident i


et de développement j et Yij = log(Zij ). Dans cette partie, nous com-
mencerons par rappeler quelques généralités sur les modèles linéaires
sur les log incréments, puis par décrire rapidement le modèle de Chris-
tophides, qui n’est autre qu’une reformulation du modèle de Chain Ladder
présentée supra. Ce modèle a l’avantage de pouvoir identifier des tendances
liées aux années d’origine ou de développement (non stationnarité). Malheu-
reusement, lorsque l’on souhaite avoir une approche sur un horizon de un an,
on souhaite aussi détecter les modifications de tendances au niveau des années
calendaires, ce que ne permet pas la méthode de Christophides. On verra com-
ment généraliser cette méthode pour les détecter dans une deuxième section :
cette généralisation s’appelle le modèle de Zenwirth.
Rappelons qu’un modèle linéaire prend la forme suivante :

Yij = Mij θ + ij

où θ est le vecteur des paramètres, M = (Mij ) est la matrice design définissant
le modèle et ij est une erreur de moyenne nulle. Celles-ci sont supposées
indépendantes et identiquement distribuées de loi normale de variance σ 2 . Le
modèle le plus fréquemment utilisé est le modèle de Chain Ladder qui prend la
forme
Yij = µ + αi + βj + ij
où µ est la moyenne globale, αi la tendance de l’année d’origine, et βj celle de
l’année de développement. Pour des raisons techniques, α0 = β0 = 0.

Remarque 4.0.2. Un des inconvénients de ce modèle est qu’il nécessite d’avoir


des incréments positifs. Si ce n’est pas le cas, on pourra procéder au retraitement
suivant des données :
– Choisir une constante τ assez grande
– Ajouter τ à tous les incréments de sorte que ceux-ci soient tous positifs
– Appliquer le modèle linéaire à log(Zij + τ )

40
– Soustraire τ aux estimations de provisions et de charges sinistres. Les mo-
ments d’ordre 2 restent inchangés.
Toutefois, l’ajout d’une constante relativement grande par rapport aux incréments
peut entraı̂ner, une fois passé au log, un lissage des données et donc biaiser le
résultat.

4.1 Méthode de Christophides


4.1.1 Description de la méthode
Le modèle de Christophides est directement inspiré du modèle de De Vylder.
On pourra se référer à [8]. On suppose que les incréments vérifient Zij = rj pi
où pi correspond à la charge ultime des sinistres survenus au cours de l’année i,
et rj à la proportion du montant pi payé l’année j (qui ne dépend que de j). En
passant au logarithme, on peut alors considérer le modèle log-linéaire suivant :

ln(Zij ) = Yij = αi + βj + ij ,

où les ij correspondent aux termes d’erreur. La condition d’identifiabilité du


modèle s’écrit ici β1 = 0 . On supposera que les erreurs sont indépendantes et
gaussiennes, ie. ij ∼ N (0, σ 2 ). Dès lors, Yij ∼ N (αi + βj , σ 2 ) et les Yij sont
indépendants.
Ce modèle est un modèle de régression élémentaire dont la mise en oeuvre est
aisée. Afin de faciliter la compréhension de la méthode de Christophides, celle-ci
sera illustrée sur un exemple très simple.
Considérons le triangle d’incréments ci-dessous :

j=1 j=2 j=3 j=4


i=1 11,073 6,427 1,839 766
i=2 14,799 9,357 2,344
i=3 15,636 10,523
i=4 16,913
i j Zij Yij
1 1 11,073 9.3123
1 2 6,427 8.7683
1 3 1,839 7.5170
1 4 766 6.6412
2 1 14,799 9.6023
2 2 9,357 9.1439
2 3 2,344 7.7596
3 1 15,636 9.6573
3 2 10,523 9.2613
4 1 16,913 9.7358

On peut donc écrire :


Y = Mθ + 
où :
– t Y = (Y11 , Y12 , . . . , Y1J , Y21 , . . . , Y2,J−1 , . . . , YI1 ) est le vecteur des éléments
du triangle écrits ligne à ligne,
–  = (11 , 12 , . . . , I1 ) est le vecteur associé des erreurs,
– θ = (α1 , . . . , αI , β1 , . . . , βJ ) est le vecteur de paramètres,
– M est la matrice de régression (matrice design).

41
La matrice M de notre exemple illustratif s’écrit ici :
i=1 i=2 i=3 i=4 j=2 j=3 j=4
1 0 0 0 0 0 0
1 0 0 0 1 0 0
1 0 0 0 0 1 0
1 0 0 0 0 0 1
0 1 0 0 0 0 0
0 1 0 0 1 0 0
0 1 0 0 0 1 0
0 0 1 0 0 0 0
0 0 1 0 1 0 0
0 0 0 1 0 0 0

Le vecteur des paramètres s’évalue à l’aide de la formule classique de régression


linéaire
θ = (t M M )−1 t M Y.
On trouve alors les paramètres de régression suivants
Parameter
i = 1 9.2884
i = 2 9.5911
i = 3 9.6924
i = 4 9.7358
j = 2 -0.4661
j = 3 -1.8015
j = 4 -2.6472

ainsi que les valeurs prédites Yb et les résidus b


 suivants :
i j Yb 
b
1 1 9.2884 0.0239
1 2 8.8222 -0.0540
1 3 7.4869 0.0301
1 4 6.6412 0.0000
2 1 9.5911 0.0112
2 2 9.1250 0.0189
2 3 7.7897 -0.0301
3 1 9.6924 -0.0351
3 2 9.2263 0.0351
4 1 9.7358 0.0000

 = Y − Yb . On évalue ensuite l’erreur standard


On rappelle que Yb = M θ et que b
de régression σ par
s
tb
b
σ
b=
n−p

où n est le nombre d’observations (le nombre de points dans le triangle) et p le


nombre de paramètres ajustés. On trouve ici σ b = 0.0524.
L’étape suivante consiste à construire les données futures du triangle inférieur.
Pour cela, on définit la matrice design Mf pour les log incréments futurs, dont
les cellules sont égales à 1 pour l’année d’accident et de développement corres-
pondantes :
i j i=1 i=2 i=3 i=4 j=2 j=3 j=4
2 4 0 1 0 0 0 0 1
3 3 0 0 1 0 0 1 0
3 4 0 0 1 0 0 0 1
4 2 0 0 0 1 1 0 0
4 3 0 0 0 1 0 1 0
4 4 0 0 0 1 0 0 1

42
Les futurs paiements sont alors Yb = Mf θ. La matrice de variance-covariance
des log-incréments associée au risque de paramètre est obtenue en évaluant

σ 2 Mf (t Mf Mf )−1t Mf ,

et celle associée au risque total est estimée par :

Var(Yb ) = σ 2 [Id + Mf (t Mf Mf )−1 t Mf ].

Les incréments s’en déduisent à l’aide de la formule suivante :


Var(Y
b )
ij
bij = eYbij +
Z 2 .

Enfin, l’erreur de prédiction est estimée par :


q
se(Z bij )1/2 = Z
bij ) = Var(Z bij eVar(Ybij ) − 1.

Les résultats obtenus sont résumés dans les tableaux ci-dessous :


(i,j) Ybij Parameter Risk Total Risk
(2, 4) 6.9440 0.0046 0.0073
(3, 3) 7.8909 0.0034 0.0062
(3, 4) 7.0452 0.0053 0.0080
(4, 2) 9.2697 0.0046 0.0073
(4, 3) 7.9344 0.0053 0.0080
(4, 4) 7.0886 0.0071 0.0098

(i,j) Z
bij Parameter Risk Total Risk
(2, 4) 1,041 70 89
(3, 3) 2,681 157 211
(3, 4) 1,152 84 103
(4, 2) 10,650 720 913
(4, 3) 2,803 203 251
(4, 4) 1,204 101 120

La matrice de variance covariance de (Z bij ) s’obtient à l’aide de celle de (Ybij )


par
Cov(Zbij , Z
bkl ) = Z bkl eCov(Ybij ,Ybkl )−1 .
bij Z

Finalement, on estime le montant des provisions à 19 531 (en sommant les


incréments futurs) avec un risque total de 1 181. Ce dernier est obtenu comme
la racine de la somme des éléments de la matrice de variance covariance.
Exemple 4.1.1. Toujours avec les données utilisées jusqu’ici, la méthode de
Christophides ne peut s’appliquer sans retraitement puisque quelques incréments
sont négatifs. On choisit alors d’ajouter 5 000 à tous les incréments afin que ceux-
ci deviennent positifs. Les résultats suivants ont été obtenus à l’aide du logiciel
R (code fourni en Annexe D) en appliquant la méthodologie décrite ci-dessus :
Provisions Erreur de prédiction
2,316,483 119,102

Le montant des provisions est estimé par 2 316 483 et l’erreur de prédiction
totale par 119 102. Cette dernière est beaucoup plus faible que les erreurs es-
timées précédement dérivées des méthodes de type Chain Ladder. Comment
peut-on expliquer un tel écart ? Je pense que cette valeur assez basse est liée

43
au retraitement des données. En effet, nos données présentent des incréments
négatifs, qui rendent l’emploi de la méthode impossible en l’état en raison de la
présence du logarithme. Le fait d’ajouter 5 000 à tous les incréments a eu pour
effet de lisser après passage au logarithme toutes les données de faible montant
et donc peut-être de masquer une partie de l’erreur d’estimation. En effet, si
l’on retraite en égalisant à 0 tous les log-incréments problématiques, la valeur
de l’erreur de prédiction dépasse le million ! Cela pose le problème de la vali-
dité de l’erreur obtenue avec les méthodes linéaires sur les log incréments pour
des données pouvant présenter des incréments négatifs. Par contre, le moment
d’ordre 1 des réserves semble correct.
Les paramètres obtenus sont classés dans le tableau suivant :
θ θ
i=1 8.13892763 j=2 0.20566957
i=2 8.14977964 j=3 0.27656683
i=3 8.19666601 j=4 0.4009415
i=4 8.20062626 j=5 0.50493808
i=5 8.21748615 j=6 0.47299536
i=6 8.2483186 j=7 0.42606274
i=7 8.29981256 j=8 0.52678856
i=8 8.38924107 j=9 0.59151814
i=9 8.49574769 j = 10 0.54757713
i = 10 8.65098419 j = 11 0.49583587
i = 11 8.5570885 j = 12 0.56420373
i = 12 8.6762769 j = 13 0.56618437
i = 13 8.66469472 j = 14 0.53790916
i = 14 9.10411926 j = 15 0.50999443
i = 15 9.46221916 j = 16 0.4325982
i = 16 9.42725001 j = 17 0.47416649
i = 17 8.95436798 j = 18 0.46719427
i = 18 8.41672026 j = 19 0.57909161
i = 19 8.40751906 j = 20 0.50111418
i = 20 8.41459857 j = 21 0.56815425
i = 21 8.51723239

On trouve aussi σ b = 0.2139925. De plus, nous avons tracé sur les graphiques
ci-dessous, les résidus en fonction des années d’accident, de développement et
des valeurs prédites ainsi que le QQ-plot des résidus :

44
Les résidus en fonction des valeurs prédites présentent une structure non aléatoire
les premières années, ce qui n’est pas en faveur du modèle. Le QQ-plot met
en doute la normalité des résidus, ce que confirme un test de Shapiro. Les
résidus ne sont même pas indépendants entre eux et présentent une structure
de dépendance suggérée par le tracé de la fonction d’autocorrélation empirique
suivante :

Ce graphique est le tracé des covariances entre les résidus. Les pointillés bleus
correspondent au seuil en deça duquel on peut conclure que les corrélations sont
nulles avec une probabilité de 95%. On remarque alors que le graphique montre
des corrélations non nulles entre certains résidus.
Tout ceci plaide en une certaine prudence concernant les résultats obtenus,
particulièrement au niveau du moment d’ordre 2. Il est à noter que la méthode
ci-dessus ne sélectionne pas les paramètres significatifs, ie. conserve tous les
paramètres de la régression sans chercher à éliminer ceux qui ne seraient pas
significatifs. Un grand nombre de paramètres sont du même ordre de grandeur,
ce qui fait penser que le modèle (qui reproduit celui de Chain Ladder) est
certainement sur paramétrisé. La section suivante traite de ce problème et la
méthode de Zenwirth y apporte une solution.

4.1.2 Mesure du risque à un an


Afin de mesurer le risque à un an, il convient d’estimer la nouvelle diagonale
du triangle à l’aide de la méthode de Christophides. Cette estimation nous
permet d’en déduire le montant des réserves conditionnement aux nouvelles
informations apportées par cette nouvelle diagonale.
Pour n’estimer que la nouvelle diagonale, il est nécessaire de modifier la matrice
design future Mf en ne conservant non nulles que les lignes correspondantes aux
cellules (i, j) du triangle vérifiant i + j = I + 2. On obtient alors une nouvelle
matrice Mfoy comportant un grand nombre de ligne nulles. Le risque à un an
est alors estimé par la somme
sX
Cov(Zbij , Z
bkl ) ,
i,j

avec
Cov(Z
bij , Z
bkl ) = Z bkl eCov(Ybij ,Ybkl )−1
bij Z (∗)

45
et
Var(Yb ) = σ 2 [Id + Mfoy (t Mfoy Mfoy )−1 t Mfoy ].
Puisque la méthode de Christophides donne le même montant de réserve que la
méthode de Chain Ladder, le montant des provisions restera identique. Seule la
variance est ici modifiée. Toutefois, si on utilise une autre méthode de régression
sur les log-incréments que celle-ci, (par exemple en ne conservant que les pa-
ramètres significatifs), il conviendrait de réestimer les incréments Zij pour i+j ≥
I + 3 à l’aide d’une méthode déterministe comme Chain Ladder, avant de les
réinjecter dans la formule (∗).
Exemple 4.1.2. Avec notre triangle, le risque à un an évalué par la méthode
Christophides est de 38 489. La valeur est faible, mais cohérente avec l’erreur
estimée pour l’ultime. Les mêmes remarques faites à propos de cette dernière
s’appliquent pour l’erreur à un an.

4.2 Méthode de Zenwirth


Le modèle de Chain Ladder est souvent vu comme un modèle sur paramétrisé,
qui adhère de façon trop serré aux données observées. Ce procédé peut entraı̂ner
un fort degré d’imprécision sur les valeurs prédites ; en effet, un petit changement
sur les valeurs observées du triangle, en particulier pour les dernières années
d’origine peut entraı̂ner un changement conséquent des valeurs prédites. En
pratique, les coefficients de développement de Chain Ladder sont sélectionnés
ou stabilisés par l’utilisation de benchmarks.
La méthode de Christophides est simple à mettre en oeuvre si on l’applique
en l’état. Toutefois, en faisant cela, on ne fait ni plus ni moins que du Chain
Ladder. La méthode de Christophides permet toutefois un peu plus, puisqu’elle
autorise, à l’aide des outils de détection de la régression linéaire ou du GLM,
de ne conserver que les variables explicatives significatives. Dans ce cas, cette
méthode, et plus encore celle de Zenwirth, est plus compliquée à mettre en
oeuvre, car elle nécessite que le modèle soit adapté à chaque jeu différent de
données. De plus, son interprétation n’est pas toujours aisée.
Rappelons que les hypothèses de la méthode de Chain Ladder impliquent qu’il
n’y a pas d’effet calendaire sur le triangle. Ces hypothèses ne sont pas toujours
vérifiées et il est nécessaire dans ce cas, de disposer d’une méthode permettant
de les détecter. La méthode de Zenwirth est une solution possible à ce problème.
On note i les années d’accident, j les années de développement et t les années
calendaires :
<< /j
<<
<<
<<
 
i t
Ces directions ne sont pas indépendantes les unes des autres. Une tendance
en année calendaire impactera les années d’accident et de développement. Plus
précisément, on a les relations suivantes :
BB
BB
BB
BB
 !
i2 i1

46
est équivalent à
/ i1


i1 + i2
ou à
CC / −i2
CC
CC
CC
C!
i1 + i2
En effet, une tendance sur les années calendaires i est égale à cette même ten-
dance sur les années d’accident et sur les années de développement :
>>
>>
>>
>>

i
est égale à
/i


i
Ainsi, une tendance i3 sur les années d’accident est égale à une tendance sur les
années calendaires i3 à laquelle on doit soustraire la tendance correspondante
sur les années de développement, ie


i3
est égale à
?? / −i3
??
??
??

i3
Ceci permet de comprendre les liens entre les différentes tendances comme
résumés graphiquement supra.
On souhaite avoir des paramètres de régression dans les trois directions. En
général, des changements n’apparaissent pas tous les ans, donc le modèle op-
timal (que l’on aura identifié sur un triangle particulier) sera parcimonieux au
niveau des paramètres. Ces paramètres pourront donner une idée claire des ten-
dances passées sur les incréments.

Définition 4.2.1. La famille de modèles, dits de Zenwirth, que l’on considère


s’écrit :
j−1
X i+j−1
X
Yij = αi + γk + ιt + ij
k=1 t=1

47
où αi est un paramètre pour l’année d’accident i, γj est la tendance moyenne
entre les années de développement j − 1 et j et ιt est l’inflation moyenne entre
les années calendaires t − 1 et t.

L’actuaire doit identifier le modèle le plus approprié aux données afin d’obtenir
des informations de tendance et de stabilité.
La régression s’écrit Y = M θ +  avec M définit par les règles énoncées dans la
définition suivante.

Définition 4.2.2. La matrice design M = (mij ) est construite de la manière


suivante : sur les colonnes correspondantes à αk , mij = 1 pour i = k ; sur les
colonnes correspondantes à γk , mij = 1 pour k < j ; enfin, sur les colonnes
correspondantes à ιt , on pose mij = 1 pour t < i + j.

Exemple 4.2.1. Prenons un exemple, pour I=J=4, on a


 
  α1 α2 α3 α4 γ1 γ2 γ3 ι1 ι2 ι3
y11  1
 y12   0 0 0 0 0 0 0 0 0 

   1 0 0 0 1 0 0 1 0 0 
 y13   
   1 0 0 0 1 1 0 1 1 0 
 y14   
   1 0 0 0 1 1 1 1 1 1 
 y21   
Y =
 y22 
 X= 0
 1 0 0 0 0 0 1 0 0 

   0 1 0 0 1 0 0 1 1 0 
 y23   
   0 1 0 0 1 1 0 1 1 1 
 y31   
   0 0 1 0 0 0 0 1 1 0 
 y32   
 0 0 1 0 1 0 0 1 1 1 
y41
0 0 0 1 0 0 0 1 1 1

Si des paramètres sont égaux, les colonnes de la matrice s’additionnent. Par


exemple, si précédemment, tous les α et les ι sont égaux et si γ2 = γ3 , alors X
devient  
α γ1 γ2 ι
 1 0 0 0 
 
 1 1 0 1 
 
 1 1 1 2 
 
 1 1 2 3 
 
X=  1 0 0 1 

 1 1 0 2 
 
 1 1 1 3 
 
 1 0 0 2 
 
 1 1 0 3 
1 0 0 2

Les valeurs prédites pour chaque cellule du triangle de log incréments sont alors

1 2 ··· j ··· J
Pj Pj PJ PJ−1
1 α1 α1 + γ1 + ι1 ··· α0 + γk + r=1 ιr ··· α0 + k=1 γk + r=1 ιr
P2 Pjk=1 Pj
2 α2 + ι1 α 1 + γ1 + r=1 ιr ··· α0 + γk + r=1 ιr ···
k=1
. . . . .
. . . . .
. . . . .
Pi−1 Pi Pj Pi+j−1
i αi + r=1 ιr α i + γ1 + r=1 ιr ··· αi + γ + ιr
k=1 k r=1
. . .
. . .
. . .
PI−1
I αI + r=1 ιr

48
Remarque 4.2.1. Dans son article, Zenwirth a exhibé des données réelles dont
les facteurs de développement de Chain Ladder sont très stables, alors qu’il y
avait des changements de tendances dramatiques sur les années calendaires. La
méthode de Chain Ladder ne permet pas de détecter ces changements de ten-
dances et suppose au contraire que ceux-ci restent constants tout au long du
développement.
On peut trouver aussi dans [2] un exemple de données très volatiles, mais pour
lesquelles il n’y a que peu de changements de tendances.
La méthode de Zenwirth s’utilise donc comme un outil de diagnostic permet-
tant d’obtenir des informations sur la stabilité et les changements de tendance
des données au niveau des années d’accident, de développement et des années
calendaires. Toutefois, la mise en oeuvre de la méthode n’est pas aisée ; elle doit
s’adapter à toutes nouvelles données et son interprétation est non évidente.

4.2.1 Un exemple instructif


L’exemple suivant illustre la méthode de Zenwirth et est tiré de [2]. On considère
la situation inverse où l’on connaı̂t les tendances. Les données incrémentales
entre 1978 et 1991 sont construites par :

Yij = ln(Zij ) = 11.51293 − 0.2j.

Les années d’accident sont complètement homogènes alors que l’on a une ten-
dance de -0.2 sur les années de développement. On rajoute une tendance de 0.1
sur les années calendaires 1978 jusqu’à 1982, de 0.3 de 1982 à 1983 et de 0.15 de
1983 à 1991, comme illustré par le schéma suivant. De plus, un terme d’erreur
suivant une loi normale N (0, 0.1) vient de plus perturbé les données construites.

Cette tendance se projette sur les années de développement de sorte que celle-ci
devient pour les années 1978 à 1982 de -0.2+0.1=-0.1, de -0.2+0.3=0.1 pour les
années 1982 et 1983 et de -0.2+0.15=-0.05 pour les années de développement
entre 1983 et 1991. Les tendances des années de développement pour chaque
année d’accident sont représentées dans le graphique ci-dessous. Ce graphique
permet de se faire une idée de la manière dont les tendances sur les années
calendaires se projettent sur les années de développement et d’accident sans
incorporer de termes d’erreurs.

49
source : Zenwirth [2]

La tendance résultante est par contre beaucoup plus erratique et imcompréhensible


lorsque l’on rajoute un terme d’erreur. Les tendances sont différentes pour
chaque année d’accident et ne peuvent se modéliser avec des facteurs de développement
Chain Ladder.

source : Zenwirth [2]

Dans un premier temps, afin de déterminer le modèle le plus adapté (en faisant
l’hypothèse que l’on ne le connait pas !), on teste celui pour lequel la tendance
est identique sur toutes les années d’accident, de développement et calendaires,
ie on teste γk = γ, ιt = ι et αi = α. Une régression effectuée à l’aide du logiciel
R nous fournit l’estimation des paramètres suivants :

Paramètres Estimation Sdt Error p-value


α 11.4 0.00097 <2e-16
γ -0.2 0.0012 <2e-16
ι 0.155 0.0012 <2e-16

Residual standard error : 0.03625 on 102 degrees of freedom


Multiple R-Squared : 0.9967, Adjusted R-squared : 0.9966
F-statistic : 1.527e+04 on 2 and 102 DF, p-value : < 2.2e-16

De plus, on a tracé le graphique suivant des résidus en fonction des années


calendaires :

50
Tab. 4.1 – Résidus en fontion des années calendaires

La structure des résidus n’est pas aléatoire et 3 tendances sur les années calen-
daires se dessinent sur le graphique, une pour les 4 premières années (de 1978
à 1982), la deuxième sur une seule année et une dernière tendance sur les 8
dernières années (de 1983 à 1991). Ce graphique suggère de choisir trois pa-
ramètres ι distincts sur les années calendaires concernées afin de tenir compte
des tendances observées. Une nouvelle régression fournit alors les résultats sui-
vants :
Paramètres Estimation Sdt Error p-value
α 11.51492 0.0069201 <2e-16
γ -0.20001 0.000376 <2e-16
ι1 0.098582 0.002358 <2e-16
ι2 0.304255 0.00499 <2e-16
ι3 0.150127 0.000515 <2e-16

Residual standard error : 0.01135 on 100 degrees of freedom


Multiple R-Squared : 0.9997, Adjusted R-squared : 0.9997
F-statistic : 7.806e+04 on 4 and 100 DF, p-value : < 2.2e-16

Fort heureusement, nous retrouvons les tendances telles que nous les avons
construites. Les graphiques suivants (cf. table 4.2) nous permettent de vérifier
qu’aucune tendance nette ne se dégage au niveau des années d’accident, de
développement et calendaires.

Nous avons tracé sur le premier graphique les résidus associés à chaque année
d’accident, sur le deuxième, les résidus associés à chaque année de développement,
et à chaque année calendaire sur le troisième. Sur le quatrième, on a représenté
les résidus en fonction des valeurs prédites. Ces graphiques montrent des struc-
tures aléatoires, sans qu’aucune tendance nette ne s’en dégage. Enfin, un test
de Shapiro sur les résidus nous permet d’accepter la normalité de ceux-ci (la
p-valeur qui est la probabilité de rejeter (H0 ) à tort étant plus grande que 0.05,
on accepte (H0 )) :
shapiro.test(lm$residuals) W = 0.9792, p-value = 0.09718

51
Tab. 4.2 – Graphiques des résidus en fonction des années d’accident de
développement et calendaires

52
On peut vérifier de plus à l’aide de la fonction d’autocorrélation que les résidus
ne sont pas corrélés et sont identiquement distribués :

Ce graphique est le tracé des covariances entre les résidus. Les pointillés bleus
correspondent au seuil en deça duquel on peut conclure que les corrélations sont
nulles avec une probabilité de 95%. Ici, toutes les corrélations sont nulles, ex-
cepté la première, ce qui est normale puisqu’il s’agit de la variance.

4.2.2 Etude des tendances sur notre triangle de données


Afin de déterminer le modèle qui semble optimal, on utilisera une méthode
ascendante ; on testera donc le modèle obtenu avec un nombre minimum de pa-
ramètres, puis on rajoutera autant de paramètres significatifs que nécessaire. A
chaque étape, on sera particulèrement attentif à la détection d’une quelconque
tendance ou à la répartition des résidus par rapport aux années d’accident, de
développement et aux années calendaires.
Si l’on pense que la méthode de Chain Ladder (et donc de Christophides si l’on
conserve tous les paramètres) est sur paramétrisée, et que seulement quelques
tendances majeures viennent perturber les données, alors il y a lieu de penser que
l’on aura besoin seulement que de peu de variables explicatives dans le modèle.
Par exemple, sur le triangle illustratif de ce mémoire, qui est de dimension 21,
on peut imaginer qu’au maximum, deux à trois tendances importantes aient pu
venir perturber nos données, soit au plus 6 à 8 paramètres explicatifs. A com-
parer avec les 42 paramètres du modèle de Chain Ladder ou les 63 paramètres
du modèle de Zenwirth complet ! C’est la raison pour laquelle, une méthode as-
cendante pour déterminer le modèle me semble plus appropriée qu’une méthode
descendante.
En toute logique, le premier modèle que l’on a testé est un modèle à 3 pa-
ramètres, celui où les tendances sont constantes, ie αi = α, γj = γ et ιt = ι. On
obtient, à l’aide du logiciel R, les résultats suivants :
Paramètres Estimation Sdt Error p-value
α 3.69 0.43 9.5910e-16
γ 0.0209 0.03459 0.546
ι 0.19806 0.03459 3.23e-08

Residual standard error : 2.302 on 228 degrees of freedom


Multiple R-Squared : 0.1763, Adjusted R-squared : 0.1691

53
F-statistic : 24.4 on 2 and 228 DF, p-value : 2.492e-10

Le paramètre γ de tendance sur les années de développement n’est pas significa-


tif. Bien que cela soit difficilement crédible, on essaye un modèle avec seulement
deux paramètres α et ι. Une régression nous permet d’aboutir aux résultats
suivants :
Paramètres Estimation Sdt Error p-value
α 3.69345 0.42661 8.70e-16
ι 0.20851 0.02992 3.35e-11

Residual standard error : 2.299 on 229 degrees of freedom


Multiple R-Squared : 0.175, Adjusted R-squared : 0.1714
F-statistic : 48.58 on 1 and 229 DF, p-value : 3.353e-11

Les graphiques suivants permettent d’analyser les résidus.

Tab. 4.3 – Graphiques des résidus en fonction des années d’accident de


développement et calendaires

Il se détache en année de développement une tendance γ1 sur les 5 premières


années, une deuxième γ2 sur les années 5 à 15 et une troisième γ3 sur les 6 années
suivantes. En appliquant ce modèle, on remarque qu’il y a un des paramètres

54
gamma qui n’est pas significatif. On reparamétrise en ne conservant que les
deux tendances les plus marquées, à savoir une première tendance γ1 sur les 5
premières années, et une deuxième γ2 sur les 15 années suivantes. Les paramètres
de régression obtenues avec le logiciel R sont alors les suivants :
Paramètres Estimation Sdt Error p-value
α 1.91636 0.44388 2.36e-05
γ1 0.69619 0.09217 1.03e-12
γ2 -0.22946 0.04457 5.69e-07
ι 1.98e-01 0.03081 7.51e-10

Residual standard error : 2.05 on 227 degrees of freedom


Multiple R-Squared : 0.3495, Adjusted R-squared : 0.3409
F-statistic : 40.65 on 3 and 227 DF, p-value : < 2.2e-16

Les graphiques suivants permettent d’analyser les résidus.

Tab. 4.4 – Graphiques des résidus en fonction des années d’accident, de


développement et calendaires

On remarque que la tendance sur les années d’accident change à partir de la


quinzième année. Le modèle est alors paramétrisé par deux coefficients α1 pour
les années 1 à 15 et α2 pour les 6 dernières années. Les paramètres γ1 , γ2 et ι
sont conservés. L’estimation des paramètres est alors :

55
Paramètres Estimation Sdt Error p-value
α1 1.82405 0.41216 1.50e-05
α2 -3.88812 0.63382 3.78e-09
γ1 0.45487 0.09414 2.50e-06
γ2 -0.28444 0.04232 1.45e-10
ι 3.03e-01 0.03335 <2e-16

Residual standard error : 1.902 on 226 degrees of freedom


Multiple R-Squared : 0.4423, Adjusted R-squared : 0.4325
F-statistic : 44.82 on 4 and 226 DF, p-value : < 2.2e-16

Les graphiques des résidus deviennent :

Tab. 4.5 – Graphiques des résidus en fonction des années d’accident, de


développement et calendaires

Les graphiques suggèrent que l’on a capturé toutes les tendances sur les années
d’accident, de développement et calendaires. Quelques essais supplémentaires,
en rajoutant un paramètre sur les années d’accident ou calendaires, ne donnent
rien de plus significatif. Il est à remarquer que les résidus sont regroupés en une
famille de points qui ne donnent pas l’impression d’être complètement aléatoires.
Le tracé de la fonction d’autocorrélation empirique suggère qu’ils ne sont pas
indépendants entre eux et qu’ils formeraient une moyenne mobile MA(1) d’ordre
1. Un test de Shapiro rejette l’hypothèse de normalité des résidus.

56
Toutefois, la méthode de Zenwirth nous a permis de détecter des changements
de tendance aux années 5 et 15. La première concerne uniquement les années de
développement, alors que la suivante concerne aussi les années d’accident. Cette
dernière tendance renforce l’idée que l’on avait suggéré supra d’une modification
de l’activité liée à ce triangle (run off ?). Il semble, que malgré la forte volatilité
des données, la tendance sur les années calendaires soit restée constante. Ce
triangle présentant des données a priori hétérogènes semblerait représenter des
tendances plutôt homogènes.

Cette méthode doit être prise comme un outil de diagnostic et de détection


des tendances qui viennent perturber les données. Elle permet de pondérer
les conclusions des autres méthodes disponibles en apportant des informations
supplémentaires et une meilleure compréhension de celles-ci.

57
Chapitre 5

Impact sur un an du risque


de taux

I l s’agit dans cette section de déterminer l’impact d’un choc de taux sur
une année calendaire. Puisque l’escompte des provisions n’est pas au-
torisé (sauf dans le cas d’un portefeuille de rentes), l’impact d’un choc
de taux n’a de sens que sur l’évaluation de provisions économiques.
Ces provisions sont importantes à évaluer pour avoir une appréciation juste de
celles-ci, dans le cadre par exemple, d’un modèle DFA ou des nouvelles normes
IFRS.
Dans un cadre comptable, l’impact du taux d’intérêt a son importance si la
société possède un portefeuille de rentes. Dans ce cas, les risques pouvant at-
teindre le portefeuille ne se limitent plus seulement au risque de taux, mais
incluent aussi un risque de changement de table ou de mortalité.

5.1 Au niveau des provisions économiques


Dans un premier temps, nous avons choisi la courbe de taux publiée par la com-
mission « Indices et références du marché »de l’Institut des Actuaires au 30 avril
2008. L’allure de cette courbe est la suivante :

58
On remarque la forme peu usuelle de celle-ci, qui témoigne de la crise de liqui-
dités initiée par les sub primes. Elle dénote en effet de mauvaises anticipations à
court terme, mais de plutôt bonnes à long terme. Il faut aussi noter que l’Insti-
tut des Actuaires a décidé de ne pas publier de courbes dont le taux à très long
terme soit inférieur au taux à long terme.
On souhaite estimer le montant des provisions RI+1 vu au temps t = I + 1. Il
y a maintenant deux sources d’incertitude, d’une part, les charges de la nou-
velle diagonale et d’autre part, la courbe de taux dans un an. De nouvelles
diagonales peuvent être simulées à l’aide du bootstrap. Pour simuler de nou-
velles courbes de taux, on peut calibrer sur la courbe IA un modèle de taux de
type Cox Ingersoll Ross (CIR), processus qui se simule facilement à l’aide de la
méthode d’Euler. Toutefois, j’ai préféré utiliser des courbes générées à l’aide du
générateur de scénarios économiques en monde réel (CAP : Link (ESG)) de To-
wers Perrin. Celles-ci ont été établies à partir d’hypothèses économiques au 30
mai 2008, et ne correspondent pas forcément aux courbes de taux telles qu’elles
le seront dans un an. Pour cette raison, j’ai fixé le taux à un an de ces courbes
à 1.03, le rendant déterministe afin d’obtenir un proxy acceptable des futures
courbes dans un an. Ce proxy l’est d’autant plus que le nombre de simulations
est grand, et il est possible que 1 000 simulations ne soient probablement pas
suffisantes. Pour s’en convaincre, on pourrait tracer l’évolution du risque à un
an obtenue par la méthode décrite infra en fonction du nombre de simulation
afin d’en observer la convergence.

La méthodologie suivante a été adoptée pour évaluer l’impact du risque de taux


sur une année calendaire :
– Répéter 1 000 fois : Estimation la diagonale suivante du triangle de manière
stochastique à l’aide de la méthode du bootstrap et remplissage du triangle
inférieur de manière déterministe par la méthode de Chain Ladder. On ap-
plique sur le triangle inférieur diagonale par diagonale une courbe de taux
issue d’un scénario. On calcule alors le montant des réserves Ri ultimes in-
flatées.
– Le risque de taux est simplement l’écart-type σ(Ri ) des provisions ultimes.

Exemple 5.1.1. Sur notre triangle, on a estimé la diagonale suivante par :

Année 2 3 4 5 6 7 8 9 10 11
Diagonale 11,013 14,918 14,196 13,685 16,980 31,896 40,704 39,504 58,590 30,028
Année 12 13 14 15 16 17 18 19 20 21
Diagonale 47,553 42,356 92,632 135,238 109,001 42,560 4,171 1,403 11 4

Tab. 5.1 – Estimation de la nouvelle diagononale

On a obtenu une estimation de la moyenne du montant des provisions indexées


de 2 232 240 et un écart type de 446 608 (risque de taux sur un an). La
distibution des provisions indexées est représentée sous la forme d’un histo-
gramme à la page suivante. Ce montant reste cohérent avec les résultats obtenus
précédemment et est de l’ordre de grandeur de l’erreur de prédiction de Mack.

Remarque 5.1.1. (Risque de (sur) inflation) Comme pour le taux d’intérêt,


le risque d’inflation, bien que très corrélé avec ce dernier, peut se révéler intéres-
sant à estimer. Toutefois, contrairement au risque de taux, le risque d’inflation

59
Tab. 5.2 – Distribution des provisions indexées

est en fait un risque de sur inflation, une inflation (constante) étant projetée
avec le triangle.
Signalons toutefois qu’un moyen possible de se prémunir contre l’incertitude sur
l’inflation future serait d’acheter sur le marché financier un swap indexé sur
l’inflation, afin de se garantir un taux d’inflation constant chaque année. Par
ce biais, on se ramènerait dans le cadre plus strict des hypothèses du modèle
de Chain Ladder. Un swap indexé sur le taux protègerait de la même façon
contre le risque de taux. Ce swap peut se voir comme la partie du capital
économique allouée aux réserves correspondant à la part d’incertitude sur le
taux ou l’inflation, en supposant en particulier que le marché est parfait. Bien
entendu, ce produit a un coup. Rappelons ici brièvement le fonctionnement d’un
swap indexé sur l’inflation :
Un swap d’inflation est un swap, où lors de chaque date de payement (par
exemple tous les ans), la partie A paye à la partie B le taux d’inflation en
vigueur lors de la période prédéfinie, tandis que la partie B paye à la partie A
un taux fixe. On trouvera dans l’article [18] de plus amples détails sur ce produit
ainsi que les formules analytiques permettant de le tarifer. Ces formules sont
dérivées de raisonnements classiques d’absence d’opportunités d’arbitrage.
Nous allons très brièvement donner un aperçu du modèle de Jarrow et Yildirim
(JY) de modélisation du taux d’inflation et du taux nominal. Rappelons que
le taux nominal est le taux fixé lors de la négociation du contrat de prêt, alors
que le taux d’intérêt réel est égal au taux d’intérêt nominal diminué du taux
d’infation. Le modèle JY est basé sur l’analogie qui consiste à considérer le taux
réel comme taux d’intérêt d’une économie étrangère et le taux d’inflation comme
le taux de change entre le taux nominal (domestique) et le taux réel (étranger).
En 2003, JY ont montré la proposition suivante :
Proposition 5.1.1. En notant par Qn (resp. Qr ) la mesure risque-neutre du

60
taux d’intérêt nominal (resp. réel), les dynamiques du taux nominal, réel et
d’inflation instantanés sont données par :

dn(t) =[θn (t) − an n(t)]dt + σn dWn (t)


dr(t) =[θr (t) − ρr,I σI σr − ar r(t)]dt + σr dWr (t)
dI(t) =I(t)[n(t) − r(t)]dt + σI I(t)dWI (t),

où Wn , Wr , WI sont des mouvements browniens de corrélations ρn,r , ρn,I , et


ρr,I et θn (t) (resp. θr (t)) est la fonction déterministe qui ajuste au mieux la
structure par terme des taux d’intérêt nominaux (resp. réel).
Jarrow et Yildirim supposent que les taux d’intérêt réel et nominaux sont nor-
malement distribués sous leur mesure risque-neutre respective. Ils ont prouvé
aussi que le taux d’intérêt réel suit un processus d’Ornstein-Uhlenbeck sous la
mesure du nominal Qn et que le taux d’inflation est distribué selon une loi lo-
gnormale sous Qn .
Le swap d’inflation YYII sur une année est un swap, où à chaque date Ti , la
partie B paye à la partie A la somme fixe

N φi K,

où K est le taux fixé au contrat et N est sa valeur nominale, tandis que la partie
A paye à la partie B la jambe variable
 
I(Ti )
N ψi −1 , (?)
I(ti−1 )

où ψi est le taux variable sur l’intervalle de temps [Ti−1 , Ti ], avec T0 := 0. On


montre que le prix d’un swap indexé sur l’inflation pour une année, au temps t
et de payoff (?) au temps Ti est
(   )
RT
− t i n(u)du I(Ti )
YYII = N ψi E e − 1 Ft (??).
I(Ti−1 )

Le risque de d’inflation peut être mesuré au temps t = 0 par la variance


 R  
− 0 i n(u)du I(Ti )
T
RInf := N ψi Var e −1 (? ? ?).
I(T0 )
de nominal N le montant des provisions du triangle.

A ce stade, deux alternatives sont possibles pour mesurer le risque d’inflation à


un an :
– Adapter les formules analytiques de calcul d’espérance de l’article [18] au
moment d’ordre 2 de la variation actualisée de l’inflation sur un an et en par-
ticulier à la variance ci-dessus. Cette option est ambitieuse, mais certainement
pas impossible.
– Plus simplement, à l’aide d’un jeu d’hypothèses plus ou moins réalistes, (eg
quel est le processus suivi par l’inflation et le taux d’intérêt, la volatilité
est-elle déterministe ou non, quelle est la forme de la corrélation entre les
différents processus, etc.), estimer les deux premiers moments de la variation
actualisée de l’inflation sur un an par la méthode de Monte-Carlo.

61
Exemple 5.1.2. La deuxième approche, par simulation, sera privilégiée ici.
Un certain nombre de constantes doivent être fixées, ainsi que les fonctions
déterministes θr et θn ajustant les taux nominaux et réels. La calibration de ces
constantes avec le marché est une partie à la fois délicate et intéressante, mais
n’est pas l’objet de ce mémoire. Il a été choisi les valeurs suivantes, de manière
plus ou moins arbitraire, en ayant pris soin de vérifier que les processus obtenus
engendrent des valeurs réalistes :

σn = 0.25, σr = σI = 0.2
ρ = 0.5, an = 0.6, ar = 0.6
θn (t) = 1.02t0.0028 , θn (t) = 1.05t0.0028 .

Ces deux fonctions proviennent simplement d’une interpolation logarithmique


de la courbe de taux de l’Institut des Actuaires :

Les mouvements browniens de la proposition 5.1.1 ont été simulés à l’aide de


l’algorithme de Gauss-Müller. Pour simplifier, on a considéré une seule période
d’une année et le taux variable ψi a été simulé à l’aide de 1 000 scénarios de
taux à un an CAP : Link de Towers Perrin. La méthode de Monte Carlo (10 000
simulations effectuées) a été choisie pour calculer les deux premiers moments de
YYII (formules (??) et (? ? ?)). Chacun de ces moments a été évalué avec une
valeur du taux variable ψi issue des différents scénarios. Enfin, le résultat est
obtenu comme la moyenne des différents moments obtenus :

E(YYII) =108 340 ± 3 256,


E(RInf ) =161 672 ± 3 500.

Remarquons d’abord que ce chiffre n’est pas comparable au risque de taux


obtenu précédemment, puisque l’on mesure ici le risque de (sur) inflation. Il
est par ailleurs naturel que ce risque soit moindre puisque l’on ne mesure que
l’écart entre l’inflation contastée et l’inflation estimée. De plus, il existe une
incertitude certaine d’estimation sur les paramètres calibrés au départ (ceux-ci
ne l’ont pas vraiment été dans les règles de l’art). Toutefois, ces valeurs ne sont
pas aberrantes.

62
5.2 Au niveau des provisions comptables
Contrairement à tout le reste du mémoire, on se place ici dans le cas d’un porte-
feuille de rentes. De ce fait, aucune simulation n’a été effectuée. La détermination
d’un risque de taux est ici plus compliquée, car on a deux effets supplémentaires
à prendre en compte, d’une part l’effet table de mortalité et d’autre part l’ef-
fet seuil d’actualisation imposé par la réglementation. En effet, d’après l’article
A.331-10 du code des Assurances, le taux d’actualisation doit être inférieur à
60% du TME (taux moyen des emprunts français calculé sur une base semes-
trielle), sans pouvoir dépasser 3.5%. Par ailleurs, s’ajoute au risque de taux, un
risque de table et de mortalité.

Tout d’abord, il n’y a pas d’impact sur un an du risque de mortalité, contraire-


ment par exemple au risque d’appréciation de la mortalité future. Ce risque est
donc ici négligeable.
Le risque de table est quant à lui un risque réglementaire et s’apprécie de façon
déterministe en menant les calculs sur deux tables différentes et en comparant
la sensibilité aux résultats.
En effet, pour le risque de taux, le calcul des rentes est projeté (de façon plus
ou moins complexe suivant les paramètres pris en compte : jugements minorité
et majorité, frais médicaux, frais de tierce personne), puis est actualisé avec
des courbes générées par un processus CIR ou par le générateur de scénarios
économiques en monde réel (CAP : Link). Les taux sont traités avec les règles
comptables de l’Article A.331-10. Toutefois, le TME est difficile à projeter et
une approximation doit ici être effectuée. On peut, par exemple, rajouter un
spread à l’actuel TME.
Enfin, il existe d’autres sources d’incertitude que l’on peut prendre en compte
et essayer de mesurer. Par exemple, on peut penser à l’aléa sur les jugements
(responsabilité, inflation jurisprudentielle).

63
Troisième partie

Méthodes de type
Bornhuetter Ferguson

64
Chapitre 6

Un modèle de Bornhuetter
Ferguson stochastique

A ce stade, il n’est pas inutile de faire quelques rappels sur la méthode de


Bornhuetter-Ferguson. A la différence de la méthode de Chain Ladder,
cette méthode permet d’intégrer des informations exogènes au triangle
et est sensible aux choix des années d’origine « semblables ».

6.1 Méthode de Bornhuetter-Ferguson


La méthode de Bornhuetter-Ferguson peut être résumée comme suit :
– Obtention d’une estimation initiale de la charge ultime CiJ pour chaque année
d’accident.
– Estimation de la proportion de sinistres ultimes qui apparaissent pour chaque
année d’accident, en utilisant par exemple, la méthode de Chain Ladder.
– Application de la proportion précédente à l’estimation initiale de l’ultime pour
obtenir une estimation des réserves.
Soit Mi l’estimation initiale de la charge ultime pour chaque année d’accident,
obtenue par exemple à l’aide d’une estimation des primes émises et d’un loss
ratio attendu. On écrit la charge sinistre pour l’année i comme

Si = Ci,I−i + (1 − pcI−i )Li Pi = Ci,I−i + (1 − pcI−i )Mi ,

avec Pi le montant de la prime émise, Li le loss ratio attendu pour l’exercice i


et
Ci,I−i
pcI−i = .
Ci,I

La cadence peut-être estimée à l’aide de la méthode de Chain Ladder de sorte


que
1
pcI−i = ,
fI−i+2 fI−i+3 . . . fI

65
d’où le montant des réserves pour l’année i :
 
1
Ri = (1 − pcI−i )Mi =Mi 1 −
fI−i+2 fI−i+3 . . . fI
1
=Mi (fI−i+2 fI−i+3 . . . fI − 1).
fI−i+2 fI−i+3 . . . fI
Pour la méthode de Chain Ladder, une estimation des réserves pour l’année
d’accident i est donnée par
Ri = Ci,I−i+1 (fI−i+2 fI−i+3 . . . fI − 1).
Ainsi, la différence entre la méthode de Bornhuetter-Ferguson et la méthode de
Chain Ladder est le facteur multiplicatif utilisé pour multiplier les facteurs de
développement. Pour la méthode de Chain Ladder, il s’agit de l’élément diagonal
Ci,I−i+1 alors que pour la méthode de Bornhuetter-Ferguson, il s’agit de
1
Mi .
fI−i+2 fI−i+3 . . . fI
Exemple 6.1.1. Les montants de primes par millésime étant inconnus, nous
les avons choisi arbitrairement. De même, on a choisit un loss ratio de 115%
ce qui nous semble cohérent au vu du déroulé de la branche longue représentée
par ce triangle. Les résultats qui suivent sont alors à nuancer fortement, car ils
sont très sensibles au niveau des montants de primes choisis. Les hypothèses
retenues sont indiquées dans les deux premières colonnes du tableau ci-dessous,
et les résultats obtenus dans les colonnes suivantes.
i primes S/P Ch ult a priori Provision Ch ult a posteriori
i = 1 10,960 1.15 12,604 0 9,133
i = 2 13,216 1.15 15,198 1,740 11,492
i = 3 20,697 1.15 23,802 4,342 18,443
i = 4 21,512 1.15 24,739 7,249 19,923
i = 5 24,354 1.15 28,007 9,531 22,920
i = 6 20,000 1.15 23,000 8,969 25,038
i = 7 15,000 1.15 17,250 7,361 32,089
i = 8 15,000 1.15 17,250 8,346 35,513
i = 9 90,877 1.15 104,509 56,906 91,401
i = 10 152,979 1.15 175,926 106,977 156,940
i = 11 123,384 1.15 141,891 949,93 128,977
i = 12 166,431 1.15 191,396 136,355 176,240
i = 13 172,858 1.15 198,786 150,779 185,567
i = 14 458,490 1.15 527,263 429,192 500,258
i = 15 550,000 1.15 632500 539,422 646,536
i = 16 650,000 1.15 747,500 661,398 745,067
i = 17 700,000 1.15 805,000 736,970 767,474
i = 18 123,384 1.15 141,891 134,448 137,080
i = 19 24,354 1.15 28,007 27,225 28,053
i = 20 20,000 1.15 23,000 22,703 22,706
i = 21 10,000 1.15 11,500 11,485 11,485

Le montant des réserves, calculé comme la somme des provisions, est de 3 156 432.
Ce montant est plus élevé que celui donné par la méthode de Chain Ladder, mais
encore une fois, n’ayant pas à disposition le montant des primes et des loss ra-
tio, ce résultat est purement illustratif et n’a pas de sens en lui-même. Il est
complètement dépendant du niveau de la prime et du loss ratio. Les charges
ultimes a posteriori sont simplement calculés comme la somme du montant des
provisions par année d’accident et de la dernière diagonale.

6.2 Modèle de calcul de la volatilité à partir du


loss ratio combiné
Ce modèle a été développé par Munich Re et présenté au colloque de l’ASTIN
en Allemagne par H. Böhm et H. Glaab en 2006 (on pourra se référer à [4]). On

66
notera dans cette section CiJ le montant de pertes ultimes attendues l’année
d’accident i, et vi le volume de primes acquises correspondant. Soit wi le volume
de primes émises comptablement et pi les commissions spécifiques à une année
calendaire. On n’utilisera pas ici le loss ratio qi := CiJ /vi , mais le loss ratio
combiné ri := qi + pi /wi . Soit T ⊆ {1, . . . , I} le sous ensemble des années
d’accident obtenu en éliminant les effets spécifiques à certaines années qui ne
reflètent pas la tendance globale, comme un volume de prime faible ou un loss
ratio exorbitant. Le loss ratio pur moyen est défini par
X
qi
i∈T
qb :=
|T |
et le loss ratio combiné moyen par
X
ri
i∈T
rb := .
|T |
On peut aussi utiliser des moyennes pondérées (en fonction de la volatilité du
volume de primes sous-jacent)
X
qi vi
i∈T
qbv := X
vi
i∈T

et pour le loss ratio combiné moyen


X
ri vi
i∈T
rbv := X .
vi
i∈T

Si vI+1 est le volume de prime estimé pour la nouvelle année calendaire, alors la
perte attendue pour la nouvelle année d’accident, obtenue comme la réalisation
d’une variable aléatoire notée XB , est en moyenne E(XB ) = rbvI+1 := µ ou
E(XB ) = rbv vI+1 := µv .

6.2.1 Modélisation de la volatilité


Commençons par quelques notations.
Notations 6.2.1. On pose
I+2−k
X
vk,≤ := vi
i=1
vk,< :=vk,≤ − vI+2−k
I
X
v+ := vi
i=1
I+1
X
v++ := vi = v+ + vI+1
i=1

67
On suppose que pour simplifier I = J et que T = {1, . . . , I}. De plus, on
supposera que les hypothèses suivantes sont vérifiées :
Hypothèses 6.2.1. – Pour tout j, les incréments Zi,j pour 1 ≤ i ≤ I sont
indépendants
– Il existe des constantes mj et sj telles que
 
Zi,j
∀i, E =mj
vi
 
Zi,j sj
∀i, Var =
vi vi
– Le calcul des réserves est fait selon ce modèle.
Remarque 6.2.1. On remarque la similarité des hypothèses précédentes avec
les hypothèses 2.2.1 du modèle sous jacent au claim development result.
(I)
Un estimateur m b j de mj , qui est le volume des pertes incrémentales pour
l’année de développement j étant donné les informations au temps t = I, est
donné par l’expression suivante
I+1−j
X
Zij
(I) i=1 Zj,<
∀j ∈ {1, . . . , J}, m
bj = I+1−j
=: .
X vj,<
vi
i=1
Un estimateur de sj est
I+1−j  2
1 X Zij (I)
∀j ∈ {1, . . . , I − 1}, sb2j = vi −m
bj .
I − j i=1 vi
Remarque 6.2.2. On remarque ici encore la similarité avec le modèle de Mack.
On a ici un modèle parallèle sur les incréments plutôt que sur les pertes cumulées
où les mj jouent le rôle des facteurs de développement fj et les sj ceux des
variances σj .
La perte totale de l’année calendaire suivante I + 1 est calculée comme
I 
X 
TI+1 = b I+1 − C
C bI + C b I+1
i,J i,J I+1,1 .
i=2 | {z }
| {z } nouvelle AY
anciennes AYs
Remarquer ici que l’on prend en compte toute la nouvelle diagonale en incluant
l’estimation de CI+1,1 , comme le représente le schéma ci-dessous :

68
On a alors la proposition suivante
Proposition 6.2.1. La variance des pertes totales pour l’année calendaire (I, I+
1] est

2 I
vI+2−k s2k
 
2 v++ vI+2−k X v++ vI+2−k
σB := Var(TI+1 ) = + 2 1+ .
v+ vk,≤ vk,<
k=2

On peut estimer cette variance en remplaçant dans la formule précédente sk par


son estimateur
I+1−k  2
1 X Zik (I)
sb2k = vi −m
bk , k = 1, . . . , I − 1.
I − k i=1 vi

Preuve. On renvoie à l’annexe B. 

Les réserves Ri pour l’année d’accident i sont estimées classiquement par


I
(I)
X
R
bi = vi m
bj ,
j=I+2−i

et les charges ultimes a posteriori par


I−i+1
b (I) =
X
CiJ Zij + R
bi .
j=1

6.2.2 Exemple
En utlisant notre triangle de données, on conserve les mêmes montants de primes
par millésime choisis dans le chapitre précédent :
i=1 i=2 i=3 i=4 i=5 i=6 i=7
vi 10,960 13,216 20,697 21,512 24,354 20,000 15,000
i=8 i=9 i=10 i=11 i=12 i=13 i=14
vi 15,000 90,877 152,979 123,384 166,431 172,858 458,490
i=15 i=16 i=17 i=18 i=19 i=20 i=21
vi 550,000 650,000 700,000 123,384 24354 20,000 10,000

avec une prime estimée pour i = 22 de vI+1 = 10 000.


Le triangle des incréments, avec l’estimation des paramètres mj et sj , est
présenté à la page suivante.

69
j=1 j=2 j=3 j=4 j=5 j=6 j=7 j=8 j=9 j=10 j=11
i=1 0.8 2.9 76.7 1,081.4 255.9 -231.8 282.2 166.6 331.0 620.4 576.9
i=2 13.5 272.7 137.1 230.2 174.9 536.9 317.6 266.8 244.8 389.5 219.3
i=3 266.2 230.1 63.1 -44.7 1,214.9 255.7 -31.4 860.3 530.0 2,118.9 1,750.2
i=4 152.4 133.2 -38.2 352.6 263.4 1,470.9 504.4 785.0 796.5 1,997.5 448.9
i=5 167.4 165.9 643.6 391.4 467.7 726.6 108.1 637.9 1,208.1 1,192.1 896.3
i=6 2.0 418.5 176.9 66.3 351.1 620.6 650.3 3,366.3 1,010.1 1,191.9 556.9
i=7 0.7 7,221.7 1,223.0 981.0 861.5 442.3 -3,101.2 1,263.9 2,275.6 3,038.0 1,158.9
i=8 4.0 230.3 905.6 377.3 1,659.2 1,009.7 2,306.8 2,317.5 2,276.6 2,597.2 1,595.2
i=9 0.2 558.8 2,500.8 1,937.8 1,948.4 1,304.8 3,299.4 3,861.8 4,607.4 3,060.6 3,911.1
i=10 18.0 341.0 722.2 2,441.5 4,565.4 3,954.7 4,750.6 5,406.3 8,733.6 3,704.4 5,183.1
i=11 180.4 64.8 288.0 2,402.2 4,766.6 2,759.8 3,455.8 3,832.3 6,623.3 4,271.8 5,339.5
i=12 84.8 1,637.8 1,689.7 4,398.0 3,557.4 5,164.3 5,553.2 4,713.0 7,669.7 5,416.5
i=13 0.1 901.5 2,770.5 1,502.4 5,090.4 4,472.8 8,003.5 4,701.5 7,345.3
i=14 60.2 2,547.1 7,604.8 11,765.2 10,881.9 13,363.7 11,632.5 13,210.7
i=15 802.4 9,110.1 8,434.1 15,618.3 25,164.1 25,084.1 22,900.5
i=16 1,978.4 7,629.1 10,529.9 16,984.7 27,019.4 19,527.7
i=17 100.3 3,047.1 6,947.8 12,183.9 8,224.3
i=18 199.9 982.3 518.8 891.1
i=19 0.0 1.0 826.7
i=20 2.0 0.4
i=21 0.2
m
cj 0.00119 0.01052 0.01372 0.02210 0.03009 0.03211 0.03267 0.03476 0.05152 0.04389 0.04259
s
bj 0.435 180.342 11.296 13.848 40.352 16.501 87.996 50.659 30.300 78.298 15.250
j=12 j=13 j=14 j=15 j=16 j=17 j=18 j=19 j=20 j=21
i=1 632.2 710.2 487.9 907.9 68.0 390.2 190.1 810.1 728.2 1,045.6
i=2 789.6 1,092.4 238.6 375.1 -372.2 349.6 657.4 3,177.9 640.8
i=3 480.8 2,626.6 1,130.1 272.1 767.3 708.2 756.2 146.6

70
i=4 1,140.2 293.9 1,041.4 989.7 454.8 875.5 1,012.0
i=5 1,224.0 1,386.8 1,042.4 1,199.6 499.6 1,431.6
i=6 616.4 1,315.1 2,469.0 924.3 2,333.6
i=7 1,663.0 1,849.4 2,237.4 3,612.5
i=8 3,457.1 5,075.6 3,354.8
i=9 4,470.8 3,032.8
i=10 10,142.5
i=11
i=12
i=13
i=14
i=15
i=16
i=17
i=18
i=19
i=20
i=21
m
cj 0.06401 0.07505 0.08527 0.06586 0.03387 0.04138 0.03940 0.09214 0.05663 0.09540
s
bj 59.298 172.653 78.310 93.562 40.887 2.939 2.724 222.057 1.930 -

Tab. 6.1 – Triangle des incréments


Le montant des réserves ainsi que le risque à un an σB (Proposition 6.2.1) est
résumé dans le tableau suivant.
i Ch ult a priori Provision Ch ult a posteriori
1 12,604 - 9,133
2 15,198 1,261 11,013
3 23,802 3,147 17,248
4 24,739 5,253 17,927
5 28,007 6,906 20,295
6 23,000 6,499 22,568
7 17,250 5,382 30,110
8 17,250 6,370 33,537
9 104,509 46,344 80,839
10 175,926 89,495 139,458
11 141,891 80,078 114,063
12 191,396 115,106 154,990
13 198,786 127,137 161,925
14 527,263 360,841 431,907
15 632,500 451,980 559,093
16 747,500 555,395 639,064
17 805,000 620,595 651,099
18 141,891 113,101 115,693
19 28,007 22,863 23,690
20 23,000 19,050 19,052
21 11,500 9,630 9,630
Réserve totale 2,646,430
Risque à un an 166,332

Bien que légèrement inférieur au montant des réserves prédit par la méthode
de Borhuetter-Ferguson, les réserves sont ici estimées par 2 646 430 et sont du
même ordre de grandeur que les valeurs estimées jusqu’à présent. Le risque à
un an est de 166 332 et est inférieur au montant estimé par les méthodes de
type Chain Ladder. Toutefois, nous avons pris en compte dans son évaluation les
données exogènes que sont les primes. Il faut insister sur le fait que le résultat
obtenu est sensible au niveau de primes choisi. Celles-ci n’étant pas connue,
on ne peut pas comparer le risque à un an obtenu par cette méthode avec
ceux obtenus précédemment. Pour que ces montants soient comparables, ils
doivent être estimées avec des méthodes incluant un niveau de données exogènes
équivalent. La section précédente nous le permettra.

6.2.3 Prise en compte d’un facteur de queue


La section suivante a pour objet de généraliser la formule précédente afin d’in-
corporer un facteur de queue. Aucune simulation ne sera effectuée dans cette
section, puisque le montant obtenu ne serait pas directement comparable aux
autres estimations de ce mémoire.
On suppose que J est la période de développement d’une ligne de business et
que les données sont développées sur j < J années de développement. Soit m[j +1
le facteur de volume des pertes incrémentales correspondant à la queue. Cette
quantité satisfait à
 
X J
E Zik  = vi m[ j +1
, i = 1, . . . , I.
k=j+1

Un estimateur m b[ j +1
peut être déterminé en supposant connu une cadence de
paiement (p1 , . . . , pJ ) avec p1 + · · · + pJ = 1. On supposera que cette cadence

71
reste constante tout au long du temps. Alors, on peut estimer m[
j +1
, étant donné
les observations au temps t = I et t = I + 1 par
J
X
pi
j j
(h) i=j+1 X (h)
X (h)
∀h ∈ {I, I + 1}, m
b[ = j
m
bk =: q m
bk .
j +1
k=1 k=1
X
pi
i=1

Comme l’année de développement j + 1 contient une partie stochastique, ie la


variable aléatoire Z1,j+1 , on partitionne m[
j +1
en m[
j +1
= mj+1 + mR , où mj+1
est le facteur des pertes incrémentales pour l’année de développement j + 1 et
mR celui pour les années de développement [j + 2, . . . , J], et l’on a :
j j
(I) pj+1 X (I) X (I)
m
b j+1 = Pj m
b k =: qj+1 m
bk ,
i=1 p i k=1 k=1

et
J
X
pi
j j
(I) i=j+2 X (I)
X (I)
m
bR = j
m
b k =: qR m
bk .
k=1 k=1
X
pi
i=1

En utilisant le même raisonnement que pour la preuve de la proposition 6.2.1 (cf.


Annexe B), on peut calculer la volatilité des pertes totales de l’année calendaire,
estimée par la proposition suivante :
Proposition 6.2.2. La variance des pertes totales pour l’année calendaire (I, I+
1] est estimée par
j 2 j 2
+ qR )2 X 2 v++ 2
v2

X vI+2−k v++ (1 vI+2−k (1 + qR )
σ
bB2
= sb2k 2 + sbk qj+1 + s2j+1 ++ .
+b
vk,≤ vk,< vk,≤ v1
k=1 k=1

72
Chapitre 7

Mesure du risque à un an à
partir de la volatilité des
facteurs de développement

L e modèle suivant est issu d’un article de Ward et Lee [33]. Cet ar-
ticle décrit un modèle de capital économique et de retour sur capital
sur une année calendaire pour une compagnie d’assurance compre-
nant plusieurs branches d’activités, en agrégeant les distributions des
risques opérationel, de crédit, de marché, sur les réserves, les catastrophes, la
vie, et la gestion actif-passif. Nous serons moins ambitieux et nous cantonnerons
à l’étude du risque sur les réserves sur une année calendaire. Nous évaluerons
aussi dans la mesure du possible la distribution associée aux réserves.
Ce modèle utilise une approche basée sur la volatilité des facteurs de développe-
ment et incorpore un risque de process, de paramètre et un risque systématique.
Cette méthode utilise une estimation des charges ultimes, notée ULE.
On estime un triangle de charges ultimes attendues via une approche mêlant la
méthode de Chain Ladder et de Bornhuetter-Ferguson :
!
1
ULEij = 1 − ILEi + CDFγj Cij ,
CDF1−γ
j

où CDFj désigne les facteurs de développement cumulés de l’année de développe-


ment j jusqu’à l’ultime, ILEi l’estimation initiale de l’ultime, obtenue en multi-
pliant les primes émises par le loss ratio attendu, et γ le coefficient d’ajustement
entre les pertes historiques et les estimations initiales.
Remarque 7.0.3. γ est compris entre 0 et 1. Si γ = 1, ULEij = CDFj Cij
et on retrouve la méthode de Chain Ladder, alors que si γ = 0, on retrouve la
méthode de Bornhuetter-Ferguson :
 
1
ULEij = 1 − ILEi + Cij .
CDFj

Exemple 7.0.1. Nous appliquons cette méthode sur nos données avec un choix
de γ = 0.3, un loss ratio de 115% et en conservant les mêmes montants de primes

73
par millésime choisis dans le chapitre précédent. Le triangle ULE des charges
ultimes attendues obtenue est alors :

i j=1 j=2 j=3 j=4 j=5 j=6 j=7 j=8 j=9 j=10 j=11
1 12,488 12,018 11,809 13,826 13,344 12,095 11,917 11,428 10,952 11,094 11,206
2 15,151 15,531 15,195 14,860 14,241 14,461 14,215 13,745 12,938 12,602 12,104
3 25,520 24,500 23,494 22,038 23,210 22,355 21,050 21,130 20,120 21,794 22,890
4 25,615 24,615 23,442 23,064 22,163 23,754 23,314 23,120 22,358 23,727 22,913
5 28,962 27,904 28,577 27,782 26,893 26,739 25,429 24,859 24,566 24,599 24,311
6 22,793 23,456 22,869 21,699 21,051 21,061 21,047 25,276 24,697 24,802 24,128
7 17,089 43,064 40,547 37,928 35,781 33,971 26,295 26,665 27,975 30,688 30,721
8 17,113 17,293 19,175 18,747 20,857 21,456 24,277 26,529 27,850 29,929 30,601
9 103,504 101,597 104,922 103,405 100,552 97,266 97,705 97,840 96,515 94,373 93,983
10 174,363 168,878 164,716 162,207 161,699 160,203 159,764 158,497 158,232 152,739 150,380
11 141,844 136,043 131,858 131,055 132,890 130,642 129,519 127,577 126,739 124,219 123,890
12 190,173 188,640 185,741 186,117 181,308 180,850 180,592 176,818 173,393 169,369
13 196,872 192,651 193,287 186,180 185,073 183,181 187,215 182,999 178,540
14 522,626 511,786 514,059 513,841 502,711 499,513 492,195 482,534
15 632,277 638,955 634,494 634,833 644,414 654,220 657,441
16 754,771 747,358 745,337 742,937 749,538 742,847
17 797,981 778,297 768,762 757,163 726,247
18 141,987 139,498 135,274 130,222
19 27,738 26,678 28,141
20 22,793 21,914
21 11,391
i j=12 j=13 j=14 j=15 j=16 j=17 j=18 j=19 j=20 j=21
1 11,088 11,039 10,759 11,039 10,609 10,388 9,983 9,475 9,416 9,133
2 12,068 12,366 11,636 11,165 10,159 9,817 9,859 11,678 11,355
3 21,637 23,142 22,783 21,531 21,447 20,965 20,614 18,110
4 22,502 20,982 20,559 20,189 19,745 19,461 19,395
5 23,839 23,524 22,887 22,574 22,059 22,243
6 23,018 22,831 24,145 23,651 25,364
7 30,849 31,203 32,140 34,784
8 33,112 37,450 39,520
9 91,930 87,914
10 150,780
11
12
13
14
15
16
17
18
19
20
21

7.1 Risque de process

La volatilité des facteurs de développement est calculée à partir d’un écart-


type pondéré sur les résultats observés. Soit Xij la variation des pertes ultimes
attendues entre les années de développement j − 1 et j :

ULEij ULEij − ULEi,j−1


Xij = =1+ .
ULEi,j−1 ULEi,j−1

Soit wij le poids relatif de l’année d’accident i pour l’année de développement


j:

ULEi,j−1
wij = X .
ULEk,j−1
k

74
La volatilité des facteurs de développement est définie pour j = 1, . . . , J − 1,
par :
v !2
u
uX
(j)
X
σLDF = t 2
wij Xij − wij Xij
i i
v !2
u
uX ULE  2
i,j−1 ULEij X 1
=t P − P ULEij
i k ULEk,j−1 ULEi,j−1 i k ULEk,j−1
v  X 2
u
u ULE ij
u
u 1 X ULE2ij  i 
=u P − X  .
t
i ULE i,j−1 i ULEi,j−1

ULEi,j−1

i

(j)
Cette méthode produit I −1 valeurs de σLDF et il est souhaitable d’obtenir aussi
(J) (J+1)
σLDF et σLDF . Pour cela, on calcule un facteur de queue via une régression log-
(1) (J−1)
linéaire, ie à travers un ajustement de σLDF , . . . , σLDF par une courbe exponen-
tielle. On choisit les poids ωj pour l’année de développement j de la régression
suivants : √
J −j+1
ωj = J
.
X p
j
j=1

Soit Y la variable aléatoire représentant le changement de pertes ultimes d’une


année sur l’autre. Les variables de régression sont les indices des années de
développement et les logarithmes des volatilités des facteurs de développement
(1) (J−1)
ln(σLDF ), . . . , ln(σLDF ). Les moments de la régression sont donnés par :
J
X
EX = jωj
j=1
J
(j)
X
EY = ln(σLDF )ωj
j=1
J
X
2
E(X ) = j 2 ωj
j=1
J  2
(j)
X
2
E(Y ) = ln(σLDF ) ωj
j=1
J
(j)
X
EXY = j ln(σLDF )ωj .
j=1

Les coefficients de la régression sont alors :


E(XY ) − EXEY
m=
E(X 2 ) − E(X)2
et
b = EY − mEX.

75
La facteur de queue est définie par
d = em
et finalement, on pose
(J) (J−1)
σLDF = d σLDF
(J+1) (J−1)
σLDF = d2 σLDF .
Exemple 7.1.1. (Suite de l’exemple 7.0.1.) Les volatilités des facteurs de
développement et les intervalles de confiance à 97.5% associés (construit avec le
test du χ2 ) pour le risque de process sont résumés dans le tableau suivant :
j=1 j=2 j=3 j=4 j=5 j=6 j=7 j=8
LDF Vol 0.0102 0.1028 0.0166 0.0169 0.0244 0.0162 0.0342 0.0309
2.5% 0.0050 0.0503 0.0080 0.0079 0.0111 0.0072 0.0148 0.0129
97.5% 0.0174 0.1756 0.0288 0.0295 0.0433 0.0291 0.0627 0.0576
j=9 j=10 j=11 j=12 j=13 j=14 j=15 j=16
LDF Vol 0.0192 0.0367 0.0170 0.0298 0.0599 0.0392 0.0480 0.0474
2.5% 0.0077 0.0141 0.0062 0.0103 0.0194 0.0118 0.0131 0.0115
97.5% 0.0366 0.0713 0.0338 0.0611 0.1266 0.0859 0.1098 0.1143
j=17 j=18 j=19 j=20 j=21 j=22
LDF Vol 0.0142 0.0141 0.1248 0.0107 0.01097 0.0112
2.5% 0.0029 0.0023 0.0151 0.0008 0.0000
97.5% 0.0365 0.0393 0.3889 0.0393 0.0548

Le facteur d est égal à 1.003.

7.2 Risque de paramètre


Le risque de process σLDF représente la volatilité de la charge sinistre réelle
autour de sa moyenne. Le risque de paramètre est une source d’incertitude
supplémentaire qui représente la volatilité de l’espérance de la charge sinistre
estimée. Un résultat classique est que si X désigne une variable aléatoire, la
variance de l’estimation de sa moyenne X est
VarX
VarX = .
n−1
Ici, la variance de process correspond à la volatilité des facteurs de développement
LDF et la variance de l’estimation à la volatilité des pertes ultimes attendues
(j)
ULE. Si σULE représente la volatilité sur l’estimation des charges ultimes pour
l’année de développement j, on a :
(j)
(j) σ
σULE = √ LDF .
J −1
Ce risque est supposé être indépendant de la volatilité des facteurs de développe-
ment.
Exemple 7.2.1. (Suite de l’exemple 7.0.1.) La volatilité des pertes ultimes
attendues σULE est :

j=1 j=2 j=3 j=4 j=5 j=6 j=7 j=8


ULE Vol 0.0023 0.0236 0.0039 0.0041 0.0061 0.0042 0.0091 0.0086
j=9 j=10 j=11 j=12 j=13 j=14 j=15 j=16
ULE Vol 0.0056 0.0111 0.0054 0.0099 0.0212 0.0148 0.0196 0.0212
j=17 j=18 j=19 j=20 j=21 j=22
ULE Vol 0.0071 0.0081 0.0883 0.0107 0.0109 0.0112

76
7.3 Risque systématique
En plus des risques observables sur le triangle de charges historiques, il y a un
risque qui mesure les changements relatifs au marché ou à la réglementation
et qui peut avoir un impact négatif sur les résultats futurs. Ce risque est des-
tiné à capturer ce qui n’est pas observable sur les données et doit donc être
modélisé séparement. Il est supposé être indépendant du risque de process et de
paramètre et être proportionnel aux charges ultimes. Ce risque peut donc être
attribué proportionnelement à deux sources, d’une part au niveau des charges
ultimes estimées et d’autre part à la partie impayée de celles-ci.
Soit 0 < q < 1 la proportion de risque systématique attribuée à la partie im-
payée des pertes ultimes. Dans ce cas, 1 − q représente la proportion de risque
systématique attribuable au niveau absolu des charges ultimes. Si σsyst est le
risque systématique total, alors la proportion de risque systématique attribuable
au niveau absolu des pertes ultimes est
σsyst (1 − q).
Si CDFj est le facteur de développement cumulé pour l’année de développement
j, alors (1 − 1/CDFj ) est le pourcentage de pertes ultimes qui reste impayé.
D’après la définition de q, la proportion de risque systématique attribuée aux
pertes ultimes impayées est
 
1
σsyst q 1 − .
CDFj
Finalement, le risque systématique pour l’année de développement j est donné
par la formule suivante
   
(j) 1
σsyst = σsyst q 1 − +1−q ,
CDFj
où σsyst est le risque systématique total et q la portion de ce risque attribuable
(j)
à la partie impayée des pertes ultimes. On suppose de plus que σsyst est parfai-
(i) (j) (j)
tement corrélé avec σsyst pour tout i, et non corrélé avec σLDF et σULE .

Exemple 7.3.1. (Suite de l’exemple 7.0.1.) On suppose que σsyst = 0.05


et que q = 0.9. Le risque systématique associé aux années de développment j
est résumé dans le tableau suivant :

j=1 j=2 j=3 j=4 j=5 j=6 j=7 j=8


Syst Vol 0.05 0.049941 0.049419 0.048743 0.047652 0.046197 0.044817 0.043378
j=9 j=10 j=11 j=12 j=13 j=14 j=15 j=16
Syst Vol 0.04163 0.039132 0.037059 0.035126 0.032364 0.029503 0.026772 0.024203
j=17 j=18 j=19 j=20 j=21 j=22
Syst Vol 0.022548 0.020313 0.018185 0.013209 0.010152 0.005

7.4 Volatilité total


Si σj représente la volatilité total pour l’année de développement j, alors,
r 2  2  2
(j) (j) (j)
σj = σLDF + σULE + σsyst .

77
La volatilité total est obtenue en agrégeant les volatilités σj pour chaque année,
en tenant compte des corrélations de celles-ci.
Soient X (i) et X (j) les variables aléatoires représentant les distributions pour
les années de développement i et j. Soit ρij la corrélation entre X (i) et X (j) .
On a :
Cov(X (i) , X (j) ) σij
ρij = =: .
σ i σj σi σj
Puisque la volatilité est composée de trois éléments (risque de process, risque de
paramètre et risque systématique), et étant donné les hypothèses d’indépendance
entre ces risques, il vient :
(i) (j)
σsyst σsyst
ρij = .
σ i σj
Enfin, la volatilité totale, qui mesure le risque à un an, est définit par
  
1 ρ12 ... ρ1,n+1 σ1 .ULE1
2
σ = (σ1 .ULE1 , . . . , σn+1 .ULEn+1 )  .
.. .
.. . .. .
.. ..
.
   
 .
ρn+1,1 ... ρn+1,n 1 σn+1 .ULEn+1
Exemple 7.4.1. (Suite de l’exemple 7.0.1.) La volatilité totale associée à
chaque année de développement est :

j=1 j=2 j=3 j=4 j=5 j=6 j=7 j=8


σj 5.11% 11.67% 5.23% 5.17% 5.39% 4.91% 5.71% 5.39%
j=9 j=10 j=11 j=12 j=13 j=14 j=15 j=16
σj 4.62% 5.48% 4.11% 4.71% 7.13% 5.12% 5.83% 5.73%
j=17 j=18 j=19 j=20 j=21 j=22
σj 2.76% 2.60% 15.39% 2.00% 1.85% 1.65%

La matrice de corrélation est explicitée ci-dessous :


CDF 2007 2006 2005 2004 2003 2002 2001 2000 1999 1998 1997
2007 1 0.42 0.93 0.92 0.87 0.92 0.77 0.79 0.88 0.70 0.88
2006 0.42 1 0.40 0.40 0.38 0.40 0.34 0.34 0.39 0.31 0.39
2005 0.93 0.40 1 0.89 0.84 0.89 0.74 0.76 0.85 0.68 0.85
2004 0.92 0.40 0.89 1 0.83 0.89 0.74 0.76 0.85 0.67 0.85
2003 0.87 0.38 0.84 0.83 1 0.83 0.69 0.71 0.80 0.63 0.80
2002 0.92 0.40 0.89 0.89 0.83 1 0.74 0.76 0.85 0.67 0.85
2001 0.77 0.34 0.74 0.74 0.69 0.74 1 0.63 0.71 0.56 0.71
2000 0.79 0.34 0.76 0.76 0.71 0.76 0.63 1 0.73 0.57 0.73
1999 0.88 0.39 0.85 0.85 0.80 0.85 0.71 0.73 1 0.64 0.81
1998 0.70 0.31 0.68 0.67 0.63 0.67 0.56 0.57 0.64 1 0.64
1997 0.88 0.39 0.85 0.85 0.80 0.85 0.71 0.73 0.81 0.64 1
1996 0.73 0.32 0.70 0.70 0.66 0.70 0.58 0.60 0.67 0.53 0.67
1995 0.44 0.19 0.43 0.43 0.40 0.43 0.36 0.37 0.41 0.32 0.41
1994 0.56 0.25 0.54 0.54 0.51 0.54 0.45 0.46 0.52 0.41 0.52
1993 0.45 0.20 0.43 0.43 0.41 0.43 0.36 0.37 0.41 0.33 0.41
1992 0.41 0.18 0.40 0.40 0.37 0.40 0.33 0.34 0.38 0.30 0.38
1991 0.80 0.35 0.77 0.77 0.72 0.77 0.64 0.66 0.74 0.58 0.74
1990 0.76 0.33 0.74 0.74 0.69 0.73 0.61 0.63 0.70 0.56 0.70
1989 0.12 0.05 0.11 0.11 0.10 0.11 0.09 0.10 0.11 0.08 0.11
1988 0.64 0.28 0.62 0.62 0.58 0.62 0.52 0.53 0.59 0.47 0.59
1987 0.54 0.24 0.52 0.52 0.49 0.52 0.43 0.44 0.50 0.39 0.50
1986 0.30 0.13 0.29 0.28 0.27 0.28 0.24 0.24 0.27 0.22 0.27
CDF 1996 1995 1994 1993 1992 1991 1990 1989 1988 1987 1986
2007 0.73 0.44 0.56 0.45 0.41 0.80 0.76 0.12 0.64 0.54 0.30
2006 0.32 0.19 0.25 0.20 0.18 0.35 0.33 0.05 0.28 0.24 0.13
2005 0.70 0.43 0.54 0.43 0.40 0.77 0.74 0.11 0.62 0.52 0.29
2004 0.70 0.43 0.54 0.43 0.40 0.77 0.74 0.11 0.62 0.52 0.28
2003 0.66 0.40 0.51 0.41 0.37 0.72 0.69 0.10 0.58 0.49 0.27
2002 0.70 0.43 0.54 0.43 0.40 0.77 0.73 0.11 0.62 0.52 0.28
2001 0.58 0.36 0.45 0.36 0.33 0.64 0.61 0.09 0.52 0.43 0.24
2000 0.60 0.37 0.46 0.37 0.34 0.66 0.63 0.10 0.53 0.44 0.24
1999 0.67 0.41 0.52 0.41 0.38 0.74 0.70 0.11 0.59 0.50 0.27
1998 0.53 0.32 0.41 0.33 0.30 0.58 0.56 0.08 0.47 0.39 0.22
1997 0.67 0.41 0.52 0.41 0.38 0.74 0.70 0.11 0.59 0.50 0.27
1996 1 0.34 0.43 0.34 0.31 0.61 0.58 0.09 0.49 0.41 0.23
1995 0.34 1 0.26 0.21 0.19 0.37 0.35 0.05 0.30 0.25 0.14
1994 0.43 0.26 1 0.26 0.24 0.47 0.45 0.07 0.38 0.32 0.17
1993 0.34 0.21 0.26 1 0.19 0.38 0.36 0.05 0.30 0.25 0.14
1992 0.31 0.19 0.24 0.19 1 0.35 0.33 0.05 0.28 0.23 0.13
1991 0.61 0.37 0.47 0.38 0.35 1 0.64 0.10 0.54 0.45 0.25
1990 0.58 0.35 0.45 0.36 0.33 0.64 1 0.09 0.51 0.43 0.24
1989 0.09 0.05 0.07 0.05 0.05 0.10 0.09 1 0.08 0.06 0.04
1988 0.49 0.30 0.38 0.30 0.28 0.54 0.51 0.08 1 0.36 0.20
1987 0.41 0.25 0.32 0.25 0.23 0.45 0.43 0.06 0.36 1 0.17
1986 0.23 0.14 0.17 0.14 0.13 0.25 0.24 0.04 0.20 0.17 1

78
Le risque à un an pour ce triangle est alors de :

σ = 159 070.

La comparaison de cette estimation est possible car l’on a estimé une valeur du
risque à un an dans le cadre d’un modèle stochastique de Bornhuetter-Ferguson
à la section précédente. On trouve ici un résultat très comparable et cohérent
au 166 332 obtenue précédemment.

7.5 Détermination de la distribution des réserves


On suppose que les charges de chaque millésime suivent une loi P lognormale,
dont la moyenne est égale à la somme des estimations des ultimes j ULEj et
d’écart-type σj .
Exemple 7.5.1. (Suite de l’exemple 7.0.1.) Les paramètres des lois lognor-
males des pertes pour chaque année de développement j sont :
Year 2007 2006 2005 2004 2003 2002 2001 2000 1999 1998 1997
Mean ln(loss) 9.35 9.33 9.99 10.24 11.78 13.49 13.52 13.39 13.09 12.09 12.04
StdDev 0.0510 0.1163 0.0523 0.0517 0.0538 0.0491 0.0571 0.0539 0.0462 0.0547 0.0411
Year 1996 1995 1994 1993 1992 1991 1990 1989 1988 1987 1986
Mean ln(loss) 11.73 11.92 11.38 10.58 10.46 10.14 10.01 9.86 9.80 9.34 9.12
StdDev 0.0471 0.0712 0.0512 0.0583 0.0573 0.0276 0.0260 0.1530 0.0200 0.0185 0.0165

On obtient ainsi 21 distributions lognormales pour chaque année de développe-


ment. Dans le tableau ci-dessous, la valeur de l’ultime estimée a été soustrait
aux valeurs simulées par la distribution, de façon à la centrer :
CDF 2007 2006 2005 2004 2003 2002 2001 2000 1999 1998 1997
0% -2,262 -4,501 -4,402 -5,599 -26,861 -137,900 -161,471 -135,720 -86,670 -37,378 -27,343
0.01% -2,001 -4,050 -3,895 -4,954 -23,779 -121,921 -143,069 -120,148 -76,566 -33,097 -24,122
0.10% -1,691 -3,493 -3,293 -4,187 -20,115 -102,976 -121,149 -101,636 -64,608 -28,005 -20,321
0.30% -1,518 -3,172 -2,957 -3,760 -18,066 -92,409 -108,876 -91,286 -57,947 -25,157 -18,209
0.50% -1,430 -3,006 -2,786 -3,542 -17,023 -87,036 -102,622 -86,017 -54,563 -23,707 -17,137
0.70% -1,369 -2,889 -2,667 -3,391 -16,299 -83,305 -98,275 -82,355 -52,213 -22,699 -16,394
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
99.93% 2,019 5,015 3,946 5,010 24,209 122,291 147,159 122,341 76,096 33,792 23,592
99.95% 2,086 5,199 4,076 5,174 25,008 126,294 152,043 126,380 78,574 34,909 24,354
99.97% 2,184 5,473 4,268 5,418 26,192 132,220 159,280 132,360 82,241 36,563 25,480
99.99% 2,386 6,046 4,665 5,921 28,630 144,417 174,203 144,684 89,785 39,974 27,795
100% 2,779 7,189 5,434 6,896 33,367 168,065 203,229 168,624 104,393 46,600 32,267
CDF 1996 1995 1994 1993 1992 1991 1990 1989 1988 1987 1986
0% -22,662 -39,762 -17,337 -8,752 -7,584 -2,823 -2,343 -9,414 -1,487 -862 -624
0.01% -20,026 -35,364 -15,337 -7,757 - 6,720 -2,481 -2,059 -8,545 -1,304 -755 -546
0.10% -16,903 -30,080 -12,963 -6,571 -5,691 -2,081 -1,726 -7,449 -1,091 -632 -457
0.30% -15,163 -27,102 -11,637 -5,907 -5,115 -1,860 -1,542 -6,806 -974 - -564 - 407
0.50% -14,279 -25,578 - 10,963 -5,568 -4,821 -1,748 -1,449 -6,471 - -915 -529 -382
0.70% -13,665 -24,517 -10,494 -5,332 -4,617 -1,671 -1,385 -6,234 -874 -506 -365
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
99.93% 19,961 38,023 15,486 8,009 6,917 2,326 1,920 11,861 1,194 688 495
99.95% 20,612 39,316 15,995 8,275 7,147 2,399 1,980 12,323 1,231 709 510
99.97% 21,576 41,234 16,748 8,670 7,487 2,507 2,069 13,015 1,286 741 532
99.99% 23,559 45,203 18,300 9,484 8,189 2,729 2,252 14,472 1,398 805 578
100% 27,400 52,969 21,310 11,069 9,554 3,155 2,602 17,423 1,612 928 667

Dans l’optique d’obtenir la distribution des réserves et le montant de capital


économique associé, il s’agit d’agréger ces distributions. La distribution sous-
jacente ne suivant pas forcément une loi connue, on utilisera une intégration
numérique ou des simulations de type Monte Carlo pour la déterminer.
Le problème se résout pas à pas, en prenant d’abord 2 distributions que l’on
agrégent ensemble, puis la distribution résultante est agrégée à une troisième,
etc. Cela permet d’éviter de faire des calculs dans des dimensions trop élevées
pour lesquelles les temps de calculs augmentent exponentiellement.
Afin de tenir compte des dépendances entre années d’accident et de développement,

79
nous agrègerons les 21 distributions marginales lognormales à l’aide de la matrice
de corrélation définie précédemment, c’est-à-dire que la structure de dépendance
est supposée suivre une copule normale. Le choix de cette copule permet, en cas
d’intégration numérique, de pouvoir utiliser des approximations polynomiales
pour la fonction de répartition normale et pour son inverse.
La méthode d’aggrégation de deux distributions consiste à d’abord transformer
les données à l’aide de la fonction de répartition normale pour leur appliquer en-
suite la densité de la normale bivariée afin de calculer les probabilités associées
à toutes les combinaisons de pertes. Etant données deux distributions
   
x1 prob(x1 ) y1 prob(y1 )
A =  ... ..  . ..
 et B =  .. ,
  
. .
xm prob(xm ) ym prob(ym )

la fonction de répartition associée à la distribution agrégée est alors, après avoir


trié les charges et cumulé les probabilités :
 
z11 prob(z11 )
 .. .. 

 . . 


 z1m prob(z1m ) 

 z21 prob(z21 ) 
Z= ,

 z2m prob(z2m ) 


 .
.. .
..


 
 zm−1,1 prob(zm−1,1 
zm−1,m−1 prob(zm−1,m−1 )
avec
xi + xi+1 yj + yj+1
zij = +
2 2
et Z φ−1 (prob(xi+1 )) Z φ−1 (prob(yi+1 )
prob(zij ) = f (x, y, ρnorm )dxdy,
φ−1 (prob(xi )) φ−1 (prob(yi ))

où φ désigne la fonction de répartition de la loi normale et f la densité de la loi


normale bivariée définie par
 
x2 −2ρnorm xy+y 2
1 − 12 1−ρ2
f (x, y, ρnorm ) = p e norm .
2π 1 − ρ2norm

De plus, ρnorm est calculé itérativement de sorte que la corrélation équivalente


ρequi définit par
ZZ
f (x, y, ρnorm )φ−1 −1
A (φ(x))φB (φ(x))dxdy − µA µB
R2
ρequi =
σ A σB
soit approximativement égale à la donnée ρ de la corrélation entre A et B ren-
seignée par la matrice supra.
Cet algorithme calcule la distribution empirique agrégée en (m − 1)2 valeurs.
Le résultat doit donc être réduit (à condition que m ≥ 2 !) afin d’avoir la même
forme que les distributions données, ce qui est fait par interpolation linéaire.

80
Exemple 7.5.2. (Suite et fin de l’exemple 7.0.1.) La distribution agrégée
obtenue est la suivante :
Probability Value
0.001% -727,571
0.10% -727,571
0.30% -559,137
0.50% -547,217
0.70% -532,339
. .
. .
. .
99.93% 455,174
99.95% 464,144
99.97% 497,746
99.99% 580,991
99.999% 580,991

Les principaux quantiles de cette distribution sont renseignés dans le tableau


suivant :
Average 3,075,231
50% 3,073,091
60% 3,113,821
70% 3,155,562
75% 3,178,890
80% 3,205,939
85% 3,239,099
90% 3,280,832
95% 3,343,251
99% 3,461,860

La moyenne, qui correspond au montant des provisions (prime pure) est de


3 075 231, ce qui tout à fait comparable aux résultats fournis par la méthode
de Borhuetter-Ferguson. On rappelle que cette méthode est un mélange des
méthodes de Chain Ladder et de Borhuetter-Ferguson, qui en sont les deux
extrêmes. Ayant choisi un paramètre γ de 0.3, nous avons donné plus de poids
aux informations exogènes et nous nous sommes ainsi rapproché du résultat
fourni par la méthode de Borhuetter-Ferguson.
Mais la distribution nous fournit aussi le capital nécessaire pour couvrir 99%
des sinistres, soit 3 461 860 . Toutefois, ce résultat isolé, qui paraı̂t faible, est à
prendre avec précaution, puisque le calcul d’un capital économique tient compte
de tous les risques auxquels est confronté la société, et pas seulement le risque de
réserve. A noter que l’utilisation même des mots « capital économique »constitue
un abus de langage.

81
Chapitre 8

Modèles bayésiens

L a statistique bayésienne traite des paramètres inconnus apparaissant


dans des modèles statistiques comme des variables aléatoires et déter-
mine leur distribution conditionnellement aux informations connues.
L’exemple le plus approchant (mais néanmoins distinct) et le plus
fréquemment utilisé dans l’industrie de l’assurance est certainement la théorie
de la crédibilité. Depuis le début des années 90 et le développement des si-
mulations de type Markov Chain Monte Carlo (MCMC), rendu possible par
l’algorithme de Metropolis-Hastings ou de rééchantillonage de Gibbs, un grand
nombre de chercheurs ont commencé à utiliser des modèles bayésiens en actua-
riat.
Parmi les principaux avantages des méthodes bayésiennes, on peut citer que ces
méthodes requièrent un modèle statistique complètement spécifié, permettent
d’incorporer des informations significatives ou des opinions d’experts quand elles
sont disponibles, proposent une modélisation de l’incertitude des paramètres du
modèle qui seront bien prises en compte au niveau des prévisions et fournissent
des distributions prédictives au lieu d’une seule quantité ou d’un intervalle de
confiance.
Les inconvénients de ces méthodes résident aussi dans leur flexibilité : un modèle
est propre à chaque type de données et ne peut être adapté exactement d’un tri-
angle à l’autre, l’estimation des paramètres et des valeurs initiales peut s’avérer
délicate, il est très difficile de conclure que l’algorithme a convergé, cette conclu-
sion n’étant définitive qu’en cas de divergence... De plus, les calculs ne peuvent
être menés sur Excel et nécessitent un logiciel adapté comme WinBUGS.
WinBUGS est un logiciel libre dont la finalité est de conduire des calculs de Mar-
kov Chain Monte Carlo (MCMC) pour de larges variétés de modèles bayésiens.
BUGS est l’acronyme de Bayesian Inference Using Gibbs Sampling et a été
développé à l’origine par le département Biostatistics Unit of the Medical Coun-
cil de Cambridge, United Kingdom. Nous débuterons cette section par rappeler
la méthodologie du calcul MCMC.

8.1 Markov chain Monte Carlo (MCMC)


La technique MCMC est un outil de calcul puissant qui génère des échantillons
à partir d’une distribution a posteriori. MCMC est devenu populaire en sta-

82
tistique puisque cela autorise l’utilisation de modèles compliqués décrivant des
problèmes réels permettant d’estimer la distribution sous jacente avec justesse.
Rappelons qu’une chaı̂ne de Markov est un processus stochastique (θ(1) , . . . , θ(t) )
telle que la distribution de θ au temps t+1 étant donnés les précédents θ(i) (pour
i = t, . . . , 1) ne dépendent que de θ(t) . De plus, f (θ(t+1) |θ(t) ) est indépendant de
t. Enfin, quand la chaı̂ne de Markov est irréductible, apériodique et récurrente
positive, la distribution de θ(t) tend vers une distribution stationnaire indépen-
dante de la distribution d’origine θ(0) .
Pour générer un échantillon de f (θ|y), on doit construire une chaı̂ne de Markov
avec les deux propriétés précédentes, ie f (θ(t+1) |θ(t) ) doit être facile à générer et
la distribution stationnaire doit être la distribution a posteriori f (θ|y) cherchée.
Il s’agit donc de construire une chaı̂ne de Markov satisfaisant cela, puis de
sélectionner une valeur d’origine et de générer des valeurs jusqu’à atteindre
la distribution stationnaire. Puis, on supprime les t0 premières observations
afin d’annuler l’effet du choix des valeurs initiales et l’on conserve l’échantillon
{θ(t0 +1) , . . . , θ(t0 +t) }.
Les deux algorithmes les plus populaires sont l’algorithme de Metropolis-Hastings
et l’algorithme de rééchantillonage de Gibbs présentés ci-dessous.
Exemple 8.1.1. Algorithme de Metropolis-Hastings. L’algorithme se décom-
pose en les points suivants :
1. Générer θ0 à partir d’une distribution initiale q(θ|θ(t) )
2. Calculer
f (θ0 |y)q(θ(t) |θ0 )
 
α = min 1,
f (θ(t) |y)q(θ0 |θ(t) )
3. Choisir θ(t+1) = θ0 avec probabilité α, sinon choisir θ(t+1) = θ(t) .
Remarque 8.1.1. Il existe deux classes de lois instrumentales q :
– les lois indépendantes, qui constituent une généralisation de la méthode de
rejet, q(θ(t) |θ0 ) = h(θ(t) ). Les bonnes familles de h satisfont à la condition de
domination
f (θ(t) |y)
≤ M.
h(y)
– Les lois symétriques q(θ(t) |θ0 ) = h(|θ(t) − θ0 |). Dans ce cas,

f (θ0 |y)
 
α = min 1, .
f (θ(t) |y)
Exemple 8.1.2. Algorithme de rééchantillonage de Gibbs. Il s’agit d’un
cas particulier du précédent. C’est cet algorithme qui est implémenté dans Win-
BUGS. Dans cet algorithme, chaque composante est remise à jour à chaque
étape à partir de la distribution conditionnelle a posteriori. Etant donné un
état de la chaı̂ne θ(t) , on estime
(t+1) (t) (t)
θ1 à partir de f (θ1 |θ2 , θ3 . . . , θp(t) , y)
(t+1) (t+1) (t)
θ2 à partir de f (θ2 |θ1 , θ3 , . . . , θp(t) , y)
..
.
(t+1) (t+1) (t+1)
θp(t+1) à partir de f (θp |θ1 , θ2 , . . . , θp−1 , y),

83
où p est le nombre de composantes du vecteur de paramètres θ. Simuler
(t+1) (t+1) (t)
f (θj |θ\j , y) := f (θj |θ1 , . . . , θj−1 , θj+1 , . . . , θp(t+1) , y)

est relativement simple, car il s’agit d’une distribution univariée avec f (θj |θ\j , y) ∝
f (θ|y) et toutes les variables exceptées θj sont conservées constantes. Pour simu-
ler des modèles multivariés complexes, il suffir de savoir simuler les distributions
conditionnelles complètes des différentes variables du modèle au pas à pas. C’est
là qu’intervient l’appellation Monte Carlo de MCMC.
L’algorithme de Gibbs est un cas particulier de l’algorithme de Metropolis-
Hastings car, quand la densité proposée q(θ0 |θ(t) ) est égale à la densité condi-
tionnelle a posteriori f (θj |θ\j , y), on a α = 1 et l’on accepte toujours le chan-
gement.

8.2 Modèles bayésiens implémentés sous Win-


BUGS
8.2.1 Un modèle bayésien pour la méthode de Chain Lad-
der
Le modèle bayésien présenté dans cette section est tiré d’un article de Scollnik
(cf. [28]) et est basé sur le fait que les facteurs de développement tendent à
être similaires pour chaque année de développement. Au fil de la section, nous
incorporerons une partie de code WinBUGS (facilement compréhensible) qui
fera office d’algorithme. Le code complet est fourni en annexe E.
On va supposer que les facteurs de développement suivent une loi normale dont
la moyenne est la même pour les facteurs de la même année de développement :

devfac[i, j] ∼ N (θj , τij )

pour i = 1, . . . , I et j = 1, . . . , I − 1. Cela s’écrit de manière algorithmique sous


la forme suivante :

y = triangle des incréments


z = triangle cumulé
for(i in 1 :20){
for(j in 1 :(21-i)){
devfac[i, j]= z[i, j+1] / z[i, j]}}
Remplissage du triangle inférieur :
for(i in 2 :21){
for(j in (21-i+1) : 20){
z[i,j+1] = z[i,j]*devfac[i,j]
y[i,j+1] = z[i,j+1]-z[i,j] }}

Ce modèle permet les incréments négatifs puisque devfac[i, j] peut-être plus


petit que 1. Dans WinBUGS, le deuxième paramètre est la précision, défini
comme l’inverse de la variance. Cette précision peut être définie de plusieurs
manières différentes, soit égale à une valeur fixe τ ou égale à une valeur com-
mune τj étant donnée une année de développement j, ou encore pondérée par

84
différents poids τij = τ weight[i, j]. L’actuaire peut choisir son modèle en fonc-
tion de son expérience et des données dont il dispose (primes émises, nombre de
sinistres pour la dernière année de développement).
On suppose ensuite que les paramètres de la moyenne θj sont des variables
aléatoires de loi normale :
θj ∼ N (µθ , τθ )

pour j = 1, . . . , I − 1.
Enfin, afin d’avoir un modèle statistique complètement déterminé, il convient
d’attribuer aux paramètres restants une distribution sous-jacente. Nous teste-
rons les paramétrisations suivantes :

τ ∼ Γ(0.001, 0.001)
µθ ∼ N (1, 0.001)
τθ ∼ Γ(0.001, 0.001).

Le schéma ci-dessous suivant résume le modèle et ses différentes dépendances.

Dans ce modèle, les paramètres τ , µθ , et τθ ont pour moyenne 1 et variance


1000. De plus, les facteurs de développement devfac[i, j] ont été restreints à être
supérieur à 0.95.
Bien entendu, ce modèle n’est pas le seul possible, ni même sûrement le plus

85
adapté aux données. On aurait pu par exemple choisir le modèle suivant :

τ ∼ Γ(1.5625, 0.0025)
µθ ∼ N (1, 1)
τθ ∼ Γ(1.5625, 0.0025).
√ √
Ici, les paramètres d’écart type 1/ τ et 1/ τθ des distributions conditionnelles
de devfac[i, j] et de θj ont pour moyenne et variance respective 0.054 et 0.038. La
différence principale avec le modèle précédent réside dans la différence d’ordre
de grandeur des variances. Dans ce premier cas, on a choisi des distributions
a priori dites non informatives, c’est-à-dire, des distributions qui expriment
peu d’informations ou des informations vagues sur une variable aléatoire, par
exemple, cette variable est positive ou est inférieure à un certain seuil. Des dis-
tributions a priori non informatives sont en général choisies pour être utilisées
sans être modifiées pour un large panel de données différentes. Toutefois, un
des problèmes posés par les distributions a priori non informatives est qu’elles
doivent engendrer une distribution a posteriori propre, ie dont la somme vaut 1.
A contrario, des distributions dont la somme n’est pas même pas forcément finie
sont dites impropres. Certains statisticiens utilisent des distributions impropres
comme distributions a priori non informatives, mais l’interprétation n’en est
que plus difficile, puisqu’elles ne définissent plus de densités de probabilité.
Le dernier modèle possède des paramètres de variance plus faibles et définit
donc plutôt des distributions a priori informatives, ie donnant une information
sur la variable aléatoire.
Comment savoir lequel de ces modèles est le meilleur ? Aucun des deux, c’est cer-
tain, car il est rare qu’un modèle statistique s’adapte parfaitement aux données,
mais le mieux que l’on puisse espérer est d’avoir sélectionné un modèle in-
terprétable, sensible, consistant avec l’historique et l’expérience et dont les
prédictions sont correctes.
Remarque 8.2.1. Un moyen de choisir un modèle pourrait être de simuler un
nouvel échantillon de données répliquées pour tous les modèles sélectionnés et
de comparer leurs caractéristiques aux données originales. Soit x les données
originales et xrep les données répliquées. Soit θ le vecteur des paramètres incon-
nus pour le modèle associé aux données observées. On suppose que les valeurs
(xrep , θ) sont générées conjointement. Soit T (x, θ) une mesure de discrépance
utilisée pour comparer les données originales et répliquées. Le choix de T (x, θ)
va dépendre du contexte du problème. Si l’on est intéressé par la dispersion des
données, on sera conduit à choisir T1 (x, θ) = max(xi ) − min(xi ) ou
I
X
T2 (x, θ) = (xi − x̄)2 .
i=1

La quantité peut aussi dépendre des paramètres et


I
X 2
T2 (x, θ) = (xi − E(Xi |θ))
i=1

peut aussi être utilisée. Les valeurs de T (xrep , θ) sont calculées et doivent être
comparées à celles de T (x, θ). Pour cela, on peut utiliser la Bayes p-value. Cette

86
p-value est définie par la probabilité a posteriori que les données répliquées
soient plus extrêmes au sens de la mesure de discrépance que les données origi-
nales, étant donné un modèle, ie

Bayes p -value = P (T (xrep , θ) ≥ T (x, θ)|x) ,

où la probabilité est prise sous la loi a posteriori de (xrep , θ). Si cette probabilité
est proche de 0 ou de 1, alors le modèle est suspect.
Le code permettant de calculer cette probabilité est présenté en annexe E.
Puis, les réserves sont alors calculées comme la somme des incréments futurs :

Montants des charges ultimes :


for (i in 2 :21){
oustand.row[i]=sum(y[i,(21+2-i) :21])}
oustand.row[22]=sum(oustand.row[2 :21])}

Exemple 8.2.1. Nous allons appliquer les méthodes décrites dans cette sec-
tion sur les données utilisées tout au long de ce rapport. Rappelons que ces
données sont des données réelles et n’ont pas été retraitées. Elles présentent
une forte hétérogénéité entre les années d’accident. En particulier, le montant
nul de C19,1 rend impossible le déroulement des programmes s’ils sont laissés
en l’état. Les faibles montants apparaissant certaines années d’accident pour la
première année de développement laissent supposer qu’un modèle statistique ou
un modèle linéaire (généralisé) aurait peu de chances de convenir.
Le modèle a été choisi de façon à avoir une Bayesian p-value la plus proche
possible de 0.5. Le modèle défini par

τ ∼ Γ(0.01, 0.01)
µθ ∼ N (1, 0.01)
τθ ∼ Γ(0.01, 0.01).

est celui qui a été retenu. Il a été comparé aux modèles précédents en jouant
sur les paramètres. La Bayesian p-value est très faible, de l’ordre de 0.161 avec
une erreur de 0.01561. Sa valeur rend le modèle suspect, aucun modèle meilleur
n’a été trouvé.
Il n’est alors pas surprenant que le modèle bayésien pour la méthode de Chain
Ladder appliqué à ce triangle donne un résultat aberrant. L’algorithme MCMC
sous WinBugs diverge. On observe que le programme et le modèle sont sensibles
aux données initiales et qu’un lissage des données fait converger l’algorithme et
donnerait des résultats plus cohérents. L’application du programme transformé
pour capturer le risque à un an diverge de la même manière : les résultats sont
environ la moitié de ceux trouvés précédemment, mais restent d’un ordre de
grandeur bien supérieur à ceux espérés. Il se pourrait aussi qu’une erreur de
programmation ou une méconnaissance du logiciel WinBugs aient conduit à ces
résultats.
Toutefois, l’application du modèle de Chain Ladder non stochastique sous Win-
BUGS, même si son intérêt est plus que limité, donne des résultats en accord
avec ceux trouvés précédemment. Le montant des provisions est résumé dans le
tableau ci-dessous pour chaque millésime : On trouve un montant de provisions

87
Tab. 8.1 – Statistique des réserves

de l’ordre de 2 448 000. L’erreur observée de l’ordre de 289 provient de l’ajout


d’un terme d’erreur au facteur de développement, terme qui suit une loi normale
centrée de précision 106 .

8.2.2 Un modèle bayésien pour la méthode de Bornhuetter-


Ferguson
A présent, l’idée est de reprendre le modèle précédent et de combiner la connais-
sance de la distribution postérieure des facteurs de développement avec une
estimation par ailleurs du niveau des charges ultimes pour chaque année de sur-
venance i. Soit R[i, j] la proportion de sinistres ultimes associée à l’année de
survenance i observée à la fin de l’année de développement j. On a donc :
1
R[i, j] = J−1
,
Y
devfac[i, k]
k=j

pour i = 1, . . . , I et j = 1, . . . , J − 1. La quantité 1 − R[i, j] représente la pro-


portion d’ultimes associée à l’année de survenance i et observée après l’année
de développement j et la quantité R[i, j − 1] − R[i, j] est égale à la proportion
observée durant l’année de développement j. Les valeurs R[i, j] sont ici stochas-
tiques.
Dans la méthode de Bornhuetter-Ferguson, on effectue une estimation indépen-
dante du niveau des charges ultimes ultimate[i] pour chaque année de survenance
que l’on répartit entre les différentes années de développement à l’aide de l’es-
timation des facteurs de développement. Pour tout i, le montant des charges

88
ultimes pour la première année de développement est donné par :

ultimate[i] R[i, 1],

pour la j-ième par :

ultimate[i] (R[i, j] − R[i, j − 1]) , j = 2, . . . , J − 1,

et la dernière par :
ultimate[i]((1 − R[i, J − 1]) .
Le montant des réserves est alors égal à la somme des quantités ci-dessus sur le
triangle inférieur. Cette partie s’écrit sous la forme algorithmique suivante :

Montants des charges ultimes :


for(i in 1 :21){
bfcell.curr[i,1]= ultimate[i]*R[i,1]
for(j in 2 :20){
bfcell.curr[i,j]= ultimate[i]*(R[i, j]-R[i, j-1])}
bfcell.curr[i,21]= ultimate[i]*(1-R[i,20])}
Calcul des réserves
for (i in 2 :21){
outstand.row[i] = sum(bfcell.curr[i,(21+2-i) :21])}
outstand.row[22] = sum(outstand.row[2 :21])}

Dans un contexte bayésien, on souhaite obtenir la distribution postérieure du


montant des sinistres ultimes et non une simple estimation. On supposera ici
que le montant estimé des sinistres ultimes est construit à partir des primes
émises et d’un loss ratio initial, ie :

ultimate[i] = premium[i] lossratio[i]

pour tout i. Le montant des primes émises est supposé connu. Le loss ratio peut
être soit fixé, soit stochastique. On supposera que les loss ratio associés aux
différentes années de survenance sont indépendants et identiquement distribués
de loi normale de paramètre mu.lossratio et de précision 1600 où le paramètre
sous jacent mu.lossratio est normalement distribué de moyenne 1.15 et d’écart-
type 0.1 :

mu.lossratio[i] ∼ N (1.15, 100)


lossratio[i] ∼ N (mu.lossratio, 1600).

Exemple 8.2.2. Concernant la méthode de Bornhuetter-Ferguson, l’incorpora-


tion de données exogènes tempère le processus et le fait converger. Les résultats
obtenus pour cette méthode sont tout à fait convenables et ont été obtenus à
l’aide de 10 000 simulations. Les graphiques d’évolution présentés ci-dessous
montrent que l’on peut conclure que le processus a bien convergé. Ce tableau
résume les principales statistiques des montants des provisions outstand.row[i]
pour le millésime i. On peut y lire à la dernière ligne que le montant des pro-
visions donné par cette méthode est de 3 879 000 et que l’erreur de prédiction
associée est de 333 700. Ces provisions sont ventilées par exercice aux lignes
précédentes.

89
Tab. 8.2 – Statistiques des réserves

90
Ces résultats concordent avec ceux obtenus par de précédentes méthodes. Les
graphiques ci-dessous (table 8.3) montrent l’évolution du montant des réserves
pour le millésime i en fonction des itérations et rassurent quant à la convergence
du processus. Le dernier graphique indique de plus, les intervalles de confiance
d’ordre 2.5% et 97.5% successifs autour du montant des réserves totales.

8.2.3 Modification de ces méthodes pour l’obtention du


risque à un an
La méthodologie à suivre pour pouvoir estimer le risque à un an est la suivante :
– Estimer la diagonale suivante en utilisant le modèle bayésien sur les facteurs
de développement. On introduit ainsi le choc sur la diagonale ici.
– Estimer le montant des provisions ultimes P à l’aide de cette nouvelle diago-
nale. Stocker cette valeur.
– Répéter les deux étapes précédentes ad nauseam.
– Le risque à un an est l’écart type des provisions ultimes estimées σ(P ).

Exemple 8.2.3. Le code pour la méthode de Chain Ladder a été adapté


pour estimer le risque à un an. Toutefois, l’algorithme MCMC diverge pour
la méthode de Chain Ladder bayésienne et il n’est pas surprenant que l’algo-
rithme diverge de la même manière pour la méthode sur un horizon de un an.
Le code est malgré tout fourni en Annexe E.
La méthode de Bornhuetter-Ferguson bayésienne, réalisée avec 10 000 simula-
tions sous WinBUGS, donne des résultats plus intéressants. Ces résultats ont
été résumés dans la table 8.4 de la page suivante, représentant les statistiques
de base des réserves, le graphique des simulations successives et la densité du
montant total des réserves.
Les graphiques montrent que le modèle est convergent, et on peut lire sur la
table des statistiques de base que le montant des réserves est d’environ 3 879
000 avec pour risque à un an 126 200.
Il faut remarquer que cette méthode bayésienne est une méthode qui ressemble à
la méthode de Bornhuetter-Ferguson, mais il s’agit en fait d’une réinterprétation.
Lors de l’application de cette méthode, on reconstruit tout le triangle, et il est
possible que l’incertitude soit de nouveau dispersée sur l’ensemble du triangle.
Il faut noter également que si l’on rend déterministe le loss ratio dans le code de
la méthode, le risque à un an devient quasiment nul ! La volatilité semble donc
être essentiellement dûe à la distribution normale du loss ratio. Bien que les
résultats obtenus ici semblent être en ligne avec les résultats précédents, ceux-ci
(et éventuellement le modèle) sont très suspects et par conséquent peu fiables.

91
Tab. 8.3 – Evolution des différentes simulations des réserves par année d’acci-
dent
92
Tab. 8.4 – Statistiques, densité et évolution des différentes simulations des
réserves totales

93
8.3 Modèle GLM bayésien de Verall pour la méthode
de Bornhuetter-Ferguson
Cette section est directement inspirée de Verall (cf. [31] et [32]). Dans cette
section, on notera Zij les incréments et Cij les montants cumulés. Le modèle
de Poisson surdispersé est le modèle stochastique sous-jacent à la méthode de
Chain Ladder. Rappelons que si X ∼ P(µ) suit une loi de Poisson de paramètre
µ, alors Y = φX suit une loi de Poisson surdispersé avec EY = φµ et V (Y ) =
φ2 µ = φEY . Le paramètre de dispersion φ est en général plus grand que 1. Ce
modèle peut être défini par :

J
X
Zij |x, y, φ ∼ P(xi yj ) surdispersé avec yk = 1.
k=1

Le paramètre xi = E[CiI ] représente le montant ultime cumulé attendu pour


l’année d’accident i et yj peut être interprété comme la proportion d’ultimes
qui apparaı̂t à chaque année de développement j. Renshaw et Verall ont montré
que ce modèle donne la même provision que la méthode de Chain Ladder, cf.
[27].
Dans cette section, on s’intéresse à une approche bayésienne du modèle de
Bornhuetter-Ferguson qui autorise l’utilisation d’information a priori sur les
paramètres de lignes (xi )i=1,...,I , ce que l’on résumera dans les distributions
indépendantes a priori suivantes :

xi |αi , βi ∼ Γ(αi , βi ).

Il reste à estimer les paramètres yj et φ. Ce dernier est estimé par ailleurs,


en sommant le carré des résidus de Pearson (cf. méthode du bootstrap). Re-
marquons toutefois que dans le cadre d’un modèle bayésien complet, ce dernier
pourrait être de plus défini à l’aide d’une distribution a priori.
Pour les observations futures (k > i et l > j), la distribution est donnée par :

f (Zkl |Zij , i = 1, . . . , I, j = 1, . . . , I − i + 1, φ)
ZZ
= f (Zkl |x, y, φ)f (x, y|Zij , i = 1, . . . , I, j = 1, . . . , I − i + 1, φ)dxdy
Z Z !
= f (Zkl |x, y, φ)f (x|(Zij )i=1,...,I,j=1,...,I−i+1 , φ)dx f (y|(Zij )i=1,...,I,j=1,...,I−i+1 , φ)dy.
| {z }
=f (Zij |Ci1 ,...,Zi,j−1 ,y,φ)

On vérifie (cf [31]) que Zij |Zi1 , . . . , Zi,j−1 , y, φ suit une loi binomiale négative
de paramètre
Ci,j−1 βi φ + Sj−1
αi + et
φ βi φ + Sj
Pj
avec Sj = k=1 yk . La moyenne de la distribution de Zij |Zi1 , . . . , Zi,j−1 , y, φ
pour la méthode Bayésienne est
 
C yj
αi + i,j−1
φ βi φ+Sj

Ci,j−1 αi

φ βi φ+Sj−1
= z ij + (1 − z ij ) yj ,
Sj−1 βi
βi φ+Sj

94
avec
Sj−1
zij = .
βi φ + Sj−1
Il s’agit d’une formule de crédibilité. La proportion de charges ultimes yj qui
apparaı̂t chaque année de développement j est multipliée par la moyenne a
priori des charges ultimes
αi
βi
pour la méthode de Bornhuetter-Ferguson ou par une estimation de la charge
ultime
Ci,j−1
Sj−1
pour la méthode de Chain Ladder. On a ici une combinaison des deux méthodes,
chacune étant à une extrémité.
Il reste à estimer les paramètres des colonnes yj . Un moyen de le faire est d’esti-
mer d’abord les paramètres des colonnes en utilisant une estimation déterministe
extérieure, par exemple avec la méthode de Chain Ladder. C’est cette approche
qui est utilisée dans la méthode de Bornhuetter Ferguson, mais ce n’est pas
souhaitable ici car on souhaite avoir une approche stochastique. Un moyen de
procéder est alors de définir des distributions impropres a priori pour les pa-
ramètres des colonnes et de les estimer en premier, avant d’appliquer les dis-
tributions a priori pour estimer les paramètres de lignes. L’avantage de cette
méthode est que les paramètres des colonnes sont fixés et sont identiques à ceux
obtenus par la méthode de Chain Ladder.
Comme on n’a pas besoin d’introduire des informations exogènes sur les pa-
ramètres des colonnes, on peut utiliser une distribution gamma et utiliser le rai-
sonnement classique a priori - a posteriori bayésien comme l’on a fait précédem-
ment. On obtient une distribution qui est très proche de la distribution binomiale
négative précédente pour le modèle de Poisson surdispersé, la contrainte
J
X
yk = 1
k=1

sur les colonnes étant remplacée par une nouvelle contrainte sur les lignes :

I
X
0 0
Zij |x , y , φ ∼ P(x0i yj0 ) surdispersé avec x0k = 1.
k=1

Il s’agit seulement ici d’une reparamétrisation du modèle, ce modèle étant


complètement symétrique par rapport au premier. La contrainte particulière
choisie était influencée par l’interprétation du modèle, mais on peut changer
cette contrainte sans changer les distributions conditionnelles, bien que les pa-
ramètres et leurs interprétations seront changés. Donc, de la même façon que
précédemment, on trouve que Zij |Z1j , . . . , Zi−1,j , x0 , φ suit une loi binomiale
surdispersée de paramètre
i−1
1 X
et Zmj .
γi m=1

95
Pi−1
La moyenne de cette distribution est (γi − 1) m=1 Zmj . En la comparant
à la moyenne obtenue par la méthode de Chain Ladder, (fi − 1)Ci,j−1 =
Pj−1
(fi − 1) m=1 Zim , on peut voir que leurs formes sont identiques, l’indexation
étant sur les lignes plutôt que sur les colonnes.
Ce modèle peut alors reproduire la technique de Bornhuetter-Ferguson en utili-
sant une information a priori connue pour les paramètres de lignes ou la tech-
nique de Chain Ladder en utilisant une distribution a priori impropre pour les
paramètres de lignes.
Enfin, les distributions a priori ayant été définies pour les paramètres xi , il
est nécessaire d’avoir une relation entre les nouveaux paramètres γi et les pa-
ramètres originaux xi . Cette relation est donnée par :

γ1 = 1
 
1
x2 1 − fn
γ2 = 1+
C1n
 
1
x2 1 − PI
fk
k=I−i+2
γi = 1+ i−1 I i−1 I−k+1
, i = 3, . . . , I.
X X Y X
CmI + γl Cmk
m=1 k=I−i+3 l=I−k+2 m=1

Les paramètres des colonnes sont donc estimés en premier en utilisant une distri-
bution impropre (leur estimation sera donc celle impliquée par Chain Ladder).
Ils sont ensuite intégrés dans le modèle binomiale négatif. Les informations a
priori peuvent être définies en terme de distributions avec les paramètres xi et
converties en les paramètres γi en utilisant les formules ci-dessus. Les paramètres
de la distribution a priori des paramètres de lignes αi et βi sont estimés à partir
de l’écart-type et de l’espérance de xi :

esperance de xi
βi = et αi = βi × esperance de xi
variance de xi

Remarque 8.3.1. Dans son article, Verall fournit le code WinBUGS qu’il a
utilisé sur son triangle de dimension 10. Il y a peu de modification à faire pour
adapter le code au triangle qui nous sert d’illustration, qui est de dimension 21.
Pourtant WinBUGS ou OpenBUGS affichent une erreur de type overflow qui
sous entendrait qu’il y aurait trop de noeuds embriqués les uns dans les autres
( ?). Il s’agirait peut-être d’un problème de dimension plutôt que de données ou
plus prosaı̈quement d’une mauvaise installation informatique de la license, ne
me permettant pas de jouı̈r de la pleine puissance du logiciel.
Toutefois, il apparaı̂t que le code de R. Verall n’est pas programmé de la façon
la plus optimale qui soit, donc une solution pourrait consister à reprogrammer
l’algorithme de la méthode de Verall. Une façon élégante de procéder consiste-
rait de plus à piloter WinBUGS à partir du logiciel R à l’aide de la librairie
R2WinBUGS développée par Stéphane Laurent en 2007. En effet, d’une part,
cela pourrait fournir un outil préparé utilisable en pratique, et d’autre part,
cette extension de WinBUGS sur R fournit des tests et des outils statistiques
de diagnostics de convergence, ce qui ne permet pas WinBUGS. Ne sachant
pas comment faire fonctionner ce code, je ne présente pas de simulations pour
cette partie. Sur un autre jeu de données, ce code a parfaitement fonctionné

96
et a donné des résultats probants. Nous renvoyons à l’annexe F pour plus de
commentaires et pour le code WinBUGS
Le calcul du risque à un an suit la même méthodologie que celle décrite dans la
section précédente. La simulation du risque à un an par la méthode de Verall
n’a pas été envisagée our les données présentées jusque là dès lors que la simu-
lation du risque ultime ne fonctionnait pas, mais l’a été pour le nouveau jeu de
données de l’annexe F. Nous renvoyons le lecteur à cet annexe dans laquelle se
trouve le code modifié pour capturer le risque à un an.

97
Chapitre 9

Synthèse des résultats

Pour conclure ce mémoire, le tableau suivant récapitule tous les résultats obtenus
pour les différentes méthodes testées.

Réserves Risque à l’ultime Risque à un an


Mack (Ult) et CDR (un an) 2,447,523 451,834 272,407
Bootstrap 2,657,257 512,319 296,666
Christophides 2,316,483 119,102 38,489
Bornhuetter-Ferguson stochastique 2,646,430 nil 166,332
Modèle à un an (Chap. 7) 3,075,231 nil 159,070
Bornhuetter-Ferguson bayésien 3,879,900 333,700 126 200
On remarque tout d’abord la grande différence d’estimation entre toutes les
méthodes présentées. Néanmoins, il est à noter que l’on n’avait aucune connais-
sance de données exogènes et que les données de primes et de loss ratio ont été
estimées pratiquement au hasard. Cette méconnaissance des données ne m’a pas
permis d’utiliser autre chose que le triangle, et en particulier aucun benchmark.
Pour cette raison, les résultats obtenus avec la méthode de Bornhuetter-Ferguson
sont à nuancer sensiblement. De plus, nos données présentant des incréments
négatifs, les résultats produits par la méthode de Christophides sont suspects.
Il faut remarquer le manque de résultats sur deux des méthodes implémentées
sous WinBUGS. Si ces modèles sont puissants et souples, leur mise en oeuvre
n’est pas des plus simples et nécessite un certain apprentissage... Il faut aussi no-
ter la cohérence des résultats obtenus avec les méthodes de type Chain Ladder ou
Bornhuetter Ferguson qui présentent des ordres de grandeur similaires. Comme
déjà signalé, les résultats de la méthode de Bornhuetter Ferguson bayésien sont
difficilement interprétables car il n’est pas aisé de déterminer avec exactitude la
partie stochastique du modèle sous-jacent.
Tous les résultats présentés ici ne sont donc qu’illustratifs et importent moins
que les méthodes décrites dans ce mémoire. Ce sont ces dernières qui sont à
retenir.

98
Conclusion

Sutor, ne supra crepidam

Tout au long de ce mémoire, nous avons passé en revue les méthodes clas-
siques actuarielles de provisionnement. On s’est attaché à décrire, d’une part
les méthodes de type Chain Ladder ne nécessitant pas de données exogènes, et
d’autre part, des méthodes de type Bornhuetter-Ferguson pouvant incorporer
des avis d’experts. Ces dernières permettent de définir des modèles plus flexibles
s’adaptant mieux aux données. Mais leurs avantages font aussi la difficulté de ces
modèles, notamment des modèles bayésiens, puisqu’ils nécessitent un choix au
préalable d’un modèle statistique idoine (il n’existe pas de modèles par défaut)
dont les valeurs initiales ne soient pas trop éloignées des valeurs réelles. De plus,
pour ce type de modèles, il n’existe pas de moyens certains de s’assurer que le
modèle a bien convergé.
Tous les modèles classiques de provisionnement ont une vision à l’ultime, c’est-
à-dire étudient la variabilité de l’estimation des réserves par rapport à sa valeur
à la fin de leurs développements.
Le projet Solvency II permet d’homogénéiser le calcul de la marge de solvabilité
(SCR) à travers un calcul plus juste économiquement. Le SCR doit permettre
de couvrir les pertes potentielles avec une certaine probabilité sur un horizon de
12 mois. Concernant la partie provisionnement, cela nécessite donc de calibrer
le risque de réserve (la volatilité) sur un an, ce que ne permet pas en l’état les
méthodes actuarielles classiques de provisionnement.
L’objectif de ce mémoire a été de décrire comment les adapter pour mesurer le
risque à un an. Nous avons présenté le principe général de calcul du risque à un
an et son application à la méthode de Christophides et aux modèles bayésiens,
ainsi que les adaptations plus spécifiques du modèle de Mack et de la technique
bootstrap. Il a été présenté de plus, deux méthodes de détermination des réserves
et du risque à un an, qui est pour l’une d’entre elle, une partie d’une méthode
plus générale de détermination de capital économique basée sur la volatilité des
facteurs de développement et pour l’autre une méthode stochastique sous ja-
cente à la méthode de Bornhuetter Ferguson basée sur les loss ratio combinés.
Dans l’optique de travailler sur une année calendaire, on a décrit par ailleurs
l’impact d’un choc de taux ou de (sur) inflation sur le risque à un an et un outil
de diagnostic des tendances pouvant impacter une année calendaire, tendances
qui ne sont pas détectables avec les seuls coefficients de développement de Chain
Ladder.
Si finalement Solvency II est calibré sur la base d’un horizon à un an, il restera
encore à faire connaı̂tre ces méthodes, à mieux les comprendre, à les améliorer,
à en développer de nouvelles ou à construire une méthode de référence qui serait

99
l’équivalent de la méthode de Chain Ladder. Ces méthodes font actuellement
l’objet de beaucoup de recherches, tant dans le cadre de modèles internes confi-
dentiels que dans le domaine public et permettent de mieux appréhender cette
vision de risque à court terme.

Tab. 9.1 – Des triangles, toujours des triangles...

100
Annexe A

Erreur d’estimation dans le


modèle de Mack

C ette annexe permet de faire le point sur l’erreur de prédiction du


modèle de Mack. Celle-ci se décompose en l’erreur de process, que
l’on sait calculer explicitement et en l’erreur d’estimation, dont on ne
peut avoir qu’une approximation. C’est donc le terme posant les prin-
cipales difficultés. Cette annexe s’inspire directement de l’article [34] et de la
discussion du bulletin ASTIN 36.

A.1 Version récursive du modèle de Chain Lad-


der
Dans cette section, nous nous plaçons dans le cadre d’un modèle récursif du
modèle de Chain Ladder, en supposant des hypothèses plus fortes que celles
du modèle de Mack. Nous noterons Cij les charges cumulées pour l’année de
déclaration i ∈ {0, . . . , I} et l’année de développement j ∈ {0, . . . , J}. Les in-
formations connues sont :

D := {Cij ; i + j ≤ I}.

Nous noterons le trapèze tronquée à gauche, pour j ≤ J, par

Bj := {Cil ; l ≤ j}.

Hypothèses A.1.1.
– Les charges cumulées Cij pour les différentes années de déclaration i sont
indépendantes.
– Il existe des constantes fl > 0, σl ≥ 0 (l = 0, . . . , J − 1) telles que, pour tout
i ∈ {0, . . . , I}, pour tout j ∈ {0, . . . , J}, on ait :
p
Cij = fj−1 Ci,j−1 + σj−1 Ci,j−1 εij ,

où εij sont des variables aléatoires indépendantes de moyenne nulle, de va-
riance 1.

101
Remarque A.1.1. On rappelle que :
– Les coefficients fj représentent les facteurs de développement (link ratio).
– Il est facile de montrer que les hypothèses A.1.1 du modèle impliquent les
hypothèses suivantes du modèle de Mack :
E(Cij |Bj−1 ) = E(Cij |Ci,j−1 ) = fj−1 Ci,j−1
2
Var(Cij |Bj ) = Var(Cij |Ci,j−1 ) = σj−1 Ci,j−1
Remarque A.1.2. Une des faiblesses liées à ces hypothèses est que théorique-
ment, il est possible que Cij soit négatif. Cela contredit le modèle de Chain
Ladder puisque cela autoriserait la variance à devenir négative ! Le modèle ci-
dessus n’ajusterait alors pas tout à fait le modèle de Chain Ladder et serait
légèrement différent de celui-ci. C’est donc à la suite de ctte critique que ces
hypothèses ont été modifiées en les hypothèses 2.2.1.
L’estimateur classique du coefficient de Chain Ladder
I−j−1
X Ci,j+1
fbj = PI−j−1
i=0 i=0 Ci,j
est, conditionnellement à Bk (k ≤ j), un estimateur sans biais de fj (cf. [16]).
Ainsi, un estimateur sans biais de E(Ci,j |D) est donné par :
J−1
Y
C
bi,J = Ci,I−i fbj .
j=I−i

On montre (cf [16]) que les fbj sont non corrélés, et que, conditionnellement à
Bi−1 , C
bi,J est un estimateur sans biais de E(Ci,j |D).

A.2 Mean square Error of prediction


On définit la mean square error of prediction par l’écart quadratique moyen :
 
bi,J 2 D

MSEP = E Ci,J − C

bi,J est D-mesurable, on montre (cf [16]) que :


Comme C
 
2 2
MSEP = E Ci,J − E(Ci,J |D) D + C d i,J − E(Ci,J |D) .
| {z }
| {z } estimation variance
process variance

L’erreur de process, Var(Ci,J |D), dûe à la variabilité interne des données échan-
tillonnées (la variance stochastique mesure l’écart avec la moyenne), peut se
calculer explicitement (cf [16] p218).
L’erreur d’estimation mesure le biais commis en tentant d’estimer la moyenne et
vient du fait que l’on a estimé, étant données les informations D, les coefficients
fj de Chain Ladder par fbj . Ainsi, d’après la remarque A.1.1 :
J−1 J−1
!2
 2 Y Y
bi,J − E(Ci,j |D) = C 2
C i,I−i fbj − fj .
j=I−i j=I−i

102
Comme les facteurs réels de développement ne sont pas connus, on ne peut
pas calculer l’erreur d’estimation explicitement. On essaie alors d’estimer les
fluctuations de fbj autour de fj . On peut pour cela, rééchantillonner la série
chronologique et évaluer les volatilités des données rééchantillonnées. Il y a plu-
sieurs façons de procéder (cf [5]).

A.2.1 Approche 1
On approxime l’erreur d’estimation par sa moyenne, conditionnellement à l’in-
formation connue, i.e., on souhaite estimer :
" J−1 J−1
!2 # " J−1 J−1
!2 #
Y Y Y Y
2 2
E Ci,I−i fj −
b fj BI−i = Ci,I−i E fj −
b fj BI−i .
j=I−i j=I−i j=I−i j=I−i

En utilisant la non corrélation conditionelle des fbj , et le fait que fbj sont des
estimateurs sans biais de fj , il vient :
" J−1 J−1
!2 # J−1
!
Y Y Y
E fj −
b fj BI−i = Var fj BI−i
b
j=I−i j=I−i j=I−i
J−1
! J−1
Y 2 Y
= E fbj BI−i − fj2
j=I−i j=I−i

2
Ici, la difficulté principale vient du fait que les estimateurs fbj sont négativement
corrélés, et donc ne sont pas indépendants. Le produit précédent ne peut donc
pas se calculer simplement.
Proposition A.2.1. Sous les hypothèses A.1.1, on a
 
Cov fb2 , fb2 < 0. j−1 j

Preuve. cf. [17] 

Néanmoins, il est possible de trouver un minorant et un majorant de la moyenne


de l’erreur d’estimation, conditionnellement à l’information connue. On définit,
pour j ≤ J et k ≤ I
k
[k]
X
Sj = Ci,j .
i=0
On a alors :
Théorème A.2.1. Sous les hypothèses A.1.1, on a
" J−1 J−1
!2 # J−1 J−1
2
Y Y
2
Y X σj2 /fj2
Ci,I−i E fj −
b fj BI−i ≥ Ci,I−i fj2  [I−1−j] 
j=I−i j=I−i j=I−i j=I−i E Sj BI−i
et
" J−1 J−1
!2 # " J−1
! # J−1
!
2
Y Y
2
Y σj2 Y
Ci,I−i E fbj − fj BI−i ≤ Ci,I−i E [I−1−j]
+fj2 BI−i − fj2 .
j=I−i j=I−i j=J−i Sj j=I−i

103
On remarque que la borne supérieure ne peut pas être calculée explicitement.
Il est nécessaire pour l’estimer d’appliquer des simulations ou des techniques de
bootstrap.
Preuve. cf.[34] 

Si on agrége les différentes années d’accident, la MSEP n’est pas la somme des
MSEP des des années d’accident, mais il s’y ajoute aussi un terme de covariance
qu’il faut pouvoir estimer ou borner.

I
! I
X X  
MSEP C
biJ = MSEP CbiJ
i=0 i=0
X h ih i
+2 biJ − E(CiJ |D) C
C bkJ − E(CkJ |D) .
0≤k<i≤I

Donc, on doit estimer ou borner

h ih i
biJ − E(CiJ |D) C
C bkJ − E(CkJ |D)
  
J−1
Y J−1
Y J−1
Y J−1
Y
= Ci,I−i Ck,I−i  fbj − fj   fbj − fj  .
j=I−i j=I−i j=I−k j=I−k

La moyenne de l’erreur de l’estimation est estimée en calculant pour k < i

     
J−1
Y J−1
Y J−1
Y J−1
Y J−1
Y J−1
Y
E  fbj − fj   fbj − fj  BI−i  = Cov  fbj , fbj BI−i  .
j=I−i j=I−i j=I−k j=I−k j=I−i j=I−k

Enfin, le théorème suivant permet de borner le terme de covariance de la MSEP,


donc par tout ce qui précède de borner la MSEP agrégée.

Théorème A.2.2. Sous les hypothèses A.1.1, on a, pour k < i que

 
I−k−1 J−1 J−1 J−1 J−1
Y Y X σj2 /fj2 Y Y
fj · fj2 · h i ≤ Cov  fbj , fbj BI−i 
[I−1−j]
j=I−i j=I−k j=I−k E Sj BI−i j=I−i j=I−
   
I−k−1 J−1 J−1
Y Y σj2 Y
≤ fj E  [I−1−j]
+ fj2 BI−i  − fj2  .
j=I−i j=I−k Sj j=I−k

104
A.2.2 Approche 2
Mack dans [16] obtient la formulation suivante :

J−1 J−1
!2
 2 Y Y
2
C
bi,J − E(Ci,j |D) = Ci,I−i fbj − fj
j=I−i j=I−i
J−1
!
X X
2
= Ci,I−i Sk2 +2 Sk Sl
k=I−i+1 k<l
J−1
!
X X
2
≈ Ci,I−i E(Sk2 |Bk ) +2 E(Sk Sl |Bl )
k=I−i+1 k<l
J−1
X
2
= Ci,I−i E(Sk2 |Bk ),
k=I−i+1

où Sk = fbI−i+1 . . . fbk−1 (fk −fbk )fk+1 . . . fj−1 . On obtient alors le célèbre théorème
de Mack :

Théorème A.2.3. Sous les hypothèses du modèle de Mack, rappelées à la re-


marque A.1.1, l’erreur d’estimation est estimée par :

J−1 j−1 J−1


X Y 2 Y σj2 /fj2
EE M ack = Ci,I−i
2
fbk fk2 [I−j−1]
.
j=I−i k=I−i k=j Sj

Si on remplace les estimateurs fbk par les coefficients réels fk , on obtient l’erreur
d’estimation modifiée de Mack :
J−1 J−1
M ack 2
Y X σj2 /fj2
EE
g = Ci,I−i fj2 [I−j−1]
.
j=I−i j=I−i Sj

A.2.3 Approche 3
Cette fois, M. Buchwalder, H. Bühlmann, M. Merz and M. Wüthrich (BBMW)
dans [5], ont choisi de calculer la moyenne selon les distributions conditionnelles,
plus précisément, on approche l’erreur d’estimation par :

J−1 J−1
!2 J−1 J−1
!
2
Y Y Y   Y
2 2 2
Ci,I−i fbj − fj ≈ Ci,I−i E fj |Bj −
b fj .
j=I−i j=I−i j=I−i j=I−i

Dk
Ici, BBMW génèrentde 2nouveaux facteurs de développements fbl de sorte que
Dk 2
 
[I−j−1]
E (fbj )2 |D = E fbj |D = fbj + σj2 /Sj . BBWM approchent l’erreur
d’estimation par :

J−1 J−1
!2 ! J−1
! J−1
!
2
Y Y
2
Y 2 σj2 Y
E Ci,I−i fbj − fj D ≈ Ci,I−i fbj + [I−j−1]
− fj2 ,
j=I−i j=I−i j=I−i Sj j=I−i

105
ce que l’on notera par la suite EE BBM W . On peut montrer (cf [5]) qu’une
approximation linéaire de la formule de BBMW nous permet de retrouver la
formule de Mack et que l’on a :
M ack
EE
g ≤ EE BBM W .

Remarque A.2.1. Comme remarqué par Mack et al. dans [17], l’approche 3
de BBMW peut être retrouvée en approchant
Y
fbl2
l

par
Y
E(fbl2 |Bl )
l

ce qui suppose que les fbl2 ne soient pas corrélés. Puisqu’ils sont négativement
corrélés (cf. Prop A.2.1), la formule de BBMW surestime l’erreur d’estimation,
ce qui explique pourquoi elle est systématiquement supérieure à celle de Mack.
Signalons de plus, qu’il en est de même de la formule de Murphy, puisque celle-ci
est par essence très proche de l’approche de BBMW.

A.2.4 Comparaison des trois premières approches


D’après l’inégalité de Jensen, on a :
M ack
 
E EE BBM W |BI−i

≥ E EE
g |BI−i
J−1 J−1
!
2
Y X 1
= Ci,I−i fj2 σj2 /fj2 E [I−j−1]
BI−i
j=I−i j=I−i Sj
J−1 J−1
2
Y X σj2 /fj2
≥ Ci,I−i fj2 [I−j−1] ,
j=I−i j=I−i E Sj |BI−i

et par ailleurs,
M ack
 
≤ E EE BBM W |BI−i

E EE
g |BI−i
" J−1 ! # J−1
!
2
Y 2 σj2 Y
= C E
i,I−i fbj + [I−j−1]
BI−i − fj2
j=I−i Sj j=I−i

Les bornes du théorème A.2.1 sont aussi des bornes de l’erreur d’estimation de
Mack en moyenne. De plus, l’erreur d’estimation de BBMW est exactement la
borne supérieure donnée par le théorème A.2.1.

Exemple A.2.1. A l’aide du triangle de données utilisé dans ce mémoire, nous


obtenons les bornes de l’erreur de prédiction détaillées par exercice dans le ta-
bleau ci-dessous. La borne supérieure a été estimée par une technique de boots-
trap.

106
Bornes de l’Erreur de Prédiction
Inf Mack Sup
- - -
20 17 32
335 334 493
4,044 4,043 4,710
4,277 4,437 5,370
5,100 5,344 6,994
7,502 8,013 11,688
8,799 9,552 14,383
11,633 12,932 20,782
19,232 20,985 35,483
16,418 18,032 28,791
21,614 23,537 38,975
24,738 25,557 40,853
55,418 60,474 108,710
106,802 116,655 210,597
109,535 125,206 213,481
65,107 74,457 107,063
26,177 26,655 15,137
31,238 31,383 9,758
11,196 11,196 147
76,272 76,272 823
257,906 451,834 683,208

Je m’attendais à ce que les bornes soient plus ressérées autour de la tendance cen-
trale, ce qui est souvent le cas. Ici, l’incertitude autour de l’erreur de prédiction
semble très élevée, ce qui toutefois va dans le sens des écarts d’estimation impor-
tants observés que l’on obtient pour cette erreur avec la méthode de bootstrap
ou de Bornhuetter-Ferguson.

A.2.5 L’approche bayésienne d’A. Gisler


L’objectif de cette section est de comparer les deux dernières estimations issues
de l’approche de Mack et de BBMW dans un cadre bayésien. Cette section est
largement inspirée de [13].
On rappelle que la MSE de Cij est définie pour j > I − i + 1 par
 2 
MSE(Cij ) =: eij = E Cij − E[Cij |D]
b D

j−1 j−1
!2
Y Y
2
= Ci,I−j+1 fbl − fl .
l=I−i+1 l=I−i+1

Mack a suggéré dans son papier originel de 1993 (cf. [16]) d’estimer eij par
j−1 j−1
2
Y Y bl2
σ
ec
ij = Ci,I−j+1 fbl2 · .
l=I−i+1 l=I−i+1 fb2 Sl
l

BBMW suggèrent dans [5] d’estimer eij par


j−1 j−1
!
Y Y
2
ec
ij = Ci,I−j+1 E[fbl2 |Bl ] − fl2
l=I−i+1 l=I−i+1
j−1  2
 j−1
2
Y σ Y
fbl2 + l ·
b
= Ci,I−j+1 fbl .
Sl
l=I−i+1 l=I−i+1

107
La principale objection formulée à l’encontre de BBMW est qu’en prenant le
produit
j−1
Y
E[fbl2 |Bl ],
l=I−i+1

ils ne tenaient pas compte de la corrélation négative entre les carrés des facteurs
de développement.
La question est de savoir laquelle de ces deux formules est en moyenne la plus
exacte. La réponse va dépendre de la manière dont on définit cette moyenne.
Certains auteurs considèrent cette moyenne sur tous les coins supérieurs droits
possibles du triangle. C’est une définition possible, mais pas la seule. Une autre
manière de la définir serait par exemple de faire varier les coefficients de Chain
Ladder réels fj puis de prendre la moyenne sur toutes les valeurs possibles de
fj qui pourraient être observées sur le triangle supérieur D. Cette approche
s’inscrit dans un point de vue bayésien.
On suppose que les coefficients de Chain Ladder réels t f = (f1 , . . . , fJ−1 ) sont
des réalisations d’un vecteur aléatoires t F = (F1 , . . . , FJ−1 ).
On suppose de plus que, sachant F, les (Cij )j=1,...,J forment une chaı̂ne de
Markov. Cette hypothèse est un peu plus forte que celle de Mack, qui supposait
seulement que le premier et le second moment de Ci,j+1 ne dépendaient que de
Cij et non de Cil pour l < j.
On notera aussi
Ci,j+1
Dij =
Ci,j
et Dj le vecteur aléatoire t Dj = (D1j , . . . , DI−j,j ).

Modèle bayésien normal


Hypothèses A.2.1. On suppose ici que
1. Conditionnellement à F et à Bj , les variables aléatoires Dij pour i =
1, . . . , I − j sont indépendantes et normalement distribuées d’espérance Fj
et de variance
σj2
Var[Dij |Fj , Cij ] =
Cij
2. F1 , . . . , FJ−1 sont indépendantes et uniformément distribuées.

La distribution jointe de (D1 , . . . , DJ−1 ), conditionnellement à F = f et à B1


est donnée par
 2

Y K−j
J−1 1 (dij −fj ) 
Y 1 2 2 −1
uf (d1 , . . . , dJ−1 ) = q e σj cij ,
2 −1
2πσj cij
 
j=1 k=1

où c−1
ij = Ck,1 dk1 . . . dk,j−1 .
La distribution jointe a posteriori de F peut alors être explicitée par
 
b 2
J−1 1 (fj −fj ) 
Y 1 2 2 −1
uD (f ) ∝ q e σj Sj .
−1
2πσj2 Sj
 
j=1

108
Ainsi a posteriori, étant donné un triangle d’observation D, les variables aléatoires
F1 , . . . , FJ−1 sont indépendantes, normalement distribuées avec

E[Fi |D] = fbj ,


σj
Var[Fi |D] = .
Sj

Ainsi, l’estimateur de Bayes de Cij est

j−1 j−1
" #
Y Y
b Bayes
C = Ci,I−i+1 E Fl D = Ci,I−i+1 fbj = C
bij
ij
i=I−i+1 i=I−i+1

et on montre que l’erreur de prédiction de cette estimateur de Bayes coı̈ncide


avec la formle de BBMW. Signalons ici que la formule de Mack se trouve être
une approximation de Taylor à l’ordre 1 de la formule de BBMW.

Modèle bayésien gamma


Hypothèses A.2.2. On suppose ici que
1. Conditionnellement à F et à Bj , les variables aléatoires Dij pour i =
1, . . . , I − j sont indépendantes et gamma distribuées d’espérance Fj et de
variance
τj2 Fj2
Var[Dij |Fj , Cij ] =
Cij
où les τj sont des constantes positives données.
2. (F1 , . . . , FJ−1 ) = (Θ1 , . . . , ΘJ−1 ) où les variables (Θ1 , . . . , ΘJ−1 ) sont
indépendantes et uniformément distribuées.

Remarque A.2.2. Le modèle normal précédent autorisait théoriquement les


Cij à être négatifs, contredisant les hypothèses du modèle de Chain Ladder. Ce
modèle gamma ne possède plus cette déficience, mais σj2 = τj2 /fj2 dépend du
paramètre fj à estimer.

La distribution jointe de (D1 , . . . , DJ−1 ), conditionnellement à Θ = θ et à B1


est donnée par
−2
Y K−j
J−1 Y (cij τj−2 θj )cij τj −2
cij τij −1 −cij τ −2 θj dij
uθ (d1 , . . . , dJ−1 ) = −2 dij e ij ,
j=1 k=1
Γ(cij τij )

où cij = Ck,1 dk1 . . . dk,j−1 .


La distribution jointe a posteriori de Θ peut alors être explicitée par

J−1
Y Sj τj−2 PI−j Ci,j+1 τ −2 θj
uD (θ1 , . . . , θJ−1 ) ∝ θj e i=1 j , pour θj ∈ R+ .
j=1

Il suit que, a posteriori, étant donné un triangle d’observation D, les variables


aléatoires Θ1 , . . . , ΘJ−1 sont indépendantes, gamma distribuées de paramètres

109
PI−j
Sj τj−2 + 1 et i=1 Ci,j+1 τj−2 .
On peut alors montrer que les deux premiers moments de Fj sont

E[Fi |D] = fbj ,


τj2
(  
fbj2 1 + si Sj > τj2
E[Fi2 |D] = Sj −τj2
∞ sinon
On montre que la MSE de l’estimateur de Bayes de Cij possède une forme proche
de la formule de BBMW, même si elles ne sont pas directement comparables à
cause de paramètres différents :
 2 
E Cij − E[Cij |D]
b D
    
j−1 2 j−1
fbl2 + σ
 2
b2  si ∀l, Sl > σbl
 C2
 Y bl  Y
i,I−j+1

σ 2 − fl 2
= Sl − bl2
b fl
b
 l=I−i+1 fl l=I−i+1

∞ sinon

Remarque A.2.3. (Concluantes)


– L’erreur d’estimation résultante du modèle bayésien normal coı̈ncide avec la
formule de BBMW, mais comme les Cij peuvent être négatifs, cela entraı̂ne un
problème d’un point de vue théorique. Le modèle bayésien gamma le résout
et permet d’obtenir une estimation de l’erreur d’estimation, mais celle-ci n’est
pas identique à la formule de BBMW. Ainsi, on ne peut pas trouver de modèle
confirmant cette formule.
– Une des critiques prononcées à l’encontre de cette approche est si de savoir si
cela avait du sens de considérer le produit suivant
j−1
Y
E[fbl2 |Bl ].
l=I−i+1

Mais d’un point de vue bayésien, la réponse est positive car les variables Fl
sont a posteriori indépendantes.
– Aussi bien dans l’approche classique que bayésienne, la formule de Mack est
une approximation de Taylor à l’ordre 1 de la formule de BBMW, donc la
différence entre ces formules est relativement petite et nullement essentielle
pour des besoins pratiques.

A.2.6 L’approche bayésienne de M. Wüthrich


Sans la détailler, nous signalons que l’article [14] propose une nouvelle approche
pour obtenir un estimateur de l’erreur de prédiction de la méthode de Chain
Ladder. Ce papier propose une approche bayésienne basée sur la crédibilité pour
la méthode de Chain Ladder. Lorsque des distributions a priori non informa-
tives sont utilisées, on retrouve la méthode de Chain Ladder standard, tout en
suggèrant un nouvel un estimateur de l’erreur de prédiction.
Sous certaines hypothèses techniques détaillées dans [14], la mean square error
of prediction pour les réserves asociées à l’année i est donnée par
2
MSEP(R
\ i ) = Ci,I−i Γ
b I−i + Ci,I−i ∆
b I−i ,

110
où
J−1 k−1 J−1
bn2
 
X Y
2 2
Y σ
Γ
b I−i = fbm σ
bk fbn + [I−n−1]
k=I−i m=I−i n=k+1 Sn
J−1
! J−1
Y bj2
σ Y

b I−i = fbj2 + [I−j−1]
− fbj2 ,
j=I−i Sj j=I−i
avec
k
[k]
X
Sj = Cij .
i=0
La mean square error of prediction pour les réserves totales est alors
X I
X I
X
MSEP(R)
\ = MSEP(R
\ i) + 2 Ci,I−i C
bk,I−i ∆
b I−i ,
i i=0 k=i+1
avec
I−i−1
Y
C
bk,I−i = Ck,I−k fbj .
j=I−k

Exemple A.2.2. Sur les données utilisées tout au long de ce rapport, on obtient
les résultats suivants :
i msep(R
[ i) i msep(R
[ i)
1 0.0 12 23,597.2
2 20.3 13 25,639.4
3 334.8 14 60,634.0
4 4,043.6 15 117,024.9
5 4,437.8 16 125,731.7
6 5,346.1 17 74,901.0
7 8,021.4 18 26,920.6
8 9,564.6 19 31,748.6
9 12,950.3 20 11,371.5
10 21,025.9 21 85,079.0
11 18,077.0 cov 279,470
mse(R)
d 454,388
On retrouve un résultat très similaire à celui obtenu par la méthode de Mack.
Remarque A.2.4. Cette approche par la crédibilité a été généralisée au calcul
de la MSEP des CDR pour la vision du risque à un an dans l’article [3] de
Bühlmann, Gisler, De Felice, Moriconi et Wüthrich.

A.3 Conclusion
– La première approche ne pouvant aboutir à un calcul explicite, on a pu borner
la moyenne de l’erreur d’estimation.
– Ces bornes sont aussi des bornes pour l’erreur moyenne d’estimation de la
formule de Mack. La borne supérieure correspond à la moyenne de l’erreur
d’estimation de la formule BBMW.
– Pour des données types, ces bornes sont proches en valeur l’une de l’autre.
De plus, leur volatilité est faible. Cela signifie qu’en pratique, on peut utiliser
l’une ou l’autre indifférement.
– Cela montre aussi que la formule de Mack est, en moyenne, suffisament précise,
et ainsi, recommandée pour son utilisation en pratique.

111
Annexe B

Estimation de la variance
des pertes sur une année
calendaire (preuve de la
prop. 6.2.1)

D ans cette annexe, on trouvera une preuve du calcul de la variance des


pertes sur une année calendaire σB 2
. Cette preuve, qui est de Thomas
Mack, permet de mieux comprendre les hypothèses sous-jacentes et le
modèle considéré. Elle peut être complexifiée afin de tenir compte de
l’introduction d’un facteur de queue ou généralisée au calcul de la variance des
pertes subies durant l’année calendaire au temps t = I + p, pour p ≥ 1, étant
données les informations disponibles au temps t = I.
On a
 
I (I) (I)
C
bi,J = Ci,I−i+1 + vi m b + ··· + m
I−i+2 b I

avec
I+1−k
X
Zik
(I) i=1 Zk,<
m
bk = I+1−k
=
X vk,<
vi
i=1

et
(I+1) Zk,≤
m
bk = ,
vk,≤

où, on le rappelle Zik désigne les incréments pour l’année d’accident i et de


développement k. Puis, les pertes ultimes estimées avec les observations dispo-
nibles au temps t = I + 1 sont
 
b I+1 = Ci,I−i+2 + vi m (I+1) (I+1)
Ci,J b I−i+3 + · · · + m
bI ,

112
donc il suit que

I  
(I) (I+1) (I)
X
b I+1 − C
C b I = Zi,I−i+2 − vi m
b I−i+2 + vi m −m .
i,J i,J bk bk
k=I−i+3

Cette différence est d’espérance nulle, mais de variance strictement positive. Les
pertes ultimes genérées pendant l’année calendaire I + 1 sont alors estimés par

I 
X 
TI+1 = b I+1 − C
C I
bi,J + b I+1
C
i,J I+1,J
i=2 | {z }
| {z } nouvelles AY
vieilles AYs

avec
I
(I+1)
X
b I+1 = ZI+1,1 + vI+1
C m .
I+1,1 bk
k=2

On a
(I+1) Zk,≤ vk,< Z< vI+2−k ZI+2−k,k
m
bk = = · + · ,
vk,≤ vk,≤ vk,< vk,≤ vI+2−k
| {z } | {z }
non variable variable

d’où
 
I I  
X (I) vI+2−k X ZI+2−k,k (I)  b I+1
TI+1 = Zi,I−i+2 − vi m
b I−i+2 +vi −m
b k +C

I+1,J
i=2
vk,≤ vI+2−k
k=2
| {z }
= 0

(I+1) (I)
car la différence m
bk −m b k de volume de pertes incrémentales attendues
entre k = 2 et k = I − i + 2 est nulle, car déjà observée. Donc

I   I  
X v+ vI+2−k ZI+2−k,k (I)
X vk,< (I) vI+2−k ZI+2−k,k
TI+1 = −m
bk + ZI+1,1 + vI+1 mb +
vk,≤ vI+2−k vk,≤ k vk,≤ vI+2−k
k=2 k=2
| {z } | {z }
vieilles AYs nouvelle AY
I I
X v++ vI+2−k ZI+2−k,k X v+ vI+2−k − vI+1 vk,< (I)
= ZI+1,1 + · − ·m
bk .
vk,≤ vI+2−k vk,≤
k=2 k=2

On souhaite calculer
 2 
Var(TI+1 ) = Var(TI+1 |DI ) + E E[TI+1 |DI ] − TbI+1 .

On a, d’après ce qui précède et d’après les hypothèses 6.2.1 du modèle que

I  2 I  2
2
X v++ vI+2−k s2k X v++ vI+2−k s2k
Var(TI+1 |DI ) = vI+1 s1 + = ,
vk,≤ vI+2−k vk,≤ vI+2−k
k=2 k=1

113
car v++ = v≤ quand k = 1. De plus,



I
!2 
2  v++ vI+2−k  
(I)
X
E E[TI+1 |DI ] − TbI+1 = E mk − m
bk 
vk,≤
k=1
" I
#
X v++ vI+2−k  (I)

= Var mk − m
bk
vk,≤
k=1
I  2
X v++ vI+2−k h
(I)
i
= Var mbk
vk,≤
k=1
I  2
X v++ vI+2−k s2k
= .
vk,≤ vk,<
k=1

D’où le résultat :
I  2  
X v++ vI+2−k
Var(TI+1 ) = vI+2−k 1 + s2k
vk,≤ vk,<
k=1
  X I  2  
2 vI+1 v++ vI+2−k
=s1 vI+1 1 + + vI+2−k 1 + s2k
v+ vk,≤ vk,<
k=2
I 2 2  
v++ X sk vI+2−k v++ vI+2−k
=s21 vI+1 + 2 1 +
v+ vk,≤ vk,<
k=2

puisque v1,< = v+ et v1,≤ = v++ .

114
Annexe C

Codes relatifs à
l’implémentation du
bootstrap sur R

O
C.1
n a regroupé dans cette annexe les codes R relatifs au chapitre traitant
des méthodes bootstrap. La première section comporte le code de la
procédure classique, alors que l’on trouvera dans la deuxième le code
de la procédure modifiée afin de capturer le risque à un an.

Bootstrap classique
library(stats)
library(MCMCpack)
library(fBasics)

linkratio<-function(x){
I<-nrow(x)
J<-ncol(x)
z<-x
nbsimu<-10000 #nombre de simulations
provtotal<-rep(0,nbsimu)#simulations du total des provisions
n<-sum(x!=0) #nombre de résidus
p<-2*I-1 #nombre de paramètre à estimer
deg_lib<-n-p #nombre de degrés de liberté
ajus_res<-sqrt(n/(n-p)) #degré d’ajustement des résidus
f<-c(rep(0,J-1),1) #link ratio

#-----------------------------------------------------------------
#données cumulées
#-----------------------------------------------------------------
for(j in 2:J){
x[,j]=c(x[1:(J-j+1),j-1]+x[1:(J-j+1),j],rep(0,j-1))
}

#-----------------------------------------------------------------
#link ratio
#-----------------------------------------------------------------
for(j in 1:(J-1)){
f[j]<-sum(x[-((J-j+1):I),j+1])/sum(x[-((J-j+1):I),j])
}

#-----------------------------------------------------------------
#Remplissage du triangle inférieur
#-----------------------------------------------------------------
for(j in 2:J){

115
x[-(1:(J-j+1)),j]=x[-(1:(J-j+1)),j-1]*f[j-1]
}
r<-rep(0,I)
R<-0
for(i in 1:I){
r[i]<-x[i,J]-x[i,J-i+1]
}
R<-sum(r) #best estimate des provisions

#-----------------------------------------------------------------
#données ajustées
#-----------------------------------------------------------------
for(j in 1:(J-1)){
x[,J-j]<-c(x[1:j,J-j+1]/f[J-j],x[j+1,J-j],rep(0,J-j-1))
}

#-----------------------------------------------------------------
#incrément
#-----------------------------------------------------------------
y<-matrix(0,J,J)
y[,1]<-x[,1]
for(j in 2:J){
y[,j]=x[,j]-x[,j-1]
y[,j]<-c(y[-((J-j+2):J),j],rep(0,j-1))
}

#-----------------------------------------------------------------
#résidus et résidus ajustés
#-----------------------------------------------------------------
for(j in 1:J){
z[,j]=c((z[1:(J-j+1),j]-y[1:(J-j+1),j])/sqrt(y[1:(J-j+1),j]),
rep(0,j-1))
}
chi2<-sum(z^2) #Statistique de Pearson
phi<-chi2/deg_lib #scale parameter
z<-z*ajus_res

for(k in 1:nbsimu){
#-----------------------------------------------------------------
#rééchantillonnage des résidus
#-----------------------------------------------------------------
yy<-c(as.vector(z[z!=0]),0,0) #rééchantillone les résidus non nuls!
yy<-sample(yy,replace=FALSE)
x[,1]<-yy[1:J]
M<-J
m<-J+1
for(j in 2:J){
M<-M+J-j+1
x[,j]=c(yy[m:M],rep(0,j-1))
m<-m+J-j+1
}

#-----------------------------------------------------------------
#incréments rééchantillonnés
#-----------------------------------------------------------------
for(j in 1:J){
x[,j]=x[,j]*sqrt(y[,j])+y[,j]
}

#-----------------------------------------------------------------
#données cumulées rééchantillonnées et link ratio
#-----------------------------------------------------------------
for(j in 2:J){
x[,j]=c(x[1:(J-j+1),j-1]+x[1:(J-j+1),j],rep(0,j-1))
}
for(j in 1:(J-1)){
f[j]<-sum(x[-((J-j+1):I),j+1])/sum(x[-((J-j+1):I),j])
}

#-----------------------------------------------------------------
#Remplissage du triangle inférieur
#-----------------------------------------------------------------
for(j in 2:J){
x[-(1:(J-j+1)),j]=x[-(1:(J-j+1)),j-1]*f[j-1]

116
}

#-----------------------------------------------------------------
#incréments futurs
#-----------------------------------------------------------------
t<-matrix(0,J,J)
for(j in 2:J){
t[-(1:(J-j+1)),j]=x[-(1:(J-j+1)),j]-x[-(1:(J-j+1)),j-1]
}

#-----------------------------------------------------------------
#Simulation des payements par une loi Gamma
#-----------------------------------------------------------------
s<-sign(t) #correction des éventuels signes négatifs
for(j in 2:J){
t[-(1:(J-j+1)),j]=rinvgamma(j-1,abs(t[-(1:(J-j+1)),j])/phi+2,
abs(t[-(1:(J-j+1)),j])*(abs(t[-(1:(J-j+1)),j])/phi+1))
}
t<-s*t
prov=rep(0,I)
for(i in 1:I){
prov[i]=sum(t[i,])
}
provtotal[k]=sum(prov)
}

#-----------------------------------------------------------------
#Résultats et histogramme
#-----------------------------------------------------------------
resultat<-rep(0,5)
resultat[1]<-nbsimu
resultat[2]<-mean(provtotal)
resultat[3]<-sd(provtotal)
resultat[4:5]<-quantile(provtotal,probs=c(0.75,0.95))
resultat<-as.data.frame(resultat)
rownames(resultat)<-c("Nombre simulations","moyenne",
"erreur de prédiction","quantile 75%","quantile 95%")
return(resultat)
}

C.2 Modifications relatives à l’obtention du risque


à un an
library(stats)
library(MCMCpack)
library(fBasics)

nbsimu<-10000 #nombre de simulations

link2<-function(x){
I<-nrow(x)
J<-ncol(x)
z<-x
provtotal<-rep(0,nbsimu) #simulations du total des provisions
n<-sum(x!=0) #nombre de résidus
p<-2*I-1 #nombre de paramètre à estimer
deg_lib<-n-p #nombre de degrés de liberté
ajus_res<-sqrt(n/(n-p)) #degré d’ajustement des résidus
f<-c(rep(0,J-1),1) #link ratio

#-----------------------------------------------------------------
#données cumulées
#-----------------------------------------------------------------
for(j in 2:J){
x[,j]=c(x[1:(J-j+1),j-1]+x[1:(J-j+1),j],rep(0,j-1))
}

#-----------------------------------------------------------------

117
#link ratio
#-----------------------------------------------------------------
for(j in 1:(J-1)){
f[j]<-sum(x[-((J-j+1):I),j+1])/sum(x[-((J-j+1):I),j])
}

#-----------------------------------------------------------------
#Remplissage du triangle inférieur
#-----------------------------------------------------------------
for(j in 2:J){
x[-(1:(J-j+1)),j]=x[-(1:(J-j+1)),j-1]*f[j-1]
}
r<-rep(0,I)
R<-0
for(i in 1:I){
r[i]<-x[i,J]-x[i,J-i+1]
}
R<-sum(r) #best estimate des provisions

#-----------------------------------------------------------------
#données ajustées
#-----------------------------------------------------------------
for(j in 1:(J-1)){
x[,J-j]<-c(x[1:j,J-j+1]/f[J-j],x[j+1,J-j],rep(0,J-j-1))
}

#-----------------------------------------------------------------
#incrément
#-----------------------------------------------------------------
y<-matrix(0,J,J)
y[,1]<-x[,1]
for(j in 2:J){
y[,j]=x[,j]-x[,j-1]
y[,j]<-c(y[-((J-j+2):J),j],rep(0,j-1))
}

#-----------------------------------------------------------------
#résidus et résidus ajustés
#-----------------------------------------------------------------
for(j in 1:J){
z[,j]=c((z[1:(J-j+1),j]-y[1:(J-j+1),j])/sqrt(y[1:(J-j+1),j]),
rep(0,j-1))
}
chi2<-sum(z^2) #Statistique de Pearson
phi<-chi2/deg_lib #scale parameter
z<-z*ajus_res

for(k in 1:nbsimu){
#-----------------------------------------------------------------
#rééchantillonnage des résidus
#-----------------------------------------------------------------
yy<-c(as.vector(z[z!=0]),0,0) #rééchantillone les résidus non nuls!
yy<-sample(yy,replace=FALSE)
x[,1]<-yy[1:J]
M<-J
m<-J+1
for(j in 2:J){
M<-M+J-j+1
x[,j]=c(yy[m:M],rep(0,j-1))
m<-m+J-j+1
}

#-----------------------------------------------------------------
#incréments rééchantillonnés
#-----------------------------------------------------------------
for(j in 1:J){
x[,j]=x[,j]*sqrt(y[,j])+y[,j]
}

#-----------------------------------------------------------------
#données cumulées rééchantillonnées et link ratio
#-----------------------------------------------------------------
for(j in 2:J){
x[,j]=c(x[1:(J-j+1),j-1]+x[1:(J-j+1),j],rep(0,j-1))

118
}
for(j in 1:(J-1)){
f[j]<-sum(x[-((J-j+1):I),j+1])/sum(x[-((J-j+1):I),j])
}

#-----------------------------------------------------------------
#Estimation de la diagonale suivante et simulation par une loi gamma
#-----------------------------------------------------------------
for(j in 2:J){
x[J-j+2,j]=x[J-j+2,j-1]*f[j-1]
}

s<-sign(x)
for(j in 2:J){
x[J-j+2,j]=rinvgamma(1,abs(x[J-j+2,j])/phi+2,abs(x[J-j+2,j])
*(abs(x[J-j+2,j])/phi+1))
x[J-j+2,j]=x[J-j+2,j]*s[J-j+2,j]
}

#-----------------------------------------------------------------
#Calcul des LDFs et remplissage du triangle inférieur
#-----------------------------------------------------------------
for(j in 1:(J-1)){
f[j]<-sum(x[-((J-j+1):I),j+1])/sum(x[-((J-j+1):I),j])
}

for(j in 3:J){
x[-(1:(J-j+2)),j]=x[-(1:(J-j+2)),j-1]*f[j-1]
}

#-----------------------------------------------------------------
#incréments futurs
#-----------------------------------------------------------------
t<-matrix(0,J,J)
for(j in 2:J){
t[-(1:(J-j+1)),j]=x[-(1:(J-j+1)),j]-x[-(1:(J-j+1)),j-1]
}

prov<-rep(0,I)
for(i in 1:I){
prov[i]=sum(t[i,])
}
prov2<-rep(0,I)
for(i in 2:I){
prov2[i]=x[i,J]-x[J-i+2,i]
}
provtotal[k]=sum(prov)

} #accolade boucle en k

resultat<-rep(0,4)
resultat[1]<-mean(provtotal)
resultat[2]<-sd(provtotal)
resultat[3:4]<-quantile(provtotal,probs=c(0.75,0.95))
resultat<-as.data.frame(resultat)
rownames(resultat)<-c("moyenne","risque à un an","quantile 75%",
"quantile 95%")
return(resultat)
}

119
Annexe D

Codes R relatifs à la
méthode de Christophides

S ont regroupés ici les codes relatifs à la méthode de Christophides. Le


code s’adapte à tous les triangles. Certains peuvent se poser la ques-
tion de l’utilité d’un tel code, puisque les coefficients de la régression
peuvent se calculer directement sur R à l’aide de la procédure glm,
puis être importés sur Excel afin de remplir les incréments futurs du triangle
et d’en déduire le montant des provisions. Mais, ce faisant, la détermination
de la matrice design est un peu fastidieux, et surtout, le calcul précédent ne
permet de calculer que l’espérance des réserves. Le calcul du moment d’ordre 2
est plus compliqué, et difficile à réaliser sur Excel lorsque la taille des matrices
devient importante. Avec le triangle qui a illustré ce mémoire, on travaille avec
des matrices d’ordre 210...
#library(MASS)
inc<-read.table("donnees.txt")
inc<-inc+5000 #retraitement les incréments négatifs
I<-21
n<-I*(I+1)/2

y<-rep(0,n) #transforme le triangle en vecteur


k<-1
for (i in 1:I){
for (j in 1:(I+1-i)){
y[k] = log(inc[i,j])
k <- k + 1
}
}

way<-cumsum(seq(I,1,-1)) #creation de la matrice design


wdy<-1:I
for (i in 1:(I-1)){wdy<-c(wdy,1:(I-i))}
design<-matrix(0,n,2*I-1)

design[1:way[1],1]=1
for (j in 2:I){
design[(way[j-1]+1):way[j],j]=1
}

for (j in 2:I){
design[wdy==j,j+I-1]=1
}

theta<-rep(0,n) #vecteur des paramètres


theta<-qr.solve(t(design)%*%design)%*%t(design)%*%y
#Ou ginv (MASS) inverse aussi les matrices

yfit<-rep(0,n) #coefficents calculés

120
yfit<-design%*%theta

epsilon<-rep(0,n) #vecteur des résidus


epsilon<-y-yfit

sigma<-sqrt(t(epsilon)%*%epsilon/(n-2*I+1)) #écart-type du bruit blanc

m<-I*(I-1)/2
designf<-matrix(0,m,2*I-1) #matrice design future

wayf<-rep(seq(2,I),seq(1,I-1))
for (j in 1:I){
designf[wayf==j,j]=1
}
wdyf<-I
for (i in 1:(I-2)){wdyf<-c(wdyf,(I-i):I)}
for (j in 2:I){
designf[wdyf==j,j+I-1]=1
}

yfitf<-designf%*%theta
pariskY<-rep(0,m) #risque de paramètre sur les logincréments
totriskY<-rep(0,m) #risque de prédiction
pariskY<-diag(designf%*%qr.solve(t(design)%*%design)%*%t(designf))
#on ne garde que les éléments diagonales
pariskY<-pariskY*sigma^2
totriskY<-pariskY+sigma^2

YY<-array(0,c(m,m))
YY<-(diag(1,m)+designf%*%qr.solve(t(design)%*%design)%*%t(designf))
*array(sigma^2,c(m,m)) #erreur de prédiction
X<-rep(0,m) #incréments
sdX<-rep(0,m)
X<-exp(yfitf+totriskY/2) ## X<-exp(yfitf+rep(sigma^2/2,m))
sdX<-diag(X%*%sqrt(exp(totriskY)-1))^2 #vecteur de la variance de X

toto<-array(0,c(m,m))
for (i in 1:m){ for (j in 1:m){ toto[i,j]<-X[i]*X[j]*(exp(YY[i,j])-1)}}
sqrt(sum(toto)) #matrice variance covariance de X

incf<-matrix(0,I,I)
w<-cumsum(seq(1,I-1,1))
incf[2,]<-c(rep(0,I-1),X[1:w[1]])

for(i in 3:I){
incf[i,]<-c(rep(0,I-i+1),X[(w[i-2]+1):w[i-1]])
}

prov<-rep(0,I)
for (i in 1:I){
prov[i]<-sum(incf[i,])
}

provtotal<-sum(prov)-5000
provtotal

#resi<-matrix(0,I,I) ##Transforme un vect en un triangle sup


#wup<-cumsum(seq(I,1,-1)
#resi[1,]<-epsilon[1:wup[1]]
#for(i in 2:I){
# resi[i,]<-c(epsilon[(wup[i-1]+1):wup[i]],rep(0,i-1))
# }

w1<-rep(seq(1,I,1),seq(I,1,-1))
plot(wdy,epsilon) #residus vs délais
plot(yfit,epsilon) #residus vs valeurs prévues
plot(w1,epsilon) #residus vs année
qqnorm(epsilon) #QQ plot des résidus

Concernant le risque à un an, on modifie la matrice design à l’aide du code


suivant :
titi<-rep(0,20)
titi[1]<-1

121
for (i in 2:20){
titi[i]<-titi[i-1]+i-1
}

designfoy<-matrix(0,m,2*I-1) #matrice one year

for (i in 1:m){
if(sum(i==titi)>0) designfoy[i,]<-designf[i,]
}

YYoy<-array(0,c(m,m))
YYoy<-(diag(1,m)+designfoy%*%qr.solve(t(design)%*%design)%*%t(designfoy))
*array(sigma^2,c(m,m))

totooy<-array(0,c(m,m))
for (i in 1:m){
for (j in 1:m){
totooy[i,j]<-X[i]*X[j]*(exp(YYoy[i,j])-1)
}
}
sqrt(sum(totooy))#Risque à un an}

122
Annexe E

Codes WinBUGS

W inBUGS est un logiciel libre permettant de simuler des modèles bayé-


siens. La syntaxe du code utilisée est proche de celle de R, mais la
logique est complètement différente. On a regroupé dans cette annexe
tous les codes relatifs au logiciel WinBUGS utilisés pour ce mémoire.
On trouvera dans l’ordre, le code relatif à la détermination de la Bayesian p-
value, de la méthode de Chain Ladder et de Borhuetter-Ferguson bayésienne et
leur modification pour capturer le risque à un an. On se reportera à l’article de
Verall (cf. [31]) pour son programme originel.

E.1 Code relatif à la Bayesian p-value


#normal MODEL
model;
{
N<-210
# define the model for the data
for( i in 1 : 210 ) {
x[i] ~ dnorm( mu, tau )
}
sigma2 <- 1 / tau
mu ~ dnorm( mparm1, mparm2 )
tau ~ dgamma(0.01, 0.01)
mparm1 ~ dnorm(1, 0.001)
mparm2 ~ dgamma(0.01, 0.01)

# negative loglikelihood in terms of x


NLL <- - sum( loglik[] )
for( i in 1 : 210 ) {
loglik[i] <- - log( sqrt( 2 * Pi / tau ) )
- pow( x[i] - mu, 2 ) * tau / 2
}
Pi <- 3.14159265

# store assorted summary statistics,


#including several posterior predictive checks
summary[1] <- NLL
summary[2] <- mu
summary[3] <- tau
summary[4] <- x.repmin
summary[5] <- x.repmax
summary[6] <- x.repsum
summary[7] <- p.repmin
summary[8] <- p.repmax
summary[9] <- p.repsum

# posterior predictive check statistics

123
p.repsum <- step( x.repsum - x.sum ) # 1 if x.repsum >= x.sum
p.repmin <- step( x.repmin - x.min ) # 1 if x.repmin >= x.min
p.repmax <- step( x.repmax - x.max ) # 1 if x.repmax >= x.max
x.sum <- sum( x[] )
x.min <- ranked( x[], 1 )
x.max <- ranked( x[], 210)
x.repsum <- sum( x.rep[] )
x.repmin <- ranked( x.rep[], 1 )
x.repmax <- ranked( x.rep[],210 )

# define the replicated data set / predictive draws


for( i in 1 : 210 ) {
# x.repneg[i] <- - x.rep[i]
x.rep[i] ~ dnorm( mu, tau )
}
}

DATA #Facteurs de développement


list(x=c(4.73,21.82,14.45,1.22,0.84,1.24,1.11,1.2,1.32,1.22,1.2,
1.19,1.1,1,1.18,1.01,1.07,1.03,1.12,1.1,1.13,
21.16,1.48,1.54,1.27,1.65,1.23,1.16,1.13,1.18,1.08,1.28,1.3,1.0,
5,1.08,0.93,1.07,1.12,1.54,1.07,
1.86,1.13,0.92,3.36,1.15,0.98,1.44,1.19,1.63,1.32,1.07,1.34,1.11,
1.02,1.07,1.06,1.06,1.01,
1.87,0.87,2.43,1.44,2.7,1.22,1.28,1.22,1.45,1.07,1.17,1.04,1.13,
1.11,1.04,1.08,1.09,
1.99,2.93,1.4,1.34,1.4,1.04,1.24,1.37,1.26,1.16,1.19,1.18,1.11,
1.12,1.04,1.12,
207.68,1.42,1.11,1.53,1.61,1.4,2.47,1.18,1.18,1.07,1.07,1.15,1.
24,1.07,1.17,
10497.6,1.17,1.12,1.09,1.04,0.71,1.17,1.26,1.27,1.08,1.11,1.11,
1.12,1.17,
58.96,4.87,1.33,2.09,1.32,1.55,1.36,1.26,1.23,1.12,1.23,1.27,1.14,
2263.31,5.47,1.63,1.39,1.19,1.4,1.33,1.3,1.15,1.17,1.17,1.1,
19.97,3.01,3.26,2.3,1.49,1.39,1.32,1.39,1.12,1.15,1.25,
1.36,2.17,5.51,2.62,1.36,1.33,1.28,1.37,1.18,1.19,
20.31,1.98,2.29,1.46,1.45,1.34,1.21,1.29,1.16,
16694.57,4.07,1.41,1.98,1.44,1.54,1.21,1.27,
43.29,3.92,2.15,1.5,1.41,1.25,1.23,
12.35,1.85,1.85,1.74,1.42,1.27,
4.86,2.1,1.84,1.73,1.3,
31.38,3.21,2.21,1.37,
5.91,1.44,1.52,
1028,805.16,
1.2))

E.2 Codes relatifs à la méthode de Chain Lad-


der bayésienne
E.2.1 A l’ultime
MODEL{
for(i in 1:21){
z[i,1]<-y[i,1]
}

for(i in 1:20){
for(j in 1:(21-i)){
z[i,j+1]<-z[i,j]+y[i,j+1]
}
}

for(i in 1:20){
for(j in 1:(21-i)){
devfac[i, j]<- z[i, j+1] / max(z[i, j],1)
}
}

for(i in 2:21){
for(j in (21-i+1):20){

124
z[i,j+1]<- z[i,j]*devfac[i,j]
y[i,j+1]<-z[i,j+1]-z[i,j]
}
}

for(i in 1:21){
for(j in 1:20){
devfac[i,j]~dnorm(mu.df[i,j], tau.df[i,j]) I(0.95,)
mu.df[i,j]<-max(min(theta[j],100),0.01)
tau.df[i,j]<-min(max(0.001,tau*weight[i,j]),1000)
weight[i,j]<-1
}
}

for(j in 1:20){
theta[j]~dnorm(mu.theta, tau.theta)
}

tau~dgamma(0.01, 0.01)
mu.theta~dnorm(1, 0.01)
tau.theta~dgamma(0.01, 0.01)

for (i in 2:21){
oustand.row[i]<-sum(y[i,(21+2-i):21])
}
oustand.row[22]<-sum(oustand.row[2:21])
}

DATA
list(y = structure(.Data = c(0.779,3.685,80.405,1161.81,
1417.747,1185.926,1468.08,1634.679,1965.64,2586.03,
3162.908,3795.084,4505.268,4993.128,5901.053,5969.015,
6359.252,6549.347,7359.442,8087.595,9133.17,
13.529,286.254,423.307,653.515,828.381,1365.249,
1682.869,1949.705,2194.538,2584.032,2803.33,3592.898,
4685.337,4923.93,5298.982,4926.782,5276.394,5933.754,
9111.702,9752.536,NA,
266.239,496.368,559.441,514.701,1729.593,1985.295,1953.91,
2814.162,3344.115,5462.983,7213.181,7693.993,10320.562,
11450.667,11722.772,12490.068,13198.263,13954.509,14101.149,
NA,NA,
152.405,285.637,247.427,600.021,863.404,2334.322,
2838.697,3623.712,4420.172,6417.69,6866.58,8006.827,
8300.707,9342.08,10331.799,10786.631,11662.18,12674.199,
NA,NA,NA,
167.397,333.299,976.905,1368.287,1835.964,2562.597,
2670.695,3308.594,4516.715,5708.816,6605.092,7829.111,
9215.884,10258.24,11457.864,11957.455,13389.072,NA,NA,
NA,NA,
2.025,420.552,597.452,663.767,1014.909,1635.485,2285.811,
5652.143,6662.267,7854.215,8411.081,9027.449,10342.515,
12811.557,13735.811,16069.382,NA,NA,NA,NA,NA,
0.688,7222.349,8445.327,9426.32,10287.864,10730.197,
7628.957,8892.886,11168.478,14206.437,15365.336,
17028.298,18877.712,21115.087,24727.55,NA,NA,NA,NA,NA,NA,
3.974,234.293,1139.877,1517.206,3176.391,4186.061,
6492.901,8810.422,11086.991,13684.201,15279.401,
18736.544,23812.164,27166.955,NA,NA,NA,NA,NA,NA,NA,
0.247,559.037,3059.851,4997.694,6946.121,8250.871,
11550.225,15412.061,20019.459,23080.057,26991.124,
31461.972,34494.739,NA,NA,NA,NA,NA,NA,NA,NA,
17.972,358.962,1081.211,3522.72,8088.152,12042.868,
16793.425,22199.689,30933.27,34637.647,39820.711,
49963.244,NA,NA,NA,NA,NA,NA,NA,NA,NA,
180.388,245.235,533.221,2935.461,7702.014,10461.767,
13917.548,17749.814,24373.087,28644.874,33984.396,NA,
NA,NA,NA,NA,NA,NA,NA,NA,NA,
84.808,1722.596,3412.287,7810.247,11367.66,16531.995,
22085.175,26798.15,34467.866,39884.358,NA,NA,NA,NA,NA,
NA,NA,NA,NA,NA,NA,
0.054,901.507,3672.031,5174.447,10264.817,14737.592,
22741.114,27442.586,34787.89,NA,NA,NA,NA,NA,NA,NA,NA,
NA,NA,NA,NA,
60.233,2607.292,10212.048,21977.254,32859.193,46222.9,

125
57855.394,71066.052,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,
802.359,9912.443,18346.543,33964.818,59128.901,84212.957,
107113.486,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,
1978.401,9607.457,20137.376,37122.077,64141.482,83669.165,
NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,
100.301,3147.351,10095.123,22279.049,30503.337,NA,NA,NA,
NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,
199.86,1182.132,1700.914,2592.048,NA,NA,NA,NA,NA,NA,NA,
NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,
0.001,1.028,827.702,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,
NA,NA,NA,NA,NA,NA,NA,
2.009,2.402,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,
NA,NA,NA,NA,NA,
0.196,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,
NA,NA,NA,NA),
.Dim = c(21, 21)))

INITS
list(theta=c(1500,45,2,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1),
tau=1, mu.theta=1,tau.theta=1000,
devfac= structure(.Data =
c(NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,
NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,1,
NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,1,1,
NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,1,1,1,
NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,1,1,1,1,
NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,1,1,1,1,1,
NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,1,1,1,1,1,1,
NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,1,1,1,1,1,1,1,
NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,1,1,1,1,1,1,1,1,
NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,1,1,1,1,1,1,1,1,1,
NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,1,1,1,1,1,1,1,1,1,1,
NA,NA,NA,NA,NA,NA,NA,NA,NA,1,1,1,1,1,1,1,1,1,1,1,
NA,NA,NA,NA,NA,NA,NA,NA,1,1,1,1,1,1,1,1,1,1,1,1,
NA,NA,NA,NA,NA,NA,NA,1,1,1,1,1,1,1,1,1,1,1,1,1,
NA,NA,NA,NA,NA,NA,1,1,1,1,1,1,1,1,1,1,1,1,1,1,
NA,NA,NA,NA,NA,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,
NA,NA,NA,NA,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,
NA,NA,NA,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,
NA,NA,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,
NA,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,
1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1
),
.Dim = c(21, 20)))

E.2.2 A un an
Le code suivant a été testé, mais sans résultat convergent.
MODEL{
for(i in 1:21){
z[i,1]<-y[i,1]
}

for(i in 1:20){
for(j in 1:(21-i)){
z[i,j+1]<-z[i,j]+y[i,j+1]
}
}

for(i in 1:20){
for(j in 1:(21-i)){
devfac[i, j]<- z[i, j+1] / z[i, j]
}
}

for(i in 1:21){
for(j in 1:(21-i+1)){
mu.df[i, j]<- theta[j]
tau.df[i, j]<-tau *weight[i,j]
weight[i, j]<-1
devfac[i, j]~dnorm(mu.df[i,j], tau.df[i,j]) I(0.95,)
}

126
}

for(j in 1:21){
theta[j]~dnorm(mu.theta, tau.theta)
}

tau~dgamma(0.1, 0.1)
mu.theta~dnorm(1, 0.01)
tau.theta~dgamma(0.1, 0.1)

for(i in 2:21){
z[i,21-i+2]<-z[i, 21-i+1]*devfac[i, 21-i+1]
}

for(j in 2:20){
volwtdevfac[j]<- sum(z[1:(21-j+1), j+1]) / sum(z[1:(21-j+1), j])
}

for(i in 3:21){
for (j in (21-i+2):20){
z[i,j+1]<-z[i,j] * volwtdevfac[j]
y[i,j+1]<-z[i,j+1]-z[i,j]
}
}

for (i in 3:21){
oustand.row[i]<-sum(y[i,(21+3-i):21])
}
oustand.row[22]<-sum(oustand.row[3:21])
}
}

E.3 Codes relatifs à la méthode de Bornhuetter


Ferguson bayésienne
E.3.1 A l’ultime
MODEL{
for(i in 1:21){
z[i,1]<-y[i,1]
}

for(i in 1:20){
for(j in 1:(21-i)){
z[i,j+1]<-z[i,j]+y[i,j+1]
}
}

for(i in 1:20){
for(j in 1:(21-i)){
devfac[i, j]<- max(0.01,z[i, j+1] / z[i, j])
}
}

for(i in 2:21){
for(j in (21-i+1):20){
z[i,j+1]<- z[i,j]*devfac[i,j]
y[i,j+1]<-z[i,j+1]-z[i,j]
}
}

for(i in 1:21){
for(j in 1:20){
mu.df[i,j]<-theta[j]
tau.df[i,j]<-max(0.001,tau*weight[i,j])
weight[i,j]<-1
devfac[i,j]~dnorm(mu.df[i,j], tau.df[i,j]) I(0.95,)
}
}

127
for(j in 1:20){
theta[j]~dnorm(mu.theta, tau.theta)
}

tau~dgamma(0.01, 0.01)
mu.theta~dnorm(1, 0.01)
tau.theta~dgamma(0.01, 0.01)

for(i in 1:21){
for(j in 1:20){
R[i, j]<-1/prod(devfac[i, j:20])
}
}

mu.lossratio~dnorm(1.15,100)

for(i in 1:21){
lossratio[i]~dnorm(mu.lossratio,1600)
ultimate[i]<-premium[i]*max(0.5,lossratio[i])
}

for(i in 1:21){
bfcell.curr[i,1]<- ultimate[i]*R[i,1]
for(j in 2:20){
bfcell.curr[i,j]<- ultimate[i]*(R[i, j]-R[i, j-1])
}
bfcell.curr[i,21]<- ultimate[i]*(1-R[i,20])
}

for (i in 2:21){
outstand.row[i]<-sum(bfcell.curr[i,(21+2-i):21])
}
outstand.row[22]<-sum(outstand.row[2:21])
}
}

DATA
list(y = structure(.Data = c(0.78,2.91,76.72,1081.41,255.94,-231.82,
282.15,166.6,330.96,620.39,576.88,632.18,710.18,487.86,907.93,
67.96,390.24,190.09,810.1,728.15,1045.58,
13.53,272.73,137.05,230.21,174.87,536.87,317.62,266.84,244.83,
389.49,219.3,789.57,1092.44,238.59,375.05,-372.2,349.61,
657.36,3177.95,640.83,NA,
266.24,230.13,63.07,-44.74,1214.89,255.7,-31.39,860.25,529.95,
2118.87,1750.2,480.81,2626.57,1130.11,272.11,767.3,708.2,
756.25,146.64,NA,NA,
152.41,133.23,-38.21,352.59,263.38,1470.92,504.38,785.02,
796.46,1997.52,448.89,1140.25,293.88,1041.37,989.72,454.83,
875.55,1012.02,NA,NA,NA,
167.4,165.9,643.61,391.38,467.68,726.63,108.1,637.9,1208.12,
1192.1,896.28,1224.02,1386.77,1042.36,1199.62,499.59,1431.62,
NA,NA,NA,NA,
2.03,418.53,176.9,66.32,351.14,620.58,650.33,3366.33,1010.12,
1191.95,556.87,616.37,1315.07,2469.04,924.25,2333.57,NA,NA,NA,
NA,NA,
5,7221.66,1222.98,980.99,861.54,442.33,-3101.24,1263.93,
2275.59,3037.96,1158.9,1662.96,1849.41,2237.38,3612.46,NA,
NA,NA,NA,NA,NA,
3.97,230.32,905.58,377.33,1659.19,1009.67,2306.84,2317.52,
2276.57,2597.21,1595.2,3457.14,5075.62,3354.79,NA,NA,NA,
NA,NA,NA,NA,
5,558.79,2500.81,1937.84,1948.43,1304.75,3299.35,3861.84,
4607.4,3060.6,3911.07,4470.85,3032.77,NA,NA,NA,NA,NA,NA,NA,
NA,
17.97,340.99,722.25,2441.51,4565.43,3954.72,4750.56,5406.26,
8733.58,3704.38,5183.06,10142.53,NA,NA,NA,NA,NA,NA,NA,NA,NA,
180.39,64.85,287.99,2402.24,4766.55,2759.75,3455.78,3832.27,
6623.27,4271.79,5339.52,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,
84.81,1637.79,1689.69,4397.96,3557.41,5164.34,5553.18,
712.98,7669.72,5416.49,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,
5,901.45,2770.52,1502.42,5090.37,4472.78,8003.52,4701.47,
7345.3,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,
60.23,2547.06,7604.76,11765.21,10881.94,13363.71,
11632.49,13210.66,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,

128
802.36,9110.08,8434.1,15618.28,25164.08,25084.06,22900.53,
NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,
1978.4,7629.06,10529.92,16984.7,27019.41,19527.68,NA,
NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,
100.3,3047.05,6947.77,12183.93,8224.29,NA,NA,NA,NA,
NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,
199.86,982.27,518.78,891.13,NA,NA,NA,NA,NA,NA,NA,
NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,
10,1.03,826.67,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,
NA,NA,NA,NA,NA,NA,
2.01,0.39,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,
NA,NA,NA,NA,NA,
2,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA),
.Dim = c(21, 21)),
premium=c(10960,
13216,20697,21512,24354,20000,15000,15000,90877,152979,
123384,166431,172858,458490,550000,650000,700000,123384,24354,
20000,10000
))

INITS

list(theta=c(1500,45,2,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1),
tau=1,mu.theta=1,tau.theta=1, mu.lossratio=1.15,
lossratio=c(1.15,1.15,1.15,1.15,1.15,1.15,
1.15,1.15,1.15,1.15,1.15,1.15,1.15,1.15,
1.15,1.15,1.15,1.15,1.15,1.15,1.15),
devfac= structure(.Data =
c(NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,
NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,1,
NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,1,1,
NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,1,1,1,
NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,1,1,1,1,
NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,1,1,1,1,1,
NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,1,1,1,1,1,1,
NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,1,1,1,1,1,1,1,
NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,1,1,1,1,1,1,1,1,
NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,1,1,1,1,1,1,1,1,1,
NA,NA,NA,NA,NA,NA,NA,NA,NA,NA,1,1,1,1,1,1,1,1,1,1,
NA,NA,NA,NA,NA,NA,NA,NA,NA,1,1,1,1,1,1,1,1,1,1,1,
NA,NA,NA,NA,NA,NA,NA,NA,1,1,1,1,1,1,1,1,1,1,1,1,
NA,NA,NA,NA,NA,NA,NA,1,1,1,1,1,1,1,1,1,1,1,1,1,
NA,NA,NA,NA,NA,NA,1,1,1,1,1,1,1,1,1,1,1,1,1,1,
NA,NA,NA,NA,NA,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,
NA,NA,NA,NA,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,
NA,NA,NA,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,
NA,NA,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,
NA,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,
1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1
),
.Dim = c(21, 20)))

E.3.2 A un an
Le code précédent a été modifié pour calculer le risque à un an dans la même
logique que le code de la méthode de Chain Ladder.
MODEL{
for(i in 1:21){
z[i,1]<-y[i,1]
}

for(i in 1:20){
for(j in 1:(21-i)){
z[i,j+1]<-z[i,j]+y[i,j+1]
}
}

for(i in 1:20){
for(j in 1:(21-i)){
devfac[i, j]<- z[i, j+1] / z[i, j]

129
}
}

for(i in 1:21){
for(j in 1:(20-i+2)){
mu.df[i, j]<-theta[j]
tau.df[i, j]<-tau*weight[i,j]
weight[i, j]<-1
devfac[i, j]~dnorm(mu.df[i,j], tau.df[i,j]) I(0.95,)
}
}

for(j in 1:21){
theta[j]~dnorm(mu.theta, tau.theta)
}

tau~dgamma(0.1, 0.1)
mu.theta~dnorm(1, 0.1)
tau.theta~dgamma(0.1, 0.1)

for(i in 2:21){
z[i,21-i+2]<-z[i, 21-i+1]*devfac[i, 21-i+1]
}

for(j in 2:20){
volwtdevfac[j]<- sum(z[1:(21-j+1), j+1]) / sum(z[1:(21-j+1), j])
}

for(i in 3:21){
for (j in (21-i+2):20){
z[i,j+1]<-z[i,j] * volwtdevfac[j]
y[i,j+1]<-z[i,j+1]-z[i,j]
}
}

for(i in 3:21){
for(j in (21-i+2):20){
devfac[i, j]<- z[i, j+1] / z[i, j]
}
}

for(i in 1:21){
for(j in 1:20){
R[i, j]<-1/prod(devfac[i, j:20])
}
}

#mu.lossratio~dnorm(1.15,10)
for(i in 1:21){
lossratio[i]~dnorm(1.15,100)
ultimate[i]<-premium[i]*max(0.5,lossratio[i])
}

for(i in 1:21){
bfcell.curr[i,1]<- ultimate[i]*R[i,1]
for(j in 2:20){
bfcell.curr[i,j]<- ultimate[i]*(R[i, j]-R[i, j-1])
}
bfcell.curr[i,21]<- ultimate[i]*(1-R[i,20])
}

for (i in 2:21){
outstand.row[i]<-sum(bfcell.curr[i,(21+2-i):21])
}
outstand.row[22]<-sum(outstand.row[2:21])
}}

130
Annexe F

Simulation sur un autre jeu


de données

Les données précédemment utilisées dans ce mémoire avec lesquels les simula-
tions ont été effectuées ont l’inconvénient de présenter de nombreuses irrégularités
et de la volatilités. De plus, les données de primes et de loss ratio attendu
n’étaient pas connues. Il était dans ce cas intéressant d’étudier assez brièvement
les résultats obtenus par les différentes méthodes présentées dans ce mémoire
pour un autre jeu de données. En effet, le fait de choisir le montant des primes
me permet d’obtenir pour les méthodes de type Bornhuetter-Ferguson tous les
résultats possibles. Donc, à l’opposé du choix précédent, le triangle choisi ici est
celui de l’exemple 1.1 du livre de C. Partrat et alii (cf. [26]) :
AY/DY j=1 j=2 j=3 j=4 j=5 j=6
i=1 3,209 4,372 4,411 4,428 4,435 4,456
i=2 3,367 4,659 4,696 4,720 4,730
i=3 3,871 5,345 5,398 5,420
i=4 4,239 5,917 6,020
i=5 4,929 6,794
i=6 5,217

Le triangle possède 6 années d’accident se développant sur au plus 6 années. On


a, en reprenant les notations de ce mémoire, I = J = 6.
Les montants des primes correspondant à l’année i ∈ {1, . . . , 6} ainsi que le
montant estimé pour l’année à venir i = 7 sont donnés par :
i primes S/P
1 4,591 0.97
2 4,672 1.00
3 4,863 1.05
4 5,175 1.10
5 5,673 1.20
6 6,431 1.25
7 7,200

On a adjoint en troisième colonne le montant attendu du ratio sinistre à prime


S/P.
Les données sont consistantes avec les hypothèses du modèle de Chain Ladder.
Par exemple, les graphiques suivant montrennt que les points (Ci1 , Ci2 )i=0,...,I−1
sont alignés et que les résidus pour j = 1 n’ont aucune tendance évidente :

131
D’autre part, un test de Student à 5 degrès de liberté montre que l’on ne peut
pas rejeter l’hypothèse
5
1 X Ci2
(H0 ) : f1 = µ :=
5 i=1 Ci1

où µ est la moyenne des coefficients de la première colonne du d-triangle avec


un seuil de tolérance de 5%.

F.1 Résultats obtenus - commentaires


le tableau suivant récapitule tous les résultats obtenus pour les différentes méthodes
testées.
Réserves Risque à l’ultime Risque à un an
Mack (Ult) et CDR (un an) 2,427 80 73
Bootstrap 2,423 124 107
Christophides 2,535 595 570
Bornhuetter-Ferguson stochastique 2,613 - 498
Modèle à un an (Chap. 7) 2,427 - 695
Méthode de Verall 2,538 102 90

Tout d’abord, le montant estimé de provisions est globalement identique pour


chacune des méthodes présentées ici. L’écart constaté provient du moment
d’ordre 2. On remarque que 2 groupes de résultats se détachent nettement.
Les méthodes de type Chain Ladder ainsi que la méthode bayésienne de Ve-
rall produisent une erreur à un an associée au montant estime des provisions
se situant autour de 100, et correspondant à environ 86-91% de l’erreur ultime
estimée. Par contre, les erreurs de prédiction estimées par les méthodes de type
Bornhuetter-Ferguson et par la méthode de Christophides sont d’environ 600,
soit 6 fois plus !
Que penser de tout cela ?
La branche considérée ici est courte et le développement a l’air d’être globale-
ment terminé en 2 ans. C’est d’ailleurs la raison pour laquelle la risque à un
an ici est globalement égal ou très proche du risque ultime. La question qui se
pose devient une question relatif au choix d’une méthode de provisionnement de

132
manière général plutôt que le choix d’une méthode de détermination du risque
à un an. Penser que le risque sur le montant des provisions soit d’environ 25%
du montant est alors assez gênant. Pour cette raison, je serais tenté de croire en
les résultats produits par la méthode des CDR, du bootstrap ou de Verall.
En regardant plus en détails les résultats obtenus pour la méthode de Chris-
tophides, on remarque que l’erreur de prédiction ultime associée au premier
développement de la charge sinistre de l’année 6 (correspondant à i = 6 et
j = 2) est anormalement élevée :

(i,j) Parameter Risk Total Risk


(2, 6) 5 7
(3, 5) 2 3
(3, 6) 6 8
(4, 4) 5 8
(4, 5) 2 4
(4, 6) 9 11
(5, 3) 12 18
(5, 4) 6 8
(5, 5) 3 4
(5, 6) 9 11
(6, 2) 425 569
(6, 3) 17 22
(6, 4) 8 10
(6, 5) 3 4
(6, 6) 11 14

Le risque de cette valeur semble anormalement élevé par rapport au risque


attaché aux autres valeurs, y compris pour la 6-ième année. Ceci étant, au vu
des donnnées et de leur développement très court sur une année, on comprend
que le risque de prédiction total repose essentiellement sur le risque de prédiction
associé à cette valeur. D’autant plus que le ratio de sinistre à prime attendu est
de 1.25. Faut-il privilégier l’approche de Mack pour laquelle on remarque que
le risque de prédiction attachée à la dernière année est certes le plus important,
mais sans l’être dans la proportion de 1 à 10 comme précédemment.

Mack Formulas
i Process risk Parameter risk Total risk
1 0 0 0
2 1 1 1
3 2 2 3
4 4 3 5
5 27 16 31
6 60 32 68
Cov 308
Total 80

A moins de connaissance particulière sur les données, la branche qui nécessiteraitnt


la prise en compte de données exogènes, il semblerait que l’erreur prédite par le
modèle de Mack ou du bootstrap soit suffisante. La méthode de bayésienne de
Verall tendrait à confirmer cela.
Il faut noter que les méthodes bayésiennes présentées à la section 8.2 ne semblent
pas très performantes utilisées en l’état. les résultats obtenus pour ce jeu de
données ne sont en effet visiblement pas utilisables. En effet, il est naturel de
considérer que les facteurs de développement suivent une loi normale ou lo-
gnormale, ce qui est l’hypothèse de base sous-jacente à ces modèles. Toute la
difficulté est de déterminer quelle est la loi suivit par les paramètes de cette

133
loi normale ou lognormale. La moyenne µ correspondant à la loi normale suit-
elle normale dont les paramètres suivent un loi gamma ? Comment calibrer le
modèle et estimer les valeurs initiales ? Y a-t-il un modèle par défaut ? Autant
de questions qui rendent difficiles l’utilisation de ce modèle.

F.2 Code relatif à la méthode bayésienne de Ve-


rall
MODEL{
for( i in 1 : 15 ) {
Z[i] <- Y[i]
pC[i]<-D[i]
#Zeros trick
#Rééchantillonage selon la distribution binomiale négative
#qui ne fait pas partie de WinBUGS (on renvoie au manuel WinBUGS)
zeros[i]<- 0
zeros[i] ~ dpois(phi[i])
phi[i]<-(-pC[i]*log(1/(1+g[row[i]]))-Z[i]*log(g[row[i]]/(1+g[row[i]])))/
scale
}

#On cumule les colonnes


DD[3]<-DD[1]+Y[16]
for( i in 1 : 2 ) {DD[4+i]<-DD[4+i-3]+Y[19+i-3]}
for( i in 1 : 3 ) {DD[7+i]<-DD[7+i-4]+Y[22+i-4]}
for( i in 1 : 4 ) {DD[11+i]<-DD[11+i-5]+Y[26+i-5]}

#Calcul intermédiaire pour le dénominateur de la formule


#De passage des paramètres de lignes à gamma
E[3]<-E[1]*gamma[1]
for( i in 1 : 2 ) {E[4+i]<-E[4+i-3]*gamma[2]}
for( i in 1 : 3 ) {E[7+i]<-E[7+i-4]*gamma[3]}
for( i in 1 : 4 ) {E[11+i]<-E[11+i-5]*gamma[4]}
EC[1]<-E[1]
EC[2]<-sum(E[2:3])
EC[3]<-sum(E[4:6])
EC[4]<-sum(E[7:10])
EC[5]<-sum(E[11:15])

# Modèle pour les observations futures


for( i in 16 : 30 ) {
a1[i]<- a[row[i]]*DD[i-15]/scale
b1[i]<- 1/(gamma[row[i]]*scale)
Z[i]~dgamma(a1[i],b1[i])
Y[i]<-Z[i]
fit[i]<-Y[i]
}

scale <- 3.186227 #Estimé comme somme des résidus de Pearson

#Conversion des paramètres de lignes en gamma


for (k in 1:5) {
gamma[k]<-1+g[k]
g[k]<-u[k]/EC[k]
a[k]<-g[k]/gamma[k]
}

#Distributions a priori des paramètres de lignes


for (k in 1:5) {
u[k]~dgamma(au[k],bu[k])
au[k]<-bu[k]*(ultm[k+1]*(1-1/f[k]))
bu[k]<-(ultm[k+1]*(1-1/f[k]))/ultv[k+1]
}
#Cetts distribution a priori peut ^etre modifiée changée
#En changeant les valeurs de vecteurs ultm et ultv

#Reserve par exercice et totale


R[1] <- 0
R[2]< - fit[16]

134
R[3]< - sum(fit[17:18])
R[4] <- sum(fit[19:21])
R[5] <- sum(fit[22:25])
R[6] <- sum(fit[26:30])
Total <- sum(R[2:6])
}

#DATA
list(
row=c(1,1,1,1,1,
2,2,2,2,
3,3,3,
4,4,
5,
1,
2,2,
3,3,3,
4,4,4,4,
5,5,5,5,5),
Y=c(3367,1292,37,24,10,
3871,1474,53,22,
4239, 1678,103,
4929,1865,
5217,
NA,
NA,NA,
NA,NA,NA,
NA,NA,NA,NA,
NA,NA,NA,NA,NA),
D=c(3209, 1163, 39, 17, 7,
6576, 2455, 76, 24,
10447, 3929, 129,
14686, 5607,
19615,
NA,
NA,NA,
NA,NA,NA,
NA,NA,NA,NA,
NA,NA,NA,NA,NA),
DD=c(
17,
46,NA,
232,NA,NA,
7472,NA,NA,NA,
24832,NA,NA,NA,NA),
E=c(17,
46,NA,
232,NA,NA,
7472,NA,NA,NA,
24832,NA,NA,NA,NA),
f=c(1.005, 1.002,1.004, 1.011, 1.381),
ultm=c(NA,4752,5456,6086,6947,7367),
ultv=c(NA,25,25,25,25,25)) #Précision

#INITIAL VALUES
list(u =c(4000,4000,4500,5000,5500,6000),
Z=c(NA,NA,NA,NA,NA,NA,
NA,NA,NA,NA,NA,
NA,NA,NA,NA,
NA,NA,NA,
NA,NA,
NA,
0,
0,0,
0,0,0,
0,0,0,0,
0,0,0,0,0,
0,0,0,0,0,0))

Ce programme a été modifié rapidement pour estimer le risque à un an sur notre


triangle spécifique. Le codage n’est pas très propre ( !) et devra être adapté pour
un autre jeu de données. Il serait certainement plus malin en cas d’utilisation

135
fréquente de cette méthode de tout recoder afin que le code fonctionne facilement
pour tout type de triangle. De plus une interface R ou Excel serait envisageable
et plus conviviale.

MODEL{
# Model for Data
for( i in 1 : 15 ) {
Z[i] <- Y[i]
pC[i]<-D[i]
# Zeros trick
zeros[i]<- 0
zeros[i] ~ dpois(phi[i])
phi[i]<-(-pC[i]*log(1/(1+g[row[i]]))-Z[i]*log(g[row[i]]/(1+g[row[i]])))/scale
}

# Cumulate down the columns:


DD[3]<-DD[1]+Y[16]
for( i in 1 : 2 ) {DD[4+i]<-DD[4+i-3]+Y[19+i-3]}
for( i in 1 : 3 ) {DD[7+i]<-DD[7+i-4]+Y[22+i-4]}
for( i in 1 : 4 ) {DD[11+i]<-DD[11+i-5]+Y[26+i-5]}

# Needed for the denominator in (5.7):


E[3]<-E[1]*gamma[1]
for( i in 1 : 2 ) {E[4+i]<-E[4+i-3]*gamma[2]}
for( i in 1 : 3 ) {E[7+i]<-E[7+i-4]*gamma[3]}
for( i in 1 : 4 ) {E[11+i]<-E[11+i-5]*gamma[4]}
EC[1]<-E[1]
EC[2]<-sum(E[2:3])
EC[3]<-sum(E[4:6])
EC[4]<-sum(E[7:10])
EC[5]<-sum(E[11:15])

# Model for future YEAR observations


for(i in 16 : 17 ) {
a1[i]<- a[row[i]]*DD[i-15]/scale
b1[i]<- 1/(gamma[row[i]]*scale)
Z[i]~dgamma(a1[i],b1[i])
Y[i]<-Z[i]
fit[i]<-Y[i]
}

a1[19]<- a[row[19]]*DD[19-15]/scale
b1[19]<- 1/(gamma[row[19]]*scale)
Z[19]~dgamma(a1[19],b1[19])
Y[19]<-Z[19]
fit[19]<-Y[19]

a1[22]<- a[row[22]]*DD[22-15]/scale
b1[22]<- 1/(gamma[row[22]]*scale)
Z[22]~dgamma(a1[22],b1[22])
Y[22]<-Z[22]
fit[22]<-Y[22]

a1[26]<- a[row[26]]*DD[26-15]/scale
b1[26]<- 1/(gamma[row[26]]*scale)
Z[26]~dgamma(a1[26],b1[26])
Y[26]<-Z[26]
fit[26]<-Y[26]

#On cumule les données et à l’aide de la nouvelle


#Diagonale simulée stochastiquement, on estime
#l’ultime par une méthode déterministe, ici Chain Ladder
Cum[23]<-Cum[15]+Y[17]
Cum[25]<-Cum[18]+Y[19]
Cum[28]<-Cum[20]+Y[22]
Cum[32]<-Cum[21]+Y[26]

Cum[24]<-Cum[23]*f[1]
Z[18]<-Cum[24]-Cum[23]
Y[18]<-Z[18]
fit[18]<-Y[18]

for(i in 1 : 2 ) {

136
Cum[25+i]<-Cum[25+i-1]*ff[i+3]
Z[i+19]<-Cum[25+i]-Cum[25+i-1]
Y[i+19]<-Z[i+19]
fit[i+19]<-Y[i+19]
}

for(i in 1 : 3 ) {
Cum[28+i]<-Cum[28+i-1]*ff[i+2]
Z[i+22]<-Cum[28+i]-Cum[28+i-1]
Y[i+22]<-Z[i+22]
fit[i+22]<-Y[i+22]
}

for(i in 1 : 4 ) {
Cum[32+i]<-Cum[32+i-1]*ff[i+1]
Z[i+26]<-Cum[32+i]-Cum[32+i-1]
Y[i+26]<-Z[i+26]
fit[i+26]<-Y[i+26]
}

scale <- 3.186227


# Convert row parameters to gamma using (5.7)
for (k in 1:5) {
gamma[k]<-1+g[k]
g[k]<-u[k]/EC[k]
a[k]<-g[k]/gamma[k]
}

# Prior distributions for row parameters.


for (k in 1:5) {
u[k]~dgamma(au[k],bu[k])
au[k]<-bu[k]*(ultm[k+1]*(1-1/f[k]))
bu[k]<-(ultm[k+1]*(1-1/f[k]))/ultv[k+1]
}

# Row totals and overall reserve


R[1] <- 0
R[2]< - fit[16]
R[3]< - sum(fit[17:18])
R[4] <- sum(fit[19:21])
R[5] <- sum(fit[22:25])
R[6] <- sum(fit[26:30])
Total <- sum(R[2:6])
}

# DATA
list(
row=c(1,1,1,1,1,
2,2,2,2,
3,3,3,
4,4,
5,
1,
2,2,
3,3,3,
4,4,4,4,
5,5,5,5,5),
Y=c(3367,1292,37,24,10,
3871,1474,53,22,
4239, 1678,103,
4929,1865,
5217,
NA,
NA,NA,
NA,NA,NA,
NA,NA,NA,NA,
NA,NA,NA,NA,NA),
D=c(3209, 1163, 39, 17, 7,
6576, 2455, 76, 24,
10447, 3929, 129,
14686, 5607,
19615,
NA,
NA,NA,

137
NA,NA,NA,
NA,NA,NA,NA,
NA,NA,NA,NA,NA),
DD=c(
17,
46,NA,
232,NA,NA,
7472,NA,NA,NA,
24832,NA,NA,NA,NA),
E=c(17,
46,NA,
232,NA,NA,
7472,NA,NA,NA,
24832,NA,NA,NA,NA),
Cum=c(3209, 4372, 4411, 4428, 4435, 4456,
3367, 4659, 4696, 4720, 4730,
3871, 5345, 5398, 5420,
4239, 5917, 6020,
4929, 6794,
5217,
NA,
NA,NA,
NA,NA,NA,
NA,NA,NA,NA,
NA,NA,NA,NA,NA),
f=c(1.005, 1.002,1.004, 1.011, 1.381),
ff=c(1.381, 1.011, 1.004, 1.002, 1.005),
ultm=c(NA,4752,5456,6086,6947,7367),
ultv=c(NA,25,25,25,25,25))

#INITIAL VALUES
list(u =c(4000,4000,4500,5000,5500,6000),
Z=c(NA,NA,NA,NA,NA,NA,
NA,NA,NA,NA,NA,
NA,NA,NA,NA,
NA,NA,NA,
NA,NA,
NA,
0,
0,NA,
0,NA,NA,
0,NA,NA,NA,
0,NA,NA,NA,NA,
0,NA,NA,NA,NA,NA))

138
Bibliographie

[1] AISAM-ACME. Aisam-acme study on non life long tail liabilities. Reserve
risk and risk margin assesment under Solvency II, 2007.
[2] G. Barnett and B. Zenwirth. Best estimates for reserves. Proceedings of
the CAS, LXXXVII(166-167) :Institute of Actuaries, London, 2000.
[3] B. Bühlmann, M. De Felice, A. Gisler, F. Moriconi, and M.V. Wüthrich.
Recursive credibility formula for chain ladder factors and the claims deve-
lopment result. ETH Preprint, 2008.
[4] H. Böhm and H. Glaab. Modellierung des kalenderjahr-risikos im additi-
ven und multiplikativen schadenreservierungsmodell. Talk presented at the
German ASTIN Colloquium, 2006.
[5] M. Buchwalder, H. Bühlmann, M. Merz, and M.V. Wüthrich. The mean
square error of prediction in the chain-ladder reserving method (mack and
murphy revisited). ASTIN Bulletin, 36(2) :521–542, 2006.
[6] CEIOPS. Qis4 technical specifications. Available on the CEIOPS website,
2008.
[7] CEIOPS. Quantitative impact study 4, questions and answers - list of
methodological issues raised by participants and supervisors. available on
the CEIOPS website, 2008.
[8] S. Christophides. Regression models based on log-incremantal payements.
Claims Reserving Manual, 2 :Institute of Actuaries, London, 1990.
[9] M. De Felice and F. Moriconi. Process error and estimation error of year-
end reserve estimation in the distribution free chain-ladder model. Alef
Working Paper - Version B - Rome, 2006.
[10] P. England and R. J. Verall. Analytic and bootstrap estimates of predic-
tion errors in claims reserving. Insurance : Mathematics and Economics,
25 :281–293, 1999.
[11] P. England and R. J. Verall. Addendum to ’analytic and bootstrap esti-
mates of prediction errors in claims reserving’. Actuarial Research Papers
No. 138, Departement of Actuarial Science and Statistics, City University,
London, EC1V 0HB, 2002.
[12] P. England and R. J. Verall. Stochastic claims reserving in general insu-
rance. British Act. J., 8(3) :443–518, 2002.
[13] A. Gisler. The estimation error in the chain-ladder reserving method : a
bayesian approach. ASTIN Bulletin, 36(2) :554–565, 2006.
[14] A. Gisler and M.V. Wüthrich. Credibility for the chain-ladder reserving
method. preprint (Accepted by ASTIN Bulletin, 2007.

139
[15] J. Jacquemin, F. Planchet, and P. Thérond. Modèles Financiers en Assu-
rance. 2005.
[16] T. Mack. Distribution-free calculation of the standard error in the chain-
ladder reserving method. ASTIN Bulletin, 23(2) :213–225, 1993.
[17] T. Mack, G. Quarg, and C. Braun. The mean square error of prediction in
the chain-ladder reserve estimates. ASTIN Bulletin, 36(2) :543–552, 2006.
[18] F. Mercurio. Pricing and inflation-indexed derivatives. Product and Busi-
ness Development Group - Banca IMI, 2005.
[19] M. Merz and M.V. Wüthrich. Prediction error of the expected claims
development result in the chain ladder method. North American Actuarial
J, 2007.
[20] M. Merz and M.V. Wüthrich. Modelling the claims development result or
solvency purposes. Preprint, 2008.
[21] M. Merz, M.V. Wüthrich, and R. Dahms. Claims development result for
combined claims incurred and claims paid data. Preprint (available on
Mario Wüthrich homepage), 2008.
[22] M. Merz, M.V. Wüthrich, and N. Lysenko. Uncertainty of the claims de-
velopment result in the chain ladder method. Scand. Actuar. J, 2007.
[23] D. Murphy. Chain ladder reserve risk estimators. Casualty Actuarial So-
ciety, 2007.
[24] I. Ntzoufras. Aspects of bayesian model and variable selection using mcmc.
Dep. of Statistics, Athens University of Economics and Business, Thesis,
1999.
[25] Commission of the European Communities. Amended proposal for a direc-
tive of the european parliament and of the council on the taking-up and
pursuit of the business of insurance and reinsurance (solvency ii). 2008.
[26] C. Partrat, E. Lecoeur, J.M. Nessi, E. Nisipasu, and O. Reiz. Provisionne-
ment technique en Assurance non vie - Perspectives actuarielles modernes.
2008.
[27] A. E. Renshaw and R. J. Verall. A stochastic model underlying the chain-
ladder technique. B.A.J., 4 :903–923, 1998.
[28] D. P. M. Scollnik. Actuarial modeling with mcmc and bugs. North Ame-
rican Actuarial Journal, 5(2) :96–124, 2001.
[29] D. P. M. Scollnik. Modelling size-of-loss distributions for exact data in
winbugs. Journal of Actuarial Practice, 10(1-2) :193–218, 2002.
[30] D. P. M. Scollnik. Bayesian reserving models inspired by chain ladder
methods and implemented using winbugs. ARCH, 2, 2004.
[31] R. J. Verall. A bayesian generalized linear model for the bornhuetter-
ferguson method of claims reserving. North American Actuarial Journal,
8(3) :67–89, 2004.
[32] R. J. Verall. Obtaining predictive distributions for reserves which incorpo-
rate expert opinion. Variance, 1(1) :53–80, 2007.
[33] L.S. Ward and H.D. Lee. Practical application on the risk-adjusted return
on capital framework.

140
[34] M.V. Wüthrich, H. Bühlmann, and M. Merz. Bounds in the estimation
error in the chain ladder method. Scandinavian Actuarial Journal, 2006.
[35] B. Zenwirth. Probabilistic development factor models with applications to
loss reserve variability, prediction intervals, and risk based capital. Casualty
Actuarial Society Forum, 2 :447–605, 1994.

141

Vous aimerez peut-être aussi