Académique Documents
Professionnel Documents
Culture Documents
D IEUDONNÉ
TÉLÉCOM BRETAGNE
September 9, 2010
In order to robustly estimate the parameters of this model and to take account of
development patterns, we use generally ten years of historical data.
One of the liabilities of this modelling is we don’t take account of the evolution
of the portfolio during that long period. Therefore, if we are interested in a MTPL
treaty, this model of pricing will not reward a company who tried to improve its
subscribing policy by selecting best risks.
The main goal of this memoir is to study the doability of the introduction of a
pricing method that would take account of risk factors, considering the available
data.
First, we tried to get rid of the data size constraint, and then we adjusted a general-
ized linear model in order to answer to this problem.
1
Table des matières
Introduction 4
1 L’entreprise : Secura Re 6
2
5.1.3 Données exploitables dans l’exemple . . . . . . . . . . . . 31
5.2 Type de modèles ajustés . . . . . . . . . . . . . . . . . . . . . . . 32
5.3 Distribution et fonctions de lien utilisées . . . . . . . . . . . . . . . 32
5.4 Distributions et liens retenus, analyse des modèles obtenus . . . . . 34
5.4.1 Modélisation face à un seul effet . . . . . . . . . . . . . . . 34
5.4.2 Modélisation face à deux effets . . . . . . . . . . . . . . . 35
5.4.3 Modélisation face à trois effets . . . . . . . . . . . . . . . . 41
5.5 Résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
Conclusion 43
Annexes
C Glossaire 67
Bibliographie 69
3
Introduction
Bien qu’elle aie connu un véritable essor à partir du XVIIème siècle par la volonté
des affréteurs de se couvrir financièrement contre la perte en mer de bateaux et s’est
développée depuis lors, l’assurance a pris du temps à se mettre en forme. Le principe
de base de l’assurance existe pourtant depuis l’Antiquité : un individu qui cherche
à se prémunir contre un aléa va verser une somme à quelqu’un pour se voir fournir
une prestation (en argent ou en nature) dans le cas où l’aléa survient effectivement.
Or, tous les assureurs, pour un produit sensiblement similaire, peuvent avoir
des politiques de souscription très différentes, à cause par exemple de leur ligne
tarifaire, du marché concerné, du pays ou de la région dans lesquels le produit est
proposé, de leur aversion au risque, ou de toute autre raison.
Le réassureur s’en sort généralement de deux façons : il dispose d’une part d’un
modèle de tarification basé sur le marché lorsqu’il manque d’informations. D’autre
part, avec l’expérience des années, il arrive à obtenir une assez bonne vision du por-
tefeuille de la cédante et de son risque associé.
Cependant ces deux approches sont assez souvent trop sévères avec des cédantes
dont lapolitique de souscription est meilleure que le marché ou évolue favorable-
ment dans le temps, i.e. qui élimine les mauvais risques : celles-ci seront évaluées
sur des risques qu’elles ne couvrent plus et de cette façon auront à payer un surcoût
pour cette couverture.
Le but du présent mémoire est d’évaluer la possibilité d’obtenir un tarif d’expo-
4
sition, c’est-à-dire basé sur les caractéristiques des risques présents dans le porte-
feuille de la cédante.
Pour mener à bien cette étude, nous rappelerons tout d’abord les principes de
tarification en assurance, puis nous présenterons les contrats spécifiques que sont
les traités en excédent de sinistres sur lesquels est basée cette étude. Ensuite nous
étudierons un protocole de résolution du problème avant de présenter un exemple
d’application sur des données collectées au Royaume-Uni.
5
Chapitre 1
L’entreprise : Secura Re
Secura est un réassureur belge ayant débuté ses activités en 1946, présent en Europe
Occidentale, principalement dans le Benelux et l’Europe du Sud. En 2008, son en-
caissement de primes ajusté était de 217,5 millions d’euro.
Capital
Ses deux actionnaires sont d’une part le groupe KBC Assurances – qui est présent en
Belgique et fournit des services financiers à ses clients, aussi bien en banque qu’en
assurances – avec 95,04% du capital et Dexia Insurance Belgium, avec 4,96% du
capital.
KBC Assurances
Dexia
Marchés
Secura est présente géographiquement en Europe ; elle couvre des traités souscrits
dans les pays suivants : Belgique, Luxembourg, Pays-Bas, Italie, Portugal, Espagne,
France, Royaume- Uni, Irelande, Allemagne, Autriche, Suisse et Grèce. Ainsi, en
2008, près de 30% de l’encaissement ajusté de primes était généré dans les pays du
Benelux, tandis que l’Europe du Sud représentait 56,8% du total, l’Europe du Nord
7,6% et l’Europe Centrale 5,3%.
6
F IGURE 1.2 – Les différents pays où Secura intervient en réassurance
Les couvertures proposées sont variées et Secura intervient sur différents types
de marché :
Services
Secura propose à ses clients différents services liés à son activité :
• tarification de la réassurance ;
7
Europe du Nord
Benelux
Autres
Europe Centrale
Europe du Sud
• support actuariel ;
• gestion de sinistres ;
La note Standard & Poor’s du groupe KBC a été révisée à A en mars 2009. Par
conséquent, la note S&P de Secura est également fixée à A depuis lors.
8
Chapitre 2
De plus, la plupart des notions que nous rencontrerons dans ce chapitre seront
à la base de notre travail, notamment en ce qui concerne la segmentation de porte-
feuilles et les facteurs de risque, décrits dans ce chapitre. Précisons également que
le modèle collectif de risque est aussi utilisé par l’entreprise Secura pour estimer le
coût d’un traité de réassurance en excès de sinistres (nous invitons le lecteur à lire à
cet effet le chapitre suivant).
9
petit que S. L’écart quadratique moyen d2 pénalise toute sur- ou sous-évaluation de
S:
d2 (S, ν) = E (S − ν)2 .
d2 (S, ν) = E (S − ν)2
Cette valeur est ce qu’on appelle la prime pure*, qui va servir à couvrir les sinistres
du portefeuille a priori.
Dans le modèle collectif de risque, on considère que le nombre N de sinistres qui
surviennent est indépendant du coût X d’un sinistre. Cette hypothèse n’est donc
pas valable dans le cadre d’une catastrophe naturelle par exemple, où les sinistres
ne sont plus indépendants sur une même zone. Les sinistres sont considérés, pour
un risque donné, comme étant indépendants et identiquement distribués.
À partir de ces hypothèses, on peut écrire :
N
X
S= Xi
i=1
10
Pour cela, il utilise la loi des grands nombres, qui est justifiée par certains outils
mathématiques comme le théorème centrale limite1 , mais qu’on peut démontrer à
l’aide des inégalités de Markov et de de Bienaymé-Tchebycheff.
1
Toute somme de n variables aléatoires indépendantes et identiquement distribuées converge vers
une variable aléatoire gaussienne quand n tend vers l’infini.
11
La loi des grands nombres permet donc d’affirmer, sous trois hypothèses (porte-
feuille de grande taille, indépendance de montants de sinistre Si , distribution iden-
tique des Si , d’où des hypothèses d’homogénéité sur les risques présents dans le
portefeuille), que la charge moyenne de sinistre par police converge vers la prime
pure. Une idée simple est alors de demander, si le portefeuille comprend N assurés,
une prime de P = E [S] /N à chacun. Ainsi, l’assureur récupère E [S] et il est à
l’équilibre a priori.
Si les risques ne sont pas assez nombreux, semblables et indépendants, la loi des
grands nombres ne s’applique plus et il n’y a plus compensation entre sinistres et
primes.
L’assureur n’a pas les moyens de connaître très précisément le risque associé
à chacun de ses assurés, soit que ce soit techniquement impossible, soit que ce
soit légalement interdit. Mais il peut définir des profils de risque et associer une
tarification à chaque profil.
12
catégories :
Par exemple, dans le cas de l’assurance automobile, les informations sur l’assuré
peuvent être son âge, son sexe, sa situation maritale, les informations sur le contrat
peuvent être la sélection d’une assurance multi-risques ou risque spécifique, les in-
formations sur le sous-jacent – le véhicule – peuvent être la puissance, la couleur,
l’usage, etc. Autant de détails qui vont permettre de trouver des points de corréla-
tion entre ces variables et la survenance de sinistres.
L’actuaire a alors besoin de créer des modèles pour étudier l’influence de ces
variables explicatives sur la fréquence des sinistres, d’une part, et sur le coût moyen,
d’autre part.
13
Chapitre 3
Nous allons décrire dans ce chapitre le produit sur lequel nous avons travaillé. En
effet, tous les produits de réassurance ne s’abordent pas de la même façon et n’ont
pas les mêmes implications, que ce soit en terme d’engagements, de données néces-
saires et de tarifs. Nous ferons donc un bref rappel des différents types de produits
de réassurance avant de nous concentrer sur le type de produit utilisé pour la réas-
surance de responsabilité civile automobile.
On peut imaginer tout type de montage impliquant ces deux types de traités.
Dans le cadre de ce mémoire, nous ne nous intéresserons qu’à des traités en excé-
dent de sinistres.
Les traités en excédent de sinistres, ou XL (Excess of Loss) sont des traités
non proportionnels. Ils impliquent en effet l’intervention du réassureur uniquement
lorsqu’un sinistre a dépassé un montant fixé au début du contrat.
3.1 Définition
Le traité définit des tranches de réassurance, c’est-à-dire un minimum (appelé prio-
rité*, noté P dans la suite) et un maximum (appelé limite*, qui peut être illimité,
et noté L dans la suite). La différence entre la limite et la priorité est appelée la
capacité* du contrat (notée C).
En pratique, la notation suivante est utilisée pour définir une tranche : C xs P . Elle
correspond à une tranche ayant une priorité de P et une limite de L = P + C.
Le réassureur intervient dès lors qu’un sinistre voit son montant toucher la plus
basse tranche définie dans le traité. Le réassureur verse alors à l’assuré la somme
dépassant la priorité, jusqu’à ce que la limite soit atteinte. Les sommes en dessous
de la priorité et au dessus de la limite sont à la charge de l’assureur. On parle de la
14
Amount (millions)
5,0
4,0
3,0
2,0
1,0
1 2 3 Claim
F IGURE 3.1 – Répartition entre les différentes couches de couverture. Ce qui est en
jaune reste en rétention chez l’assureur.
rétention* de l’assureur.
Tous les sinistres de moins d’un million d’euro restent entièrement à la charge de
l’assureur.
15
Ce type de traité a donc l’avantage, s’il est bien calibré, de limiter l’engagement
maximal de la cédante dans un contrat donné. Ainsi, dans l’exemple ci-dessus, si
aucun sinistre connu à ce jour n’a dépassé 4 millions, la cédante voit a priori son
engagement limité pour chaque police à 1 million au pire, sauf événement excep-
tionnel de grande ampleur.
b) on a des informations incomplètes sur les risques réels présents dans le porte-
feuille ;
Pour toutes ces raisons, nous avons cherché à nous affranchir de la limitation de
la taille du portefeuille, de façon à disposer de sous-ensembles de taille acceptable
16
sur lesquels on puisse appliquer un modèle.
Cela suppose au préalable de disposer des mêmes données pour toutes les cé-
dantes dans le groupe, dans un format compatible. Ainsi, si deux cédantes donne
une variable âge sous forme de tranches, il faut qu’on ait les mêmes découpages.
Autrement, il faudra regrouper de sorte à obtenir des sous-ensembles compatibles,
ce qu’on cherchait justement à éviter.
Ensuite, il peut arriver que même en agrégeant toutes les cédantes dont nous
avons les sinistres, la quantité de données demeure insuffisante.
Cette méthode paraît donc un peu fragile et surtout trop dépendante de données
auxquelles on n’a pas forcément accès pour atteindre le but attendu.
3.4 Simulation
Cette approche n’est pas aussi idéale que l’agrégation de portefeuilles, mais elle
permet de « contourner »le problème de la fiabilité et la quantité des données. Elle
se base sur la simulation d’un jeu de données, calibré à partir des données de la
cédante. Ainsi, il s’agit de reconstituer un portefeuille qui va présenter les caracté-
ristiques de la cédante ou du marché, mais qui ne sera plus limité par la taille du
portefeuille disponible.
17
Chapitre 4
Dans cette section nous décrirons notre cheminement pour répondre à la probléma-
tique.
Vocabulaire et notations
Avant d’aller plus loin, précisons le vocabulaire et les notations qui seront utilisées
par la suite.
Il importe en premier lieu de distinguer facteur de risque et catégorie. On appelle
catégorie une réalisation des facteurs de risque. Ceux-ci sont en effet des variables
aléatoires que l’on considérera comme étant discrètes.
18
Catégorie Sexe du conducteur Type de contrat
1 Homme RC seule
2 Homme Tous risques
3 Femme RC seule
4 Femme Tous risques
À partir de cette définition des catégories, on peut parler des variables globales,
c’est-à-dire qui porteront sur l’union toutes les catégories. Par exemple, l’exposition
globale sera la somme des expositions de chaque catégorie.
On utilisera comme mesure d’exposition au risque le nombre de polices qui pré-
sentent les caractéristiques de cette catégories, on la notera ek . Cette mesure d’ex-
position sera également définie par année de souscription, notée i.
P
• ei = k ei,k désignera l’exposition globale pour l’année de souscription i.
• Ni,j désignera le nombre de sinistres survenus lors de la i-ème année de sous-
cription en j-ème année de développement.
19
Il s’agit bien de la répartition du portefeuille dans l’exposition, et n’a rien à
voir avec la sinistralité.
UY Exposure Exemple
2000 e2000 10 000
2001 e2001 11 000
2002 e2002 9 000
2003 e2003 11 000
2004 e2004 13 000
2005 e2005 14 000
Répartition Pour ce qui est de la répartition, il convient de faire une étude préa-
lable du portefeuille ou du marché. Cela donnera une idée des proportions de chaque
réalisation dans les variables aléatoires.
(i) pour chaque année de souscription i, nous avons effectué un tirage aléatoire
pour la répartition de chaque variable aléatoire. Ceci est obtenu par un tirage
d’une variable Poisson-distribuée1 d’espérance la proportion voulue.
1
le choix d’une loi de Poisson pour modéliser des proportions peut être discutable, car il existe
d’autres lois ayant l’intervalle [0, 1] pour support.
20
Facteur de risque Réalisation Répartition Nom
Homme P(49)/100 P ropH,i
Sexe du conducteur
Femme P(51)/100 P ropF,i
RC seule P(5)/100 P ropRC,i
Type de contrat
Tout risque P(95)/100 P ropT R,i
(ii) Nous voulons que la somme des tirages soit unitaire pour chaque variable
aléatoire. Nous normalisons donc les résultats obtenus pour chaque variable
aléatoire.
Exemple 6. Si dans l’exemple précédent, un tirage de P(95)/100 est supé-
rieur à 1 (cet événement a une probabilité non nulle), alors on aura une vision
faussée de notre univers. Mettons que P(95)/100 donne P ropT R,i = 1, 01 et
P(5)/100 donne P ropRC,i = 0, 04. Alors, après normalisation, on aura :
1, 01 0, 04
P ropT R,i = = 0, 962 et P ropRC,i = = 0, 038.
1, 05 1, 05
On obtient ainsi pour chaque facteur de risque un vecteur pour chaque année
de souscription. L’obtention d’une catégorie k est le produit d’une réalisation
de chaque facteur de risque.
(iii) Pour chaque année i, on fait le produit tensoriel des vecteurs colonnes des
facteurs de risque.
Définition 1 (Produit tensoriel). Le produit tensoriel est un produit de ma-
trices particulier, qui se définit comme suivant :
Si A ∈ Mm,n est une matrice n × m et B ∈ Mq,r une matrice q × r, on définit
le produit tensoriel de A par B, noté A ⊗ B, par :
A1,1 B · · · A1,n B
.. .. ..
C =A⊗B = . . .
Am,1 B · · · Am,n B
C est une matrice mq × nr.
Le produit tensoriel est une opération linéaire. Notons également que dans le
cas général, A ⊗ B 6= B ⊗ A.
Ici, nous faisons le produit tensoriel de vecteurs colonnes.
Exemple 7.
! ! ! !
P ropH,i 0, 47 P ropRC,i 0, 038
= , =
P ropF,i 0, 53 P ropT R,i 0, 962
sont nos deux vecteurs obtenus après normalisation. Nous effectuons le pro-
duit tensoriel et obtenons un seul vecteur colonne, de dimension 2 ∗ 2 = 4 × 1
que nous représentons ci-dessous :
21
Catégorie Répartition
1 P ropH,i ∗ P ropRC,i = 0, 01786
2 P ropH,i ∗ P ropT R,i = 0, 45214
3 P ropF,i ∗ P ropRC,i = 0, 02014
4 P ropF,i ∗ P ropT R,i = 0, 50986
(iv) Il ne nous reste plus qu’à répartir l’exposition de l’année i pour obtenir la
population de chaque catégorie k :
ei,k = ei · P ropk,i
Année de souscription
Cat. 2000 2001 2002 2003 2004 2005
1 0,01786 0,026064 0,02401 0,02806 0,0235 0,2256
2 0,45214 0,453936 0,46599 0,43194 0,4465 0,45744
3 0,02014 0,002836 0,02499 0,03294 0,0265 0,02444
4 0,50986 0.491764 0.48501 0,50706 0,5035 0,49556
Année de souscription
Cat. 2000 2001 2002 2003 2004 2005
1 179 287 216 309 306 316
2 4 521 4 993 4 194 4 751 5 804 6 404
3 201 311 225 362 345 342
4 5 099 5 409 4 365 5 578 6 545 6 938
Total 10 000 11 000 9 000 11 000 13 000 14 000
22
Les expositions ont ici été arrondies pour avoir des entiers, mais ce n’est pas
nécessaire (notre exposition n’a en effet aucune raison d’être entière). La ligne
totale est bien le vecteur d’exposition globale que nous avions présenté plus
haut.
Cette succession d’étape est suffisante pour générer un jeu de données. Cepen-
dant, on peut désirer obtenir une stabilisation du portefeuille. Nous avons donc in-
troduit un "bootstraping" de la matrice E = (el , j), l = 1, · · · , k, j = 1, · · · , i de
sorte d’obtenir des E1? , E2? , · · · , EN ?
, où N est le nombre d’itérations du bootstrap.
La matrice E finale est alors :
P
N PN PN
(e 1,1 ) n · · · (e 1,j ) n · · · (e 1,i ) n
n=1. ..
n=1
..
n=1
..
.
. . . .
N
1 X
? 1 PN
PN ..
E= En = (e
n=1 l,1 n ) · · · (e
n=1 l,j n ) .
n n=1 n
.
.. . .. .
..
PN PN PN
n=1 (ek,1 )n · · · n=1 (ek,j )n · · · n=1 (ek,i )n
Cette opération permet de réduire les effets de chance ou malchance qui pourraient
intervenir lors du tirage aléatoire. Nous avons donc obtenu une exposition par caté-
gorie pour toutes les années de souscription pour notre portefeuille. À partir de là,
nous pouvons donc générer la sinistralité2 .
23
Génération de triangles par catégorie Prenons une catégorie k. Nous avons
pour cette catégorie une exposition par année de souscription ei,k .
On considère que la fréquence de sinistre ne dépend que de la catégorie k. On ob-
tient un fk à partir d’une analyse des données ou du marché.
Cependant, certains sinistres présents dans les triangles IBNR seront de « faux
IBNR » – c’est-à-dire que ces sinistres ont été sur-évalués par l’assureur au moment
de leur déclaration mais a posteriori on constate qu’ils n’auraient jamais dû appa-
raître dans ce triangle – et il faut les supprimer de la modélisation. Nous faisons
donc une modélisation à l’aide d’une succession de lois binômiales, de paramètres
de succès respectifs pj .
Nous générons alors trois triangles distincts. Dans le premier, le nombre de si-
nistres sont générés suivant une loi de Poisson. Dans le second, on modélise les lois
binômiales négatives à partir du troisième, somme des deux triangles précédents.
Le premier triangle a la forme suivante :
0 1 ··· 9 10
1997 ak,1997,0 ak,1997,1 ··· ak,1997,9 ak,1997,10
1998 ak,1998,0 ak,1998,1 ··· ak,1998,9
.. .. ..
. . . ···
2006 ak,2006,0 ak,2006,1
2007 ak,2007,0
Chaque élément ak,i,j suit une loi de Poisson P(ei,k · fk · lj ). L’antidiagonale du
tableau représente la LKS (Last Known Situation ou dernière situation connue). En
effet, chaque nombre situé sur l’antidiagonale est le nombre de sinistres rattachés à
l’année de survenance tel qu’on le connaît l’année 2007.
Le deuxième triangle a la forme suivante :
0 1 ··· 9 10
1997 0 bk,1997,1 ··· bk,1997,9 bk,1997,10
1998 0 bk,1998,1 ··· bk,1998,9
.. .. ..
. . . ···
2006 0 bk,2006,1
2007 0
24
où chaque bk,i,j suit une loi binômiale Bin(ck,i,j−1 , pj ). On considère que les
sinistres sont retirés à la fin de l’année écoulée, soit au début de l’année suivante,
ce qui explique le vecteur nul en année de développement 0. Les ck,i,j , éléments
cumulés du triangle final, sont obtenus en soustrayant les bk,i,j aux ak,i,j . On obtient
alors le triangle final par catégorie :
0 1 ··· 9 10
1997 ck,1997,0 ck,1997,1 ··· ck,1997,9 ck,1997,10
1998 ck,1998,0 ck,1998,1 ··· ck,1998,9
.. .. ..
. . . ···
2006 ck,2006,0 ck,2006,1
2007 ck,2007,0
Ici on a :
(
ak,i,0 si j = 0
ck,i,j =
ck,i,j−1 + max (0, ak,i,j − bk,i,j ) si j 6= 0.
Espérance et variance des ck,i,j On travaille pour une catégorie k et une année
de survenance i fixées, de sorte que : ck,i,j = cj , ak,i,j = aj et bk,i,j = bj . Pour
simplifier, on a : aj ∼ P(ei,k · fk · lj ) ∼ P($j ), bj ∼ Bin(ck,i,j−1 , pj ).
On a alors :
∞
X
Pr [Y = y] = Pr [Y = y|X = n] Pr [X = n]
n=0
∞ n
−λ λ n!
X
= e py (1 − p)y
n=0
n! y!(n − y)!
∞
X (λ(1 − p))n−y
= e−λ (λp)y
n=0
y!(n − y)!
∞
e−λ (λp)y X (λ(1 − p))n−y
=
y! n=0
(n − y)!
e−λ (λp)y λ(1−p)
=e
y!
(λp)y −λp
= e
y!
Pr [Y = y] ∼ P(λp)
25
Obtention du triangle global Le triangle global est obtenu en sommant les tri-
angles de chaque catégorie :
0 1 ··· 9 10
PNk PNk PNk PNk
1997 k=1 ck,1997,0 k=1 ck,1997,1 ··· k=1 ck,1997,9 k=1 ck,1997,10
PNk PNk PNk
1998 k=1 ck,1998,0 k=1 ck,1998,1 ··· k=1 ck,1998,9
.. .. ..
. . . ···
PNk PNk
2006 k=1 ck,2006,0 k=1 ck,2006,1
PNk
2007 k=1 ck,2007,0
n
Y λni i
Lind (β) = exp (−λi )
i=1
ni !
q
Y Y λni i
= exp (−λi )
j=1 i|xi =v j
ni !
q
Y X n̄
λi exp (β t v j ) j
∝ exp −
j=1 i|xi =v j
q
Y X n̄
exp − exp (β t v j ) di exp (β t v j ) j
=
j=1 i|xi =v j
q n̄
exp (β t v j )d¯j j
exp − exp (β v j )d¯j
Y
t
∝
j=1
n̄j !
donc Lind (β) ∝ Lcat (β)
Cela signifie que si les vraisemblances sont proportionnelles, alors elles ont le
même estimateur du maximum de vraisemblance.
26
Cette propriété justifie donc la construction par catégories que nous venons de
faire et le fait de travailler avec des catégories plutôt qu’avec des individus. Il est
plus simple de travailler avec les catégories directement – moins de données à traiter
et à manipuler, pas de problème d’aggrégation.
0 1 ··· 9 10
1997 c1997,0 c1997,1 ··· c1997,9 c1997,10
1998 c1998,0 c1998,1 ··· c1998,9 c1998,9 · ψ9→10
.. .. .. ..
. . . . ···
2006 c2006,0 c2006,1 c2006,1 · ψ1→2
2007 c2007,0 c2007,0 · ψ0→1
0 1 ··· 9 10
1997 c1997,0 c1997,1 ··· c1997,9 c1997,10
1998 c1998,0 c1998,1 ··· c1998,9 c?1998,10
.. .. .. .. ..
. . . ··· . .
2006 c2006,0 c2006,1 ··· c?2006,9 c?2006,10
2007 c2007,0 c?2007,1 ··· c?2007,9 c?2007,10
On a ici :
ci,j
si i + j 6 imax
ci,j = j−1
?
Q
ci,j =
ψl→l+1 · ci,imax−i+1 si i + j > imax
l=imax−i+1
27
Sinistres ultimes par catégorie Nous avons obtenu à présent le nombre global
de sinistres ultimes pour chaque année de développement. Cependant, nous n’avons
pas d’indication sur comment ces sinistres ultimes se répartissent entre les diffé-
rentes catégories.
Nous avons donc fait dans un premier temps l’hypothèse qu’on retrouve la même
proportion de sinistres en ultime qu’en LKS. Cela signifie que toutes les catégories
présentent le même pattern de développement entre la LKS et l’ultime.
Ainsi, nous avons calculé un vecteur k × i qui contient le ratio ρk,i = ck,i,j /ci,j
pour chaque catégorie k et pour chaque année de souscription i sur l’antidiagonale
(on a j = imax−i+1). Nous avons alors obtenu les sinistres ultimes par catégorie :
Ucat = % · DU
avec :
• Ucat la matrice Nk × imax contenant les ultimes par catégorie k et par année
i;
• % = (ρk,i ), k = 1, · · · , Nk , i = 1, · · · , imax les ratios par catégorie k et
année i ;
• DU est la matrice diagonale imax × imax dont les coefficients diagonaux
sont les ultimes globaux, i.e. :
c1997,10 0 ··· 0
?
0 c 1998,10 · · · 0
DU =
.. .. ... ..
. . .
?
0 0 · · · c2007,10
Stabilisation des résultats Ici encore, comme dans lors de la génération des ca-
tégories, nous avons introduit un « bootstrap » pour stabiliser les résultats. Si on fait
NB tirages, on extrapole NB triangles globaux et on obtient NB vecteurs ultimes
par catégorie. Les nombres ultimes retenus sont alors les moyennes de ces tirages,
i.e. :
NB NB NB
!
1 X 1 X 1 X
(Ūcat )k = (U ? )n , (U ? )n , · · · , (U ? )n .
NB n=1 k,1997 NB n=1 k,1997 NB n=1 k,1997
On peut également inférer des écarts-types et des intervalles de confiance sur les
nombres obtenus grâce à cette méthode si on choisit NB suffisamment grand. C’est
en effet un bon estimateur de l’espérance et de la variance de (Ūcat )k .
28
4.4 Évaluation du nombre de sinistres attendus
Maintenant qu’on a obtenu une sinistralité extrapolée, on veut évaluer la sinistralité
de l’année à venir, notée QY .
29
Chapitre 5
30
En effet, l’assuré peut souscrire trois types de couverture pour son automobile : «
Comprehensive » (assurance tous risques, comprenant aussi bien la responsabilité
civile que les dommages matériels), « Third Part Only » (assurance responsabilité
civile uniquement) et « Third Part Fire & Theft » (assurance responsabilité civile,
incendie et vol).
L’âge des assurés est donné par classes, avec des classes d’une année pour les plus
jeunes (entre 17 et 25 ans), et des classes d’âge plus ou moins larges entre 26 et 90
ans (on a ainsi 26 à 30 ans, 31 à 50 ans, 51 et plus). Il existe une classe supplémen-
taire, « any driver » pour laquelle l’assuré ne donne pas son âge (c’est le cas pour
une couverture pour une flotte de véhicules, par exemple).
Il y a différents types de véhicules assurés : « Motor Cars » (voitures individuelles),
« Light Commercial Vehicles » (fourgonnettes de commerce), « Heavy Commercial
Vehicles » (poids lourds), « Buses, coaches etc. » (bus, autocars), « Taxis, private &
public hire » (taxis, véhicules de location), « Self-drive hire vehicles », « Tankers,
hazardous » (camions-citerne, transport de matières dangereuses), « Motor cycles »
(moto), « Motor Trade Road Risks », « All others » (le reste).
Enfin, le « No Claim Bonus » est un bonus accordé aux assurés présents dans le
portefeuille en fonction de la durée depuis laquelle ils n’ont pas eu de sinistre.
Nous ne disposons malheureusement pas d’une liste détaillée avec chaque as-
suré, ses caractéristiques et son exposition annuelle. De plus, nous n’avons pas la
corrélation entre les éléments des différents tableaux. Nous avons donc conscience
de travailler avec des données incomplètes.
31
pas dans l’exposition. En comparant les données, on constate que dans plus de 90%
des cas, l’assuré et le conducteur ont même âge, et on peut faire l’hypothèse assez
réaliste que le conducteur est l’assuré.
Le nombre de sinistrés dans un même sinistre a été éliminé car les accidents faisant
intervenir plusieurs assurés peuvent devenir des événements et ne peuvent pas être
traités comme de simples sinistres individuels à ce titre.
• le sexe du conducteur ;
• la couverture choisie ;
• le type de véhicule ;
32
Distribution Lien
log
Poisson
identité
log
Normale
identité
log
identité
Gamma
inverse
carré inverse
carré inverse
identité
Inverse gaussienne
log
inverse
Toutes ces distributions ne sont pas équivalentes et vont donner des résultats
plus ou moins sévères. On observe ainsi certaines distributions qui prédiront une
sinistralité plus sévère que le résultat « avant GLM ». Inversement, d’autres seront
plus clémentes.
De plus, le développement des triangles va n’attribuer aucun sinistre à certaines
catégories, soit que leur exposition est très faible, soit qu’elles présentent, à l’obser-
vation, une sinistralité très faible voire nulle.
Dans ces cas-là, plutôt que de chercher à ajuster un zéro, nous regroupons les
catégories avec une sinistralité nulle avec la catégorie la plus proche en terme de ca-
ractéristiques, c’est-à-dire celle dont tous les paramètres sont identiques sauf un. Il
y a donc a priori plusieurs possibilités pour regrouper plusieurs catégories, mais on
garde à l’esprit le fait qu’on veut maximiser le nombre de réalisations pour conduire
ces regroupements.
Schématiquement : supposons qu’on ait :
33
certaines distributions (Gamma et inverse gaussienne) ne peuvent pas s’ajuster sur
des observations ayant une variable à expliquer nulle et les éliminent purement et
simplement lors de l’ajustement du modèle.
Distribution Lien
Poisson identité
identité
Gamma inverse
carré inverse
carré inverse
Inverse gaussienne identité
inverse
34
5.4.2 Modélisation face à deux effets
5.4.2.1 Modèle Normale – Identité
Ce modèle est en réalité mauvais, car il donne des estimations négatives ! En effet,
certains paramètres ont des valeurs négatives, et la somme de plusieurs paramètres
peut conduire à une estimation de lambda négative pour certaines catégories. Or
nous ne cherchons à obtenir strictement que des lambdas positifs : cela n’a pas de
sens de parler d’un nombre de sinistres négatif.
Par conséquent, nous décidons de ne plus utiliser ce modèle.
L’étude des résidus permet de détecter quels sont les catégories qui sont le moins
bien ajustées et essayer de comprendre quelle(s) information(s) manque(nt) pour un
meilleur ajustement.
Données réelles Le modèle Age/Sexe montre que la classe homme est mal ajus-
tée. On constate graphiquement qu’en effet, ce sont les catégories qui concernent
les hommes qui sont le moins bien expliquées.
On fait le même constat avec le modèle Sexe/Cover.
Pour le modèle Age/Cover, on constate que les polices Comp. sont mal ajustées.
Les tranches d’âge ont l’air satisfaisantes ; cependant on constate, en analysant les
paramètres, que la tranche 26/30 ans n’est pas significative (une p-value à 5% de
0.88) – on fait le même constat avec le modèle Age/Sexe (p-value de 0.56).
35
Nous pouvons comparer la déviance de chaque modèle avec la loi de Chi-carré
associée :
Effets Degrés de liberté Déviance χ2
Age | Sexe 4 4,02 3,82
Age | Cover 3 2,05 4,38
Sexe | Cover 2 4,35 3,50
Avec ce critère, on constate que les modèles Age/Sexe et Sexe/Cover ne sont pas
bien ajustés (on considère qu’on modèle est bien ajusté si la déviance est inférieure
au quantile d’ordre 1 − α de la loi de χ2 à k degrés de libertés). Seul le modèle
Age/Cover semble satisfaisant et plutôt bien ajusté.
Données simulées
Effets Degrés de liberté Déviance χ2
Age | Sexe 4 25,03 2,58
Age | Cover 3 12,56 1,17
Sexe | Cover 2 1,90 24,27
Le modèle sur données simulées ne donne donc pas les mêmes résultats que
le modèle sur données réelles. Alors qu’avec les données réelles, le « meilleur »
modèle – au sens de la déviance – était le modèle Age/Cover, ici nous constatons
que le meilleur modèle serait Sexe/Cover.
Données réelles
Effets Degrés de liberté Déviance χ2
Age | Sexe 4 2322 43,12
Age | Cover 3 2595 80,86
Sexe | Cover 2 3622 1343
36
F IGURE 5.1 – Comparaison graphique entre sinistralité avant et après GLM – Mo-
dèle Poisson Log – Effets Âge et Sexe
Données simulées
37
F IGURE 5.2 – Comparaison graphique entre sinistralité avant et après GLM – Mo-
dèle Poisson Log – Effets Âge et Couverture
38
F IGURE 5.3 – Comparaison graphique entre sinistralité avant et après GLM – Mo-
dèle Poisson Log – Effets Âge et Couverture
Résidus
39
Modèle Gamma – Log
Nous constatons dans les deux cas – données réelles ou simulées – que suivant le
critère de la déviance, ces modèles ne donnent pas de résultats satisfaisants en terme
d’ajustement.
Données réelles
Effets Degrés de liberté Déviance χ2
Age | Sexe 4 5218 642
Age | Cover 3 5762 920
Sexe | Cover 2 5035 459
Données simulées
Effets Degrés de liberté Déviance χ2
Age | Sexe 4 4972 121
Age | Cover 3 5518 62
Sexe | Cover 2 7276 2424
Ce modèle est un peu à l’opposé du précédent et présente un durcissement de
la sinistralité dans presque toutes les catégories. Ici encore, comme à chaque fois
qu’on utilise un lien log, les intervalles de confiance ne sont pas très représentatifs.
Données réelles
Effets Degrés de liberté Déviance χ2
Age | Sexe 4 5172 1099
Age | Cover 3 6301 2102
Sexe | Cover 2 4223 149
Données simulées
Effets Degrés de liberté Déviance χ2
Age | Sexe 4 5223 71
Age | Cover 3 5423 69
Sexe | Cover 2 7065 1919
40
5.4.3 Modélisation face à trois effets
Données réelles Données simulées
Modèle DF Déviance χ2 Déviance χ2
Poisson Log 1 0.33 3.7 0.76 24.27
Normale Log 1 6345 4022 6012 2294
Gamma Log 1 6528 1309 7381 2409
IGauss Log 1 6676 1504 8681 3457
Nous constatons, suivant le critère de la déviance, que nos données sont bien
plus adaptées à une étude suivant une loi de Poisson. Ce résultat n’est a priori guère
surprenant dans le cas des données simulées, car nous savions a priori que nos don-
nées suivraient une loi de Poisson, mais il « confirme » que nous pouvons considérer
que les données réelles suivent une loi de Poisson elles aussi.
5.5 Résultats
On obtient donc un résultat probant pour le cas d’une modélisation de Poisson, qui
est conforme à la structure de données.
Dans les autres cas, le modèle n’est pas convaincant et diverge facilement.
Cependant, deux défauts majeurs se sont présentés :
41
F IGURE 5.4 – Comparaison graphique entre sinistralité avant et après GLM – Mo-
dèle Poisson Log – Effets Âge, Couverture et Sexe
42
Conclusion
L’objet de ce mémoire était de déterminer s’il était possible d’utiliser une méthode
GLM pour réaliser un tarif sur un traité de réassurance. C’est donc un sujet explo-
ratoire, pour lequel la littérature est quasi inexistante.
Par la suite, nous avons étudié les variables explicatives en vue de la construc-
tion d’un modèle GLM.
La méthode proposée dans ce mémoire, basée sur l’ajustement d’un modèle linéaire
généralisé permet de contourner les limites imposées par le modèle linéaire clas-
sique et d’utiliser des distributions plus adaptées aux données (comme la distribu-
tion de Poisson) pour approcher plus justement la sinistralité d’une petite compa-
gnie et par conséquent lui proposer un tarif plus adapté à son portefeuille.
Elle donne de bons résultats a priori, mais est assez lourde à mettre en œuvre
de façon quasi automatique : il y a une grosse partie de paramétrisation à faire en
amont de l’ajustement de GLM qui dépend des données de la compagnie.
43
Ensuite, la validité du modèle utilisé se verra confirmée ou infirmée avec le
temps. Il ne faut cependant pas perdre de vue le fait que cela reste un modèle
et qu’il ne tient pas compte des risques « groupés », c’est-à-dire des événements
qui introduisent une sur-sinistralité ou des changements dans les règles légales qui
peuvent influencer la sinistralité. Dans ce dernier cas, il y a assez sûrement de
bonnes chances que le passé ne reflète plus exactement le futur.
44
Annexes
45
Annexe A
Dans cette section, nous présenterons les outils à la disposition de l’actuaire pour
analyser les données (portefeuilles et sinistres) et en extraire un modèle. Comme les
méthodes actuelles se basent sur les résultats obtenus sur base du modèle linéaire
gaussien, nous le présenterons en premier lieu, puis nous étendrons ses résultats
dans le cadre des modèles linéaires généralisés.
46
Les observations sont donc supposées suivre une fonction affine des variables ex-
plicatives avec une variance constante, fixée à σ 2 .
Même si ce modèle impose de sérieuses limitations, il reste important car bon
nombre des techniques sont applicables pour d’autres modèles qui en sont déri-
vés, comme les modèles linéaires généralisés.
Y =X ·β+ (A.2)
A.1.3.1 Estimation de β
Supposons qu’on dispose de réalisations y1 , · · · , yn des variables Y1 , · · · , Yn , la
fonction de vraisemblance associée est alors :
n
1 Y 1 t 2
L(β, σ|y) = n exp − 2 (yi − xi β)
(2π) 2 σ n i=1 2σ
1 1 t
= n exp − 2 (y − Xβ) (y − Xβ) .
(2π) 2 σ n 2σ
47
Pour simplifier le calcul, et comme la fonction logarithme est concave strictement
croissante, on utilise plutôt la log-vraisemblance :
= Y − Yb .
b
A.1.3.2 Estimation de σ
Posons H = (X t X)−1 X t .
= T r(σ 2 (I − H)) = σ 2 (n − p − 1)
48
où ωi est un poids
P associé à l’observation i, avec comme condition posée sur la
somme des ωi : ni=1 ωi = 1.
Le modèle s’écrit alors sous forme matricielle comme dans le cas précédent, à l’ex-
ception d’ : ∼ N (0, σ 2 W ) où
1/ω1 0 ··· 0
0 1/ω2 · · · 0
W = . .
.. .
.. . .. .
..
0 0 · · · 1/ωn
Avec tn−p−1,1−α/2 est le quantile d’ordre 1−α/2 associé à la loi de Student à n−p−1
degrés de libertés (n observations et p + 1 paramètres).
En effet, chaque composante β̂j de β b suit une loi normale de moyenne βj et de
2 t −1 2
variance σ (X X)jj . Si σ est connu, alors on définit l’intervalle de confiance au
niveau α pour βj par l’ensemble des ξ ∈ R tels que :
q
|β̂j − ξ| ≤ σ (X t X)−1 jj zα/2
49
la même différence entre deux personnes de 49 et 51 ans par exemple ? Si on note
x1 , · · · , xp les variables explicatives, on peut donc introduire pour ces variables des
fonctions fi telles que :
p
X
y= fi (xi ) + (A.5)
i=1
On voit bien que si toutes les fonctions fi sont affines, alors on retrouve le modèle
linéaire.
Cas d’un unique régresseur Dans ce modèle on suppose qu’on ajuste un en-
semble d’observations (xi , yi ), où xi et yi sont des variables continues. L’équation
(A.5) devient : yi = f (xi ) + i et on cherche directement la forme de f .
Il existe plusieurs techniques pour estimer f , comme par exemple la méthode de
Loess.
(ii) on calcule la distance ∆(x) séparant x de son voisin dans V(x) le plus éloigné,
i.e.
∆(x) = max |x − xi | ;
xi ∈V(x)
|x−xi |
(iii) on assigne à chaque élément de V(x) un poids ωi (x) = K ∆(x)
. La fonc-
tion K doit vérifier :
(a) K > 0 ;
(b) K(u) = 0 pour u > 1 ;
(c) K est non croissante sur [0, 1].
50
(iv) fˆ(x) est obtenue par la régression des yi sur les xi , xi ∈ V(x), à l’aide des
ajustements des moindres carrés pondérés.
Ici, on cherche à ajuster ŷi = β̂0 (xi ) + β̂1 (xi )xi . On détermine β̂0 (xi ) et β̂1 (xi ) en
minimisant : X
ωk (xi ) (yk − β0 (xi ) − β1 (xi )xk )2
k∈V
ce qui donne :
n
X
ŷi = hk (xi )yk
k=1
yi = f (xi,1 , · · · , xi,p ) + i
51
et en passant à la log vraisemblance :
n
n 2 n 1 X
L(y, f (xi )) = − log σ − log 2π + 2 (yi − f (xi ))2
2 2 2σ i=1
soit : n
X
2 2 2 2
σ L(y, f (xi )) + nσ log σ + nσ log 2π = (yi − f (xi ))2
i=1
Cette fonction objectif peut se voir comme une log-vraisemblance normale péna-
lisée : on ajoute à la log-vraisemblance (première partie de (A.7)) un terme sanc-
tionnant l’irrégularité de l’estimateur (en mesurant la concavité de f ) avant de la
maximiser.
λ
On appelle 1+λ le paramètre de lissage.
Si λ → ∞, pour que O(f ) reste finie il faut que f 00 = 0 : on retrouve une droite de
régression comme solution : le paramètre de lissage est proche de 1.
Si λ → 0, le paramètre de lissage est proche de 0 : la pénalisation disparaît et on
obtient une interpolation parfaite (si les xi sont distincts).
Définition 2. Soient une série de points ((x0 , y0 ), · · · , (xn , yn )). Un spline cubique
sk (x) est une suite de polynômes d’interpolation de degré 3 vérifiant :
(y − f )t (y − f ) + λf t Kf (A.8)
52
matrice tridiagonale de dimension (n − 2) × n définie par :
1 1 1 1
− + 0 0 ··· 0
∆1 ∆1 ∆2
∆2
1
0
∆2
− ∆12 + ∆13 1
∆3
0 ··· 0
0 1 1 1 1
0 ∆3
− ∆3
+ ∆4 ∆4
··· 0
. . . . .. ... ..
D = ..
.. .. .. . .
0 1
0 0 0 0 ···
∆n−1
0 1 1
0 0 0 0 ··· − ∆n−2 + ∆n−1
1
0 0 0 0 0 ··· ∆n−2
La solution f
c peut alors être obtenue en annulant le gradient de l’expression (A.8) :
λ
−2(y − f ) + 2λKf = 0
c = (I + λK)−1 y.
soit : f λ
Pour estimer les fj , on procède par itérations : le principe consiste, étant donnée
une première estimation fbk des fk de réestimer fj en ajustant les résidus obtenus à
(j)
partir des fk , k 6= j, aux valeurs du j ième régresseur xi,j , i.e. les ri tels que :
(j)
X
ri = yi − ĉ − fbk (xi,k ).
k6=j
53
(j)
de sorte que les résidus ri reflètent la part du comportement de la variable dépen-
dante attribuable au j ième régresseur xi,j .
(r)
Cycle : pour r = 1, 2, · · · et j = 1, · · · , p, mettre à jour f j grâce à :
d
!
b (r+1) b (r+1) b (r)
X X
f j ← H λj y − (ȳ, · · · , ȳ)t − f k − f k
k<j k>j
Arrêt : Itérer le cycle ci-dessus tant que la somme des carrés des résidus
p
!t p
!
X (r+1) X (r+1)
y − (ȳ, · · · , ȳ)t − f
b
j y − (ȳ, · · · , ȳ)t − f
b
j
j=1 j=1
décroît.
54
A.2 Les modèles linéaires généralisés (GLM)
Pendant longtemps, les actuaires se sont limités à utiliser le modèle linéaire gaus-
sien pout quantifier l’impact de variables explicatives sur les phénomènes d’intérêt
(fréquence, coût, probabilité de survenance d’événements assurés, etc.).
Cependant, la complexité des problèmes statistiques auxquels sont confrontés les
actuaires s’est accrue. En particulier, la réalité n’est pas toujours normalement dis-
tribuée. Il est alors crucial d’adopter des modèles qui prennent mieux en compte la
réalité de l’assurance que ne le fait le modèle gaussien.
Les modèles linéaires généralisés (ou Generalized Linear Models (GLM)) sont
idéalement adaptés à l’analyse de données qui ne suivent pas une loi gaussienne. Ce
type de données est fréquemment rencontré en assurance.
Ce type de modèle est utilisé depuis la fin du XXème siècle par les actuaires.
En effet, on cherche à modéliser des coûts (à valeurs dans R+ ), des nombres de
sinistres (à valeurs dans N) ou des indicatrices (à valeurs dans {0, 1}), pour lesquels
d’autres lois que la loi normale sont adaptées (exemple : une loi de Poisson pour les
nombres de sinistre, ou une loi binomiale pour une indicatrice).
La modélisation va différer des modèles linéaires gaussiens par deux aspects
importants :
55
A.2.1 Définition
Les techniques GLM s’appliquent à toute distribution faisant partie de la famille
exponentielle (Linear Exponential Family (LEF)), i.e. toute fonction de densité de
probabilité de la forme :
yθ − b(θ)
f (y|θ, φ) = exp + c(y, a(φ)) , y ∈ S (A.9)
a(φ)
où :
• S ⊂ R ou N ;
• θ est le paramètre naturel ;
• φ est le paramètre de dispersion ;
• généralement a(φ) = φ/ω, où le poids ω vaut 1 si ce sont des données indi-
viduelles et ω = k si y est la moyenne de k observations individuelles.
Certaines lois de probabilité qui se mettent sous la forme (A.9) n’ont pas de para-
mètre de dispersion (i.e. φ = 1 ; c’est notamment le cas pour la loi de Poisson) : la
prime pure ne dépend alors que de θ.
Exemple 9 (Loi de Poisson). Si on considère la loi de Poisson de paramètre λ,
P(λ), on a :
λy
f (y|λ) = exp (−λ) = exp (y ln λ − λ − ln y!)
y!
d’où on tire : θ = ln λ, a(φ) = 1, b(θ) = exp θ) = λ, c(y, φ) = c(y) =
− ln y! .
∂
Propriété 6. Le vecteur ∂θ
ln fθ (X) est centré, i.e. :
∂
E ln fθ (X) = 0.
∂θ
56
Propriété 7. Pour une variable aléatoire Y dont la densité de probabilité est de la
forme (A.9), on a :
En effet :
∂ ∂ yθ − b(θ)
ln f (y|θ, φ) = + c(y, a(φ))
∂θ ∂θ a(φ)
y − b0 (θ)
= .
a(φ)
D’où :
E [Y ] − b0 (θ)
∂
E ln f (y|θ, φ) = =0
∂θ a(φ)
et donc :
E [Y ] = b0 (θ), car a(φ) 6= 0
∂
car ce vecteur ∂θ
ln f (y|θ, φ) est centré.
On a par la suite :
" 2 # " 2 #
Y − b0 (θ)
∂ ∂
V ln f (y|θ, φ) = E ln f (y|θ, φ) =E
∂θ ∂θ a(φ)
V [Y ]
= .
a(φ)2
Or :
Z 2
∂ ∂
V ln f (y|θ, φ) = ln f (y|θ, φ) f (y|θ, φ)dy
∂θ y∈S ∂θ
Z
∂ ∂
= ln f (y|θ, φ) f (y|θ, φ)dy
y∈S ∂θ ∂θ
∂2
Z
= − 2 ln f (y|θ, φ) f (y|θ, φ)dy
−y∈S ∂θ
2
∂
= E − 2 ln f (y|θ, φ)
∂θ
00
b (θ)
= .
a(φ)
57
(i) des variables à expliquer Y1 , · · · , Yn ;
• lien identité : y = µ + et g : µ → µ ;
Y = µ +
|{z}
|{z}
composante systématique composante aléatoire
−1 t
Y = g (x β) +
58
A.2.3 Équations de vraisemblance
En pratique, les coefficients de régression β0 , · · · , βn et le paramètre de dispersion
φ sont inconnus et doivent être estimés à partir des données. On utilise l’estimateur
du maximum de vraisemblance pour déterminer β. Ayant fixé a priori une loi pour
modéliser le système, il s’agit de maximiser la log-vraisemblance :
n
X
L (θ(β)|y, φ) = ln f (yi |θi , φ)
i=1
n n
X yi θi − b(θi ) X
= + c(yi , φ).
i=1
a(φ) i=1
car a 6= 0.
i.e.
b ≈ β ? − H −1 (β ? )U (β ? )
β
d’où on en tire une relation de récurrence pour estimer β.
b Cette méthode est appelée
la méthode de Raphson-Newton et consiste à approximer l’estimateur β̂ de β par
itérations à partir du gradient et du hessien de la log-vraisemblance (premier et
second moments), à l’aide de la formule :
b (r+1) = β
β b (r) − H −1 (β
b (r) ) · U (β
b (r) )
59
A.2.5 Évaluation de la qualité d’un modèle
L’ajustement d’un modèle revient à substituer dans la pratique les valeurs obser-
vées yi par les moyennes évaluées µi , avec évidemment µi 6= yi en général. Les
écarts entre les µi et les yi peuvent avoir deux origines : soit ils sont dus au hasard,
soit le modèle a une mauvaise spécification et n’ajuste pas convenablement les don-
nées. Plusieurs statistiques permettent alors d’évaluer la qualité d’ajustement d’un
modèle.
A.2.5.1 Déviance
On note L(.|y) la vraisemblance par rapport aux observations y. Le modèle de
référence est le modèle saturé, pour lequel on a ∀i, yi = µi , c’est-à-dire que le
modèle reproduit parfaitement les données. On note la vraisemblance de ce modèle
L(y|y).
Si on note L(b
µ|y) la vraisemblance d’un modèle ajusté, on dit que le modèle décrit
bien les données lorsque L(b
µ|y) ≈ L(y|y) et, au contraire, il le décrit mal lorsque
L(bµ|y) ≪ L(y|y). On définit alors le rapport de vraisemblance Λ par
L(y|y)
Λ=
L(b
µ|y)
et la déviance réduite D par :
Une valeur élevée de D laisse penser que le modèle est de faible qualité.
La déviance non-réduite D? est donnée par D? = φD, où φ est le paramètre de
dispersion de la distribution utilisée.
60
A.2.6 Intervalle de confiance
Comme β b = xti β
b est approximativement de loi normale, η b l’est aussi. La variance
de η
b est alors donnée par :
η ] = xti Σx
V [b b i
61
de sorte que
n n p 2 Xn p
X 2 X 2
riD = sgn(yi − µi ) di = di = D.
i=1 i=1 i=1
Yi = β0 + X1 · β1 + X2 · β2 + · · · + Xp · βp
Souvent, les fonctions fj sont des éléments d’un espace de fonctions de dimension
finie et peuvent la plupart du temps être identifiées, comme dans le cas gaussien,
comme des splines de lissage approchant les données.
La technique utilisée pour estimer les fonctions fj est la même que celle utilisée
pour les modèles additifs, i.e. l’algorithme de backfitting adapté à la situation.
62
(0)
Initialisation : ĉ ← g(ȳ), f
b ← 0, j ∈ [|1, p|].
j
(k)
Cycle : pour k = 1, 2, · · · , on construit les pseudo-observations zi et on leur
(k)
associe les poids πi .
(k)
On ajuste alors les zi à c + pj=1 fj (xi,j ) à l’aide d’un modèle additif, i.e. :
P
(0) (k)
(i) on initialise ĉ ← z̄ (k) et f̂ j ← f̂ j
(ii) on réévalue
!
(k+1) X (k+1) X (k)
f̂ j ← H λj z k − (z̄ (k) , · · · , z̄ (k) )t − f̂ s − f̂ s
s<j s>j
(iii) réitérer (ii) tant que la somme des carrés des résidus décroît.
63
Annexe B
A A1 A3 A5
1 1 0 0
3 0 1 0
5 0 0 1
7 -1 -1 -1
Dans cet exemple, 7 est la valeur Intercept. Cela signifie qu’il faut ajuster trois
paramètres β1 , β3 et β5 pour représenter cette variable aléatoire.
En tout il faut donc au moins 1 + li=1 (ni − 1) paramètres pour représenter
P
le modèle, où ni est le nombre de réalisations du facteur i. Le paramètre en plus
correspond à l’intercept.
64
Enfin, pour chaque observation, SAS peut calculer une valeur prédite µ̂i =
g −1 (xti · β̂).
65
Obs AgeLevel DriverGender Cover expoQY lamb
7 31+ Male Comp 35.486 0.22371
8 17−20 Female TPO+TF 80.719 0.00126
9 17−20 Male TPO+TF 51.634 0.01029
10 21−25 Both TPO+TF 27.253 0.00871
11 26−30 Both TPO+TF 27.706 0.00857
12 31+ Female TPO+TF 175.744 0.00077
13 31+ Male TPO+TF 119.959 0.00566
14 any Both anyCov 65.781 0.00223
66
Annexe C
Glossaire
67
Notation Description Page
List
Rétention Tout coût d’un sinistre restant à la charge d’un as- 15
sureur après application d’un programme de ré-
assurance.
68
Bibliographie
[Firth et al., 1991] F IRTH, D., H INKLEY, D., R EID, N. et S NELL, E. (1991). Sta-
tistical Theory and Modelling : in Honour of Sir David Cox, FRS.
[Mack, 1994] M ACK, T. (1994). Which stochastic model is underlying the chain
ladder method ?* 1. Insurance : mathematics and economics, 15(2-3):133–138.
[Schmitter, 2004] S CHMITTER, H. (2004). The sample size needed for the calcu-
lation of a GLM tariff. ASTIN bulletin, 34(1):249–262.
69