Vous êtes sur la page 1sur 96

ACT5400 : CRÉDIBILITÉ

UGO NUGENT
Département de Mathématiques
Université du Québec à Montréal

Hiver 2019
2
Table des matières

1 Introduction à la théorie de la crédibilité 1


1.1 Origines de la théorie de la crédibilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.1 Une petite histoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Mise en situation actuarielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.1 Hétérogénéité en actuariat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.2 Experience rating . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.3 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2.4 Retour sur la petite histoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3 Rappel de notions élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.3.1 Théorèmes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.3.2 Distributions conditionnnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

2 Crédibilité américaine 15
2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2 Crédibilité complète . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.2.1 Cas général . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.2.2 Approximation par le théorème central limite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.2.3 Cas d’une somme composée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

3
4 TABLE DES MATIÈRES

2.3 Crédibilité partielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27


2.3.1 Cas général . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.3.2 Cas d’une somme composée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.4 Critiques de la crédibilité américaine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

3 Introduction à l’inférence bayésienne 37


3.1 Rappels : méthodes d’estimation fréquentistes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.2 Philosophie bayésienne vs philosophie fréquentiste . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.3 Distributions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.4 Estimation ponctuelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50

4 Crédibilité Bayésienne 53
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
4.2 Modèle d’hétérogénéité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
4.2.1 Distributions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.3 Prévision . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
4.3.1 Prime de risque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.3.2 Prime collective . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.3.3 Prime bayésienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
4.4 Calcul de la prime bayésienne à l’aide de la distribution prédictive . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
4.5 Crédibilité bayésienne linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
4.6 Lois non-conjuguées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82

5 Modèle de Jewell 85
5.1 Famille exponentielle et distributions conjuguées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
5.2 Modélisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
5.2.1 Calcul des primes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88

6 Modèle de Bühlmann 93
6.1 Notation et relations de covariance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
TABLE DES MATIÈRES 5

6.2 Modèle et prévision . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98


6.3 Approche paramétrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
6.3.1 Modélisation directe de la prime pure . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
6.3.2 Modélisation de la prime pure par la fréquence et la sévérité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
6.4 Approche non paramétrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
6.4.1 Estimation de la prime collective . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
6.4.2 Estimation de la variance intra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
6.4.3 Estimation de la variance inter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
6.4.4 Prime de crédibilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
6.5 Interprétation des résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
6.6 Bühlmann et Jewell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119

7 Modèle de Bühlmann-Straub 121


7.1 Modèle et prévision . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
7.1.1 Notation et relations de covariance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
7.1.2 Meilleure prévision linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
7.2 Approche paramétrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
7.3 Approche non paramétrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
7.3.1 Estimation de la prime collective . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
7.3.2 Estimation de la variance intra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
7.3.3 Estimation de la variance inter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
7.3.4 Données manquantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
Chapitre 1

Introduction à la théorie de la crédibilité

1.1 Origines de la théorie de la crédibilité

La définition que donne le Petit Robert du mot crédibilité, ce qui fait qu’une chose mérite d’être crue ;
caractère de ce qui est croyable.
• On accorde de la crédibilité selon différents critères
• Lien entre  crédibilité  et  probabilité 
• Émergence de l’approche bayésienne dans le monde probabiliste
1
2 CHAPITRE 1. INTRODUCTION À LA THÉORIE DE LA CRÉDIBILITÉ

1.1.1 Une petite histoire

Vers les années 1910, aux États-Unis, la multinationale General Motors et le petit constructeur indépendant
Tucker sont assurés chez l’assureur Allstate contre les accidents de travail (workers compensation), avec
quelques autres fabricants d’automobiles.
Pour déterminer la prime de chacun, un taux moyen est calculé à partir de l’expérience du groupe. Or,
la GM calcule elle-même son taux et s’aperçoit qu’il serait, année après année, inférieur à celui qu’on
lui charge et ce, grâce à une expérience meilleure que celle du groupe. Exaspérée par une telle situation,
elle demande à Allstate qu’on lui charge son propre taux, ceci sous prétexte que son nombre d’employés
important est un gage de stabilité de l’expérience entre les années, et donc crédible. L’argumentation semble
cohérente et valide, donc les actuaires de Allstate sont intuitivement d’accord pour accéder à la demande de
GM. Toutefois, au même moment, Tucker (beaucoup plus petit constructeur), calcule lui aussi l’historique
de ses primes payées et de ses indemnités reçues. Il en conclut que ce qu’il paye en moyenne est aussi
beaucoup plus élevé que ce qu’il reçoit. Voyant la demande de GM, Tucker demande donc aussi à Allstate
que seulement son historique de sinistres soit utilisé pour le calcul de ses primes.
Ainsi, cette situation amène les actuaires de Allstate à la refléxion suivante : si le nombre d’employés de
GM est clairement assez gros pour que l’on se fie à son expérience et celui de Tucker trop petit pour faire
de même, où fixera-t-on la limite entre un nombre d’employés fiable et un non fiable ? Tucker, n’aurait-il
pas été simplement chanceux, alors qu’un autre côté GM aurait montré une vraie expérience crédible ?
Cet exemple résume globalement le problème de base de la crédibilité.
1.2. MISE EN SITUATION ACTUARIELLE 3

1.2 Mise en situation actuarielle

On considère un groupe d’assurés, i.e. un sous-portefeuille du portefeuille complet, mais qui ont les mêmes
caractéristiques (ont par exemple les mêmes réponses aux questions que l’assureur pose à l’émission du
contrat).
Afin d’avoir une tarification équitable, l’assureur veut :
• Charger assez de primes pour payer les sinistres, les frais et dégager un profit ; puis
• Distribuer les primes collectées équitablement entre les assurés en fonction du risque
• Structure de tarification
• Tarification basée sur l’expérience ⇒ Théorie de la crédibilité

1.2.1 Hétérogénéité en actuariat

En pratique, toutes les lignes d’affaires (automobile, habitation, etc.) basent leur tarification sur une struc-
ture de tarification. Comme l’assureur ne peut généralement pas poser toutes les questions requises pour
bien quantifier le risque, la plupart des cellules de tarification demeurent hétérogènes 1 .
La tarification basée sur l’expérience (Experience rating) ajustera la prime en fonction de l’expérience des
assurés de ces cellules hétérogènes. (On définit une prime globale selon des hypothèses et on ajuste avec
l’observation du risque dans le temps).
1. Distribution répartie de façon inégale
4 CHAPITRE 1. INTRODUCTION À LA THÉORIE DE LA CRÉDIBILITÉ

La théorie de la crédibilité est l’ensemble des techniques utilisées par les actuaires pour déterminer la prime
d’un assuré/contrat dans un portefeuille hétérogène.

1.2.2 Experience rating

Définition 1.2.1. La tarification basée sur l’expérience vise à assigner à chaque risque sa prime juste et
équitable. Cette prime pour une période dépend exclusivement de la distribution des sinistres (inconnue)
de ce risque pour la période. (Bühlmann, 1969)
La tarification basée sur l’expérience exige un volume d’expérience important. Elle est donc principalement
utilisée en
• assurance automobile
• accidents du travail.
Elle ne peut toutefois être utilisée, par exemple, en assurance-vie (on ne meurt qu’une fois !).
1.2. MISE EN SITUATION ACTUARIELLE 5

1.2.3 Exemple

L’exemple suivant (inspiré de Norberg 1979) devrait clarifier le tout et servira de référence pour la suite. Un
portefeuille d’assurance est composé de dix contrats. Les contrats sont a priori considérés équivalents. Les
conditions suivantes prévalent :
• tout contrat ne peut avoir qu’au plus un sinistre par année ;
• le montant de ce sinistre est 1 ;
• la prime collective est 0,20, c’est-à-dire que l’assureur s’attend à ce qu’en moyenne deux assurés sur
10 aient un sinistre au cours d’une année.

Situation après une année :


Assurés
Année 1 2 3 4 5 6 7 8 9 10
1 1
• Montant de sinistre moyen par contrat = 1/10 = 0,10.
• La prime collective est peut-être trop élevée.
• Trop peu de données pour tirer une conclusion.
6 CHAPITRE 1. INTRODUCTION À LA THÉORIE DE LA CRÉDIBILITÉ

Situation après deux années :


Assurés
Année 1 2 3 4 5 6 7 8 9 10
1 1
2 1 1 1
• Montant de sinistre moyen par contrat = 4/20 = 0,20.
• La prime collective semble adéquate.
• Le contrat 9 a déjà eu deux sinistres.
1.2. MISE EN SITUATION ACTUARIELLE 7

Situation après dix années :


Assurés
Année 1 2 3 4 5 6 7 8 9 10
1 1
2 1 1 1 1
3 1 1
4 1 1
5 1
6 1
7 1 1 1 1
8 1 1 1 1
9 1 1
10 1 1 S̄
S̄i 0.6 0.3 0.2 0.2 0.2 0.1 0 0 0.7 0 0.23
• Montant de sinistre moyen par contrat = 23/100 = 0,23.
• La prime collective est raisonnablement adéquate.
• Le contrat 9, avec ses 7 sinistres, est en effet plus risqué.
• Les contrats 7, 8 et 10 n’ont eu aucun sinistre.
8 CHAPITRE 1. INTRODUCTION À LA THÉORIE DE LA CRÉDIBILITÉ

Conclusions
• La prime collective, si elle est globalement adéquate, n’est en revanche clairement pas équitable.
• Contrairement à l’hypothèse de départ de l’assureur, le portefeuille est hétérogène.
• Besoin d’une technique de tarification basée sur l’expérience (experience rating) pour adéquatement
distribuer les primes entre les assurés.

Les deux grandes écoles de pensées de la théorie de crédibilité :


1) Crédibilité américaine (de stabilité, ou classique (Limited fluctuations)) : On ne considère l’expérience
de sinistres des assurés qu’à partir d’une taille donnée. Autrement dit, l’assureur tient compte de
l’expérience individuelle seulement si celle-ci est suffisamment stable dans le temps..

2) Crédibilité de précision (ou européenne (Greatest acccuracy)) : On considère partiellement l’expérience


de sinistres de chaque assuré pour ajuster sa prime. Autrement dit, l’assureur tient compte de l’expérience
individuelle de façon à obtenir la meilleure estimation de l’expérience future. Le poids de l’expérience
individuelle augmente avec l’hétérogénéité du portefeuille.
1.2. MISE EN SITUATION ACTUARIELLE 9

1.2.4 Retour sur la petite histoire

Le principe de la crédibilité (Whitney, 1918) : La nécessité, par souci d’équité pour l’assuré, de pondérer
d’un côté l’expérience collective, et de l’autre l’expérience individuelle.

Soit la situation suivante :

1. On suppose avoir observé un contrat d’assurance durant n années ;


2. On enregistre les montants annuels de sinistre S1 , S2 , ..., Sn , avec Si étant le montant de sinistre généré
par ce contrat durant la ie année d’observation.
3. On note :

S1 + S2 + ... + Sn
Sn =
n
Voici quelques possibilités de tarification de la prime pour des assurés comme GM et Allstate :
1. Demander une prime correspondant à un montant S n :

Dans ce cas, on renoncerait à toute mutualisation du risque. De plus, que ferait-on avec les assurés qui
n’ont pas de sinistre, on les couvrirait gratuitement ?
10 CHAPITRE 1. INTRODUCTION À LA THÉORIE DE LA CRÉDIBILITÉ

2. Continuer à exiger une prime collective (notée Pcoll ou m, et pouvant provenir d’un modèle de biais
minimums, par exemple), provenant de la tarification a priori, et donc identique pour tous les assurés
ayant les mêmes caractéristiques ;

Comme nous l’avons vu dans l’exemple, cela pourrait mécontenter les assurés avec une bonne expérience
de réclamation (comme GM) qui, s’estimant lésés, risquent alors de partir à la concurence.

3. Faire un compromis entre ces deux positions extrêmes :

Ainsi, la prime exigée par la compagnie durant l’année n + 1 aurait la forme :

Primen+1 = z × S n + (1 − z) × Pcoll (1.2.1)

où z est le coefficient de crédibilité.


Le coefficient de crédibilité 0 < z < 1 mesure la crédibilité que l’on peut accorder à l’expérience de
sinistres observée S n .

Le travail des actuaires est de trouver une manière théoriquement juste de calculer z.
1.3. RAPPEL DE NOTIONS ÉLÉMENTAIRES 11

1.3 Rappel de notions élémentaires

1.3.1 Théorèmes

Théorème 1.3.1 (Théorème des probabilités totales). Soit des événements disjoints deux à deux A1 , A2 , ..., An
n
S
tels que B ⊂ Ai et P (Ai ) > 0 pour tout i, alors
i=1
X
Pr[B] = Pr[B|Ai ] Pr[Ai ]
i

Théorème 1.3.2 (Théorème de Bayes).


Pr[A ∩ B]
Pr[A|B] =
Pr[B]
Pr[B|A] Pr[A]
= P
i Pr[B|Ai ] Pr[Ai ]
12 CHAPITRE 1. INTRODUCTION À LA THÉORIE DE LA CRÉDIBILITÉ

1.3.2 Distributions conditionnnelles

De la notion de X|Y découle celle d’espérance conditionnelle de X sachant Y :

X
E[X|Y = y] = x Pr(X = x|Y = y) (cas discret)
Zx
= xf (x|y)dx (cas continu)
x

Théorème 1.3.3 (Espérance conditionnelle).


E[X] = E[E[X|Y ]]

Démonstration: À faire en classe

Théorème 1.3.4 (Variance conditionnelle).


V ar[X] = V ar[E[X|Y ]] + E[V ar[X|Y ]]

Démonstration: À faire en classe


1.3. RAPPEL DE NOTIONS ÉLÉMENTAIRES 13

Corollaire 1.3.5 (Covariance conditionnelle).


Cov[X, Y ] = Cov[E[X|Z], E[Y |Z]] + E[Cov[X, Y |Z]]
Démonstration. À faire en exercice.
14 CHAPITRE 1. INTRODUCTION À LA THÉORIE DE LA CRÉDIBILITÉ
Chapitre 2
1
Crédibilité américaine

2.1 Introduction

La situation : Déterminer si l’expérience passée est assez stable pour en tenir compte lors de la tarification.

1. La crédibilité américaine est aussi appelée crédibilité de stabilité, ou crédibilité classique.

15
16 CHAPITRE 2. CRÉDIBILITÉ AMÉRICAINE

Rappel : L’expérience passée peut s’analyser avec différentes statistiques :


Définition 2.1.1 (Fréquence). Il s’agit du nombre de sinistres observés par unité d’exposition.
#sinistres
Fréquence =
#assurés
Définition 2.1.2 (Sévérité). Il s’agit du coût moyen d’un sinistre.
Coûts totaux enregistrés
Sévérité =
#sinistres
Définition 2.1.3 (Prime pure). Il s’agit du coût moyen d’assurance par unité d’exposition.

Coûts totaux enregistrés


Prime pure =
#assurés
#sinistres Coûts totaux enregistrés
= ×
#assurés #sinistres
= Fréquence × Sévérité
2.1. INTRODUCTION 17

La théorie de la crédibilité est apparue dans le domaine des accidents du travail au début des années 1900.
Première solution : Mowbray (1914) définit une prime pure fiable (dependable) comme une prime pour
laquelle la probabilité est forte qu’elle ne diffère pas de la vraie prime par plus d’une limite arbitraire.
En termes mathématiques, on veut que
P r[(1 − k)µS ≤ S ≤ (1 + k)µS ] ≥ p,
où
— k est petit, habituellement 5 % ;
— p est près de 1, habituellement 0, 90, 0, 95 ou 0, 99 ;
— S représente l’expérience d’un contrat, sous une forme ou une autre ;
— µS est la valeur espérée de S.
Principe fondamental de la crédibilité américaine : L’expérience passée est crédible si la probabilité est
forte que la vraie sinistralité ne diffère pas de l’expérience passée de plus qu’une limite fixée arbitrairement.

On dit donc de S qu’il est un estimateur fiable de µS si la relation précédente est vérifiée pour k petit (près
de 0) et p grand (près de 1).
On voit donc que la crédibilité américaine repose sur un critère de stabilité.
18 CHAPITRE 2. CRÉDIBILITÉ AMÉRICAINE

2.2 Crédibilité complète

2.2.1 Cas général

En crédibilité complète, un contrat d’assurance est considéré crédible si son expérience est stable.
La notion de portefeuille n’est pas nécessaire pour le moment.
Intuitivement, la stabilité de l’expérience va de pair avec la taille d’un contrat, qu’elle soit exprimée en
termes de
— volume de prime ;
— masse salariale ;
— nombre d’employés ;
— nombre de sinistres ;
— nombre d’années d’expérience ;
— etc.
De plus, la taille du contrat est généralement liée à la fréquence des sinistres, et non à la sévérité de ceux-ci.
Définition 2.2.1 (Crédibilité complète). Une crédibilité complète d’ordre (k, p) est attribuée à l’expérience
S d’un contrat si les paramètres de la distribution de S sont tels que la relation

Pr[(1 − k)µS ≤ S ≤ (1 + k)µS ] ≥ p

est vérifiée.
2.2. CRÉDIBILITÉ COMPLÈTE 19

Exemple 2.2.2. On suppose que S ∼ U nif orme(100, a).


Trouvez la condition sur a pour laquelle une crédibilité complète d’ordre (K = 0.1, p = 0.90) est possible.
Démonstration: À faire en classe

Exemple 2.2.3. On suppose que S ∼ Normal(µS , σS2 ).


Trouvez la condition sur µS et σS2 pour laquelle une crédibilité complète d’ordre (k, p) est possible.
Démonstration: À faire en classe

Exemple 2.2.4. On suppose que S ∼ Normal(µS , σS2 ). Quelles est la condition sur µS et σS2 pour que S ait
une crédibilité complète d’ordre (k = 0, 05, p = 0.9).
Démonstration: À faire en classe
20 CHAPITRE 2. CRÉDIBILITÉ AMÉRICAINE

2.2.2 Approximation par le théorème central limite

La variable aléatoire S est l’expérience d’un contrat sous une forme ou une autre (nombre de sinistres,
montant total des réclamations dans une année), elle représente donc la somme de l’expérience de plusieurs
risques. Par le Théorème central limite,

S − µS
p −→ N (0, 1)
σS2

lorsque le nombre de termes dans la somme S augmente.

Proposition 2.2.5. En utilisant le théorème central limite, la relation de la définition 2.2.1 est équivalente

kµS
≥ Z 1+p ,
σS 2

où Zα est le 100(α)e centile d’une loi normale centrée réduite


(i.e Zα est tel que Φ(Zα ) = α, où Φ(.) est la fonction de répartition d’une N(0, 1)).

Démonstration. Ceci correspond au résultat obtenu à l’exemple 2.2.3.


2.2. CRÉDIBILITÉ COMPLÈTE 21

2.2.3 Cas d’une somme composée

Un modèle de somme composée s’exprime de la manière suivante :


S = X1 + X2 + ... + XN
N
X
= Xi
i=1

où les Xi sont i.i.d. et indépendants de N .

Notation : E[S] = µS et V ar[S] = σS2 .

Le v.a. S peut représenter deux phénomènes :


1. L’expérience de sinistre d’un seul assuré, ayant N sinistres dans l’année ;
2. L’expérience de sinistre d’un portefeuille d’assurance, où la compagnie d’assurance subit N sinistres
dans l’année.
22 CHAPITRE 2. CRÉDIBILITÉ AMÉRICAINE

Proposition 2.2.6. Un modèle à somme composée a les moments suivants :

µS = µN µX
σS2 = µ2X σN
2 2
+ σX µN
Démonstration: À faire en classe

Exemple 2.2.7. Le cas le plus simple de somme composée s’obtient lorsque N ∼ P oisson(λ). Ce modèle
est appelé Poisson Composé et est noté S ∼ P C(λ). Dans ce cas, montrez que les deux premiers moments
sont :

E[S] = λE[X]
V ar[S] = λE[X 2 ]
Démonstration. À faire en exercice
2.2. CRÉDIBILITÉ COMPLÈTE 23

La prochaine proposition donne un critère, basé sur la fréquence attendue des sinistres dans un contrat
d’assurance, qui permet d’octroyer la crédibilité complète à l’expérience de sinistre de ce contrat.
Proposition 2.2.8 (Critère de crédibilité complète pour la prime pure). Si S est une somme composée, alors
le critère de crédibilité complète d’ordre (k, p) pour la prime pure est :
 2 2

σ σ
λScc = λ0 N + X
µN µ2X
Z 1+p 2
 
où λ0 = k
2

Interprétation : λScc est le nombre minimal de sinistres requis pour qualifier l’expérience de pleinement
crédible.
Démonstration: À faire en classe

Proposition 2.2.9. Si S ∼ P C(λ), alors le critère de crédibilité complète d’ordre (k, p) est :
2
 
S σX
λcc = λ0 1 + 2
µX
Démonstration: À faire en classe
24 CHAPITRE 2. CRÉDIBILITÉ AMÉRICAINE

Exemple 2.2.10. On suppose que la S suit une somme composée, avec N ∼ P oisson(λ) et Xi ∼ Exponentiel(β).
Trouvez λcc d’ordre (k = 0.05, p = 0.95).
Démonstration: À faire en classe

Interprétation : On suppose que le coût total d’un portefeuille d’assurance suit une somme composée où
le nombre de réclamations suit une loi de Poisson, et le coût des réclamations une loi exponentielle. Dans
ce cas, le nombre minimal de réclamations dans le portefeuille requis pour obtenir une crédibilité complète
(i.e. afin de s’assurer avec une probabilité p = 0.95 que l’expérience de sinistre ne varie pas de plus de
(k = 5%) autour de la moyenne) est de 3073.
2.2. CRÉDIBILITÉ COMPLÈTE 25

Proposition 2.2.11 (Critère de crédibilité complète pour la fréquence). On suppose que la S suit une somme
composée, avec N une variable aléatoire non dégénérée représentant la fréquence et une sévérité constante,
i.e. Xi = x ∀i, où x ∈ R+ (ainsi, nous n’avons qu’un modèle de fréquence). Montrez que le critère de
crédibilité pour la fréquence, λN
cc , est donné par
2
σN
λN
cc = λ0
µN
Démonstration: À faire en classe

Proposition 2.2.12. On suppose que la S suit une somme composée. Si N ∼ Poisson(λ), alors le critère de
crédibilité pour la fréquence est donné par λN
cc = λ0
Proposition 2.2.13 (Critère de crédibilité complète pour la sévérité). On suppose que la S suit une somme
composée, avec X une variable aléatoire non dégénérée représentant la sévérité et une fréquence constante,
i.e. N = n, où n ∈ N+ (ainsi, nous n’avons qu’un modèle de sévérité). Montrez que le critère de crédibilité
pour la sévérité, λX
cc , est donné par
2
X σX
λcc = λ0 2
µX
Démonstration: À faire en classe
26 CHAPITRE 2. CRÉDIBILITÉ AMÉRICAINE

Proposition 2.2.14. Le critère de crédibilité pour une somme composée peut s’exprimer comme la somme
des critères de la fréquence et de la sévérité :

2 2
 
σN σX
λScc = λ0 +
µN µ2X
σ2 σ2
= λ0 N + λ0 X
µN µ2X
= λN X
cc + λcc
2.3. CRÉDIBILITÉ PARTIELLE 27

2.3 Crédibilité partielle

2.3.1 Cas général

Observations :
— On comprend qu’une expérience de sinistre ne soit pas pleinement crédible s’il y a peu de sinistres ;
— Il y a trop de chances que l’expérience observée varie substantiellement ;
— Toutefois, il semble exagéré de ne donner aucune crédibilité a une expérience de sinistres étant seule-
ment légèrement inférieur au critère de crédibilité complète. Adopter une telle stratégie serait cer-
tainement néfaste pour une compagnie qui risquerait alors de perdre des bons risques au profit de
compétiteurs.
28 CHAPITRE 2. CRÉDIBILITÉ AMÉRICAINE

Il convient donc de déterminer un certain coefficient z qu’on pourrait utiliser pour pondérer entre l’expérience
individuelle S et l’expérience collective µS . Autrement dit, afin de limiter les fluctuations autour de la
moyenne, on devrait charger une prime π telle que
π = zS + (1 − z)µS

On appelle z le coefficient de crédibilité.


Afin de respecter un critère de stabilité, on souhaitera maintenant que

Pr[(1 − k)µS < zS + (1 − z)µS < (1 + k)µS ] ≥ p

Le coefficient de crédibilité maximal que l’on pourra accorder à l’expérience correspond à la valeur maxi-
male de z telle que l’inégalité précédente est respectée
Exemple 2.3.1. On suppose que S ∼ U nif orme(100, 150). Trouvez la crédibilité d’ordre (k = 0.1, p =
0.90) qui peut être accordée à S.
Démonstration: À faire en classe

Exemple 2.3.2. On suppose que S ∼ U nif orme(100, 150). Sachant que l’on a observé une expérience
égale à 107$ la première année, calculer la prime à charger à l’année 2 en utilisant (k = 0.1, p = 0.90).
2.3. CRÉDIBILITÉ PARTIELLE 29

Démonstration: À faire en classe

Exemple 2.3.3. Trouvez la crédibilité d’ordre (k, p) qui peut être accordée à S lorsque S ∼ Normal(µS , σS2 ).
30 CHAPITRE 2. CRÉDIBILITÉ AMÉRICAINE

Démonstration. Le développement mathématique reste le même :

Pr[(1 − k)µS < zS + (1 − z)µS < (1 + k)µS ] ≥ p


Pr[(z − k)µS < zS < (z + k)µS ] ≥ p
Pr[−kµS < z(S − µS ) < kµS ] ≥ p
−kµS S − µS kµS
Pr[ < < ] ≥ p
zσS σS zσS

S−µS
Ainsi, σS est N ormal(0, 1). En conséquence, pour l’inégalité précédente soit valide :

kµS
≥ Z 1+p
zσS 2

kµS
⇒z ≤
Z 1+p σS
2
 
k µS
=
Z 1+p σS
s2
µ2S
=
λ0 σS2
2.3. CRÉDIBILITÉ PARTIELLE 31

2.3.2 Cas d’une somme composée

Nous pouvons retourner au cas de la somme composée, où l’approximation par la loi normale sera utilisée.
Proposition 2.3.4. Dans le cas où S est une somme composée, le coefficient de crédibilité est alors :
r 
µN
z = min ,1
λScc
Démonstration: À faire en classe

Proposition 2.3.5. Dans le cas où la somme composée est construite à base de la loi de Poisson, i.e.
S ∼ P C(λ), le coefficient de crédibilité est alors :
s !
λ
z = min ,1
λScc
32 CHAPITRE 2. CRÉDIBILITÉ AMÉRICAINE

Proposition 2.3.6 (Critère de crédibilité partielle pour la fréquence). On suppose que la S suit une somme
composée, avec N une variable aléatoire non dégénérée représentant la fréquence et une sévérité constante,
i.e. Xi = x ∀i, où x ∈ R+ .
Le critère de crédibilité partielle pour la fréquence, zN , est donné par
r 
µN
zN = min ,1
λN
cc

Démonstration. A faire en exercice.


Proposition 2.3.7 (Critère de crédibilité partielle pour la sévérité). On suppose que la S suit une somme
composée, avec X une variable aléatoire non dégénérée représentant la sévérité et une fréquence constante,
i.e. N = n, où n ∈ N+ .
Le critère de crédibilité partielle pour la sévérité, zX , est donné par
r 
n
zX = min ,1
λXcc

Démonstration. A faire en exercice.


2.3. CRÉDIBILITÉ PARTIELLE 33

Exemple 2.3.8. On suppose :


— N ∼ P oisson(λ) et Xi ∼ Gamma(5, β).
— En moyenne, on observe que pour un groupe de 5000 assurés, il y a un sinistre par 20 personnes.
Trouvez le coefficient d’ordre (k = 0.05, p = 0.9) accordé à l’expérience du groupe.
Démonstration: À faire en classe

Exemple 2.3.9. On suppose :


— N ∼ P oisson(λ) et Xi ∼ Exponentiel(β).
— Le coefficient de crédibilité d’ordre (k = 0.05, p = 0.9) est de 0.7 pour la fréquence seulement.
Trouvez le coefficient de crédibilité pour le montant total en tenant compte de la sévérité.
Démonstration: À faire en classe
34 CHAPITRE 2. CRÉDIBILITÉ AMÉRICAINE

Afin d’obtenir une prime d’assurance, un complément de crédibilité (1−α)µautre doit être ajouté à l’expérience
de sinistre crédibilisé αS. Historiquement, la prime d’assurance Pc = αS + (1 − α)Pcoll , avec Pcoll
représentant la prime collective, est utilisée.
Exemple 2.3.10. Dans un modèle Poisson composé, E[N ] = 725, Xi ∼ Gamma(100000; 20) et la prime
pure pour la population totale est de 105$ par unité d’exposition. Si la prime pure moyenne de la dernière
année a été de 90$, calculez la prime de crédibilité d’ordre (k = 0.05; p = 0.95) pour l’année suivante.
Démonstration: À faire en classe
2.4. CRITIQUES DE LA CRÉDIBILITÉ AMÉRICAINE 35

2.4 Critiques de la crédibilité américaine

Avantages :
— Modèle très simple d’utilisation pour l’analyste ;
— Ne requiert l’utilisation de pratiquement aucun logiciel ou système informatique (peu cher à implan-
ter) ;
— Facile à expliquer à des non-actuaires.
Désavantages :
— Très peu d’applications sont possibles en pratique car les critères de crédibilité sont très élevés (ne
pourrait s’appliquer que pour des grands groupes d’assurance) ;
— On se base sur des valeurs arbitraires de k et de p ;
— La forme π = zS + (1 − z)µS n’a aucune base théorique ;
— Difficile d’intégrer des variables de tarification dans les calculs ;
— Méthode de calcul dépassée avec très peu d’intérêt scientifique.
36 CHAPITRE 2. CRÉDIBILITÉ AMÉRICAINE
Chapitre 3

Introduction à l’inférence bayésienne

3.1 Rappels : méthodes d’estimation fréquentistes

La situation : On souhaite estimer un vecteur de paramètres inconnus θ = (θ1 , θ2 , ..., θp ) d’une distribution
f (x|θ).

On a les données d’un échantion x = (x1 , x2 , ..., xn ) et on suppose que chaque observation xi est issue de
la distribution f (x|θ) et que les xi sont indépendants. Dans le cours STT1000, deux méthodes d’estimation
de l’école dite fréquentiste ont été étudiées : la méthode des moments et la méthode du maximum de
vraisemblance.
37
38 CHAPITRE 3. INTRODUCTION À L’INFÉRENCE BAYÉSIENNE

2 1 − 12 ( x−µ )
2
Exemple 3.1.1. Estimer θ = (µ, σ ) dans f (x|θ) = √ e σ à l’aide de la méthode des moments.
2πσ
Démonstration. Les deux paramètres µ et σ 2 peuvent s’exprimer comme des fonctions des moments de X :
µ = m1 = E[X] et σ 2 = m2 − m21 = E[X 2 ] − E[X]2
L’idée est de bâtir des estimateurs à partir des moments empiriques :
2
µ̂ = m̂1 = n1 ni=1 xi σ̂ 2 = m̂2 − m̂1 2 = n1 ni=1 x2i −
P P 1
Pn
et n i=1 xi
3.1. RAPPELS : MÉTHODES D’ESTIMATION FRÉQUENTISTES 39

2 1 − 21 ( x−µ )
2
Exemple 3.1.2. Estimer θ = (µ, σ ) dans f (x|θ) = √ e σ à l’aide de la méthode du maximum
2πσ
de vraisemblance.
Démonstration. Les estimateurs µ̂ et σ̂ 2 sont les valeurs de µ et σ 2 qui maximisent la fonction de vraisem-
blance L(θ|x). Ici, on a que
1 Pn x −µ 2
− i=1 12 ( iσ )
L(θ|x) = √ e
( 2πσ)n
Afin de simplifier les calculs, on maximise plutôt la fonction de logvraisemblance : on la dérive d’une part
par rapport µ et en égalant la dérivée à 0 : l’estimateur µ̂ est obtenu en résolvant cette équation. On procède
de même pour obtenir σ̂ 2 . (on peut vérifier qu’à ces valeurs on obtient bien un maximum de la fonction de
logvraisemblance). On obtient alors que :
Pn
(xi − µ̂)2
µ̂ = n1 ni=1 xi σ̂ 2 = i=1
P
et
n
40 CHAPITRE 3. INTRODUCTION À L’INFÉRENCE BAYÉSIENNE

3.2 Philosophie bayésienne vs philosophie fréquentiste

Supposons, comme dans les exemples précédents, que nous souhaitons estimer le paramètre inconnu θ
d’une distribution continue avec fonction de densité f (x|θ) (une loi normale avec moyenne inconnue θ et
variance connue σ 2 , par exemple) à partir d’un échantillon aléatoire X1 , . . . , Xn .

Les statisticiens fréquentistes ou classiques définissent la notion de probabilité comme la fréquence limite
de survenance d’un événement (e.g. 1 fois sur 1000). Pour eux, les paramètres comme θ sont toujours fixes,
et donc déterministes. Ils développeront des estimateurs à partir d’un critère objectif quelconque : absence
de biais, maximum de vraisemblance, etc. On remarque que l’analyste ne pose aucune hypothèse à priori
sur la valeur de θ. On laisse parler les données.
Pour inférer sur un paramètre θ, le statisticien fréquentiste devra se référer à une population à partir de
laquelle les observations auraient été échantillonnées. Il obtiendra par exemple un intervalle de confiance
comme celui-ci :
P (a < θ < b) = 95%
Comme on l’a dit, θ est considéré comme fixe. On ne dira pas (surtout pas !) qu’il y a 95% de chance que le
paramètre soit compris entre a et b. Pour un fréquentiste, soit le paramètre s’y trouve, soit il ne s’y trouve
pas. On dit plutôt que l’intervalle (a, b) a 95% de chance de contenir la vraie valeur de θ, c’est-à-dire que
95% des échantillons construits à partir de la population étudiée donnerons des intervalles qui contiendront
la vraie valeur de θ.
3.2. PHILOSOPHIE BAYÉSIENNE VS PHILOSOPHIE FRÉQUENTISTE 41

Dans l’approche bayésienne, on définit une probabilité comme une mesure de la plausabilité de surve-
nance d’un événement (un peu comme l’humain est instinctivement porté à le faire dans son quotidien). Le
bayésien traitera plutôt les paramètres de manière probabiliste et inférera de manière directe en se rapportant
à une situation à laquelle il est confronté. On parlera donc ici réellement d’intervalle de probabilité :
P (a < Θ < b|X = x) = 95%
, où Θ est une variable aléatoire possédant une réalisation fixe θi pour chaque individu i.
L’opinion à priori du statisticien sur la variable aléatoire Θ a une importance en analyse bayésienne, puis-
qu’on doit lui assigner une densité u(θ). Au fur et à mesure que les données de l’échantillon aléatoire
(l’information) s’accumulent, l’analyste améliore son opinion et, par conséquent, révise la distribution de
la variable aléatoire Θ en calculant sa densité à postériori u(θ|x1 , . . . , xn ) à l’aide de la régle de Bayes.
42 CHAPITRE 3. INTRODUCTION À L’INFÉRENCE BAYÉSIENNE

L’exemple suivant aidera à concrétiser l’approche bayésienne.

Exemple 3.2.1. Supposons que l’on propose un modèle probabiliste exprimant le nombre d’accidents qui
ont lieu dans un quartier sur un laps de temps donné. Plus précisément, on pourrait considérer une loi de
Poisson :

e−λ λk
P (X = k) = , k = 0, 1, 2, ...
k!

où λ correspond au nombre moyen d’accidents par jour.

Une étude approfondie des données historiques suggère que P (λ = 1) = 0, 6 et que P (λ = 2) = 0, 4 (ceci
constitue l’opinion à priori sur λ).

Une nouvelle configuration du réseau routier entraı̂ne possiblement une réévaluation des estimés. Suppo-
sons que, pour une journée donnée, on observe 3 accidents. Comment peut-on réviser la distribution de
λ?
3.2. PHILOSOPHIE BAYÉSIENNE VS PHILOSOPHIE FRÉQUENTISTE 43

En utilisant le théorème de Bayes :


P (λ = 1)P (k = 3|λ = 1)
P (λ = 1|k = 3) =
P (λ = 1)P (k = 3|λ = 1) + P (λ = 2)P (k = 3|λ = 2)
e−1 13
0.6
= 3!
−1 3
e 1 e−2 23
0.6 + 0.4
3! 3!
= 0.3376
De même, on trouve P (λ = 2|k = 3) = 0.6624.

On pourrait alors être tenté de modifier les hypothèses provenant de l’étude historique.
1
Un dernier exemple est présenté afin d’illustrer les concepts présentés dans cette section.

1. tiré des notes de cours de Maxime Laroque, chargé de cours à l’UQÀM


44 CHAPITRE 3. INTRODUCTION À L’INFÉRENCE BAYÉSIENNE

Exemple 3.2.2. Charlie termine tout juste son premier cours de statistique. Provenant d’une famille nom-
breuse, il n’arrive tout simplement pas à croire que sa mère ait pu avoir 9 garçons sur un total de 10
enfants. En effet, au niveau des naissances, les sexes sont globalement répartis de manière équitable (ou
presque). De manière tout à fait fréquentiste, il calcule la valeur-p d’un tel événement :
valeur-p = P [Bin(n = 10, θ = 0.5) ≥ 9] ≈ 1%
Puisque la valeur-p est inférieure à 5%, il conclut que le hasard ne saurait expliquer une si grande disparité
au niveau de la proportion des garçons engendrés par sa mère. Il se met alors à s’inquiéter : peut-être que
sa mère est malade ?
3.3. DISTRIBUTIONS 45

3.3 Distributions

La théorie bayésienne fait usage de différentes distributions que voici.

Définition 3.3.1. La distribution conditionnelle f (x|θ) (aussi appelé le modèle) est la distribution de
l’échantillon de données X connaissant la valeur du paramètre θ. On suppose que θ est issu d’une variable
aléatoire Θ. On fait l’hypothèse que les observations X = (X1 , X2 , ...Xn ) sont indépendantes condition-
nellement à Θ = θ, i.e. on peut écrire :

f (x|θ) = f (x1 , x2 , ...xn |θ)


= Πni=1 f (xi |θ)

Définition 3.3.2. La distribution à priori u(θ) est la distribution de probabilité de la variable aléatoire Θ.
Elle représente l’opinion de l’analyste et est supposée lors de la construction du modèle.

Définition 3.3.3. La distribution conjointe f (x, θ) est donnée par :

f (x, θ) = f (x|θ)u(θ)
46 CHAPITRE 3. INTRODUCTION À L’INFÉRENCE BAYÉSIENNE

Définition 3.3.4. La distribution marginale de x est donnée par :


Z
f (x) = f (x|θ)u(θ)dθ

Définition 3.3.5. La distribution à posteriori u(θ|x) est la densité conditionnelle de la variable aléatoire
Θ sachant les données de l’échantillon X = x.

Définition 3.3.6. La distribution prédictive f (y|x) est la densité conditionnelle d’une nouvelle observation
y sachant les données de l’échantillon X = x.

Proposition 3.3.7. La distribution à postériori est donnée par :


f (x|θ)u(θ)
u(θ|x) =
f (x)
et la distribution prédictive est donnée par :
Z
f (y|x) = f (y|θ)u(θ|x)d(θ)

Démonstration. La démonstrastion sera effectuée au chapitre suivant.


3.3. DISTRIBUTIONS 47

Exemple 3.3.8. Soit X le montant associé aux frais hospitaliers suite à un accident du travail dans une
usine de métallurgie de la région de Pittsburgh. La fonction de densité de X dépend d’un paramètre θ
inconnu :
θλθ
f (x|θ) = θ+1 ,
x
où la valeur de λ est connue. On suppose de plus que Θ ∼ gamma(α = 2, τ = 1). On a trois observations :
X1 = x1 , X2 = x2 , X3 = x3 . On souhaite estimer la valeur du paramètre inconnu θ. Déterminer :
(a) le modèle
(b) la distribution à priori
(c) la distribution conjointe
(d) la distribution marginale
(e) la distribution à postériori
(f) la distribution prédictive
Démonstration: À faire en classe
48 CHAPITRE 3. INTRODUCTION À L’INFÉRENCE BAYÉSIENNE

Exemple 3.3.9. On a le modèle : X|Θ = θ ∼ Poisson(θ) et on suppose que Θ ∼ gamma(α, τ ). On a n = 1


observation : X1 = x. On souhaite estimer la valeur du paramètre inconnu θ. Déterminer les différentes
distributions dans un contexte d’inférence bayésienne.
Démonstration: À faire en classe

Exemple 3.3.10. Dans le contexte de l’exemple 3.3.9, déterminer l’espérance à postériori E[Θ|X] et
l’espérance prédictive E[Y |X].
Démonstration: À faire en classe
3.3. DISTRIBUTIONS 49

Définition 3.3.11. La loi a priori u(θ) est conjuguée à la distribution conditionnelle f (x|θ) si la loi a
posteriori u(θ|x) est de la même forme que u(θ). Par même forme, on entend que les deux fonction de
densité correspondent à la même loi où seuls les paramètres sont différents.

D’après ce qu’on a obtenu dans l’exemple 3.3.9, on en conclut que la densité gamma est conjuguée au
modèle Poisson. Dans l’exemple 3.3.8, la densité gamma était aussi conjuguée au modèle f (x|θ).
En général, le fait de travailler avec une loi à priori conjuguée facilite les calculs.
50 CHAPITRE 3. INTRODUCTION À L’INFÉRENCE BAYÉSIENNE

3.4 Estimation ponctuelle

On voit maintenant bases de l’estimation ponctuelle en inférence bayésienne.

Définition 3.4.1. Soit θ̂ un estimateur de θ basé sur un échantillon X. Une fonction de perte L(θ̂, θ) est
une fonction telle que L(θ̂, θ) ≥ 0 et L(θ, θ) = 0

La fonction de perte représente ce que l’on perd comme information en substituant θ̂ pour θ.
Voici des exemples de fonctions de perte :
— L(θ̂, θ) = (θ̂ − θ)2 (perte quadratique)
— L(θ̂, θ) = |θ̂ − θ| (perte absolue)
0, si θ̂ = θ
— L(θ̂, θ) = (perte 0-1)
1, sinon

Définition 3.4.2. Soit L(θ̂, θ) une fonction de perte associée à θ et u(θ|x) la densité a postériori de la
variable aléatoire Θ. On définit le risque R(θ̂, θ, u(θ|x)) associé à θ̂ comme
h i
R(θ̂, θ, u(θ|x)) = E L(θ̂, θ)
Z
= L(θ̂, θ)u(θ|x)dθ
3.4. ESTIMATION PONCTUELLE 51

On remarque que l’espérance est calculée avec la densité à postériori de Θ, i.e. en incorporant l’information
obtenue des données de l’échantillon.

Définition 3.4.3. L’estimateur bayésien θ̂ est celui qui minimise le risque R(θ̂, θ, u).

Proposition 3.4.4. Pour la perte quadratique, l’estimateur bayésien est θ̂ = E[Θ|X], i.e. l’espérance de la
densité à postériori u(θ|x).
Démonstration: À faire en classe

Proposition 3.4.5. Pour la perte absolue, l’estimateur bayésien θ̂ est la médiane de la densité à postériori
u(θ|x).
Démonstration: À faire en classe

Exemple 3.4.6. Déterminer l’estimateur bayésien des exemples 3.3.8 et 3.3.9 pour les fonctions de perte
quadratique et absolue.
52 CHAPITRE 3. INTRODUCTION À L’INFÉRENCE BAYÉSIENNE
Chapitre 4

Crédibilité Bayésienne

Ce chapitre constitue une porte d’entrée vers la crédibilité de précision. Il est très important pour la suite
puisque les bases sur lesquelles on construira les modèles de crédibilité y seront posées, notamment le
modèle d’hétérogénéité.
Avant d’aller plus loin, rappelons que l’objectif poursuivi consiste à établir une tarification optimale pour
un regroupement (ou portefeuille) hétérogène de contrats d’assurance. Par optimale, on entend que la
tarification est la plus précise pour chaque contrat du regroupement.
L’approche purement bayésienne explorée dans ce chapitre est plutôt théorique. On constatera que la no-
tion de regroupement de contrats y joue un rôle très mineur, dans la mesure où l’on peut effectuer toute
notre modélisation sans vraiment y faire référence. Le portefeuille devient incontournable lorsque l’on doit
estimer certaines quantités à partir de données. Cette approche empirique ne sera toutefois abordée qu’au
53
54 CHAPITRE 4. CRÉDIBILITÉ BAYÉSIENNE

chapitre suivant.

4.1 Introduction

Tel qu’en témoigne le titre du chapitre, les méthodes bayésiennes seront utilisées pour déterminer la prime
prédictive, c’est à dire la prime provenant d’une tarification a posteriori d’un assuré ayant un historique de
sinistres.

Exemple 4.1.1. Soient 2 urnes A et B. L’urne A contient 10 balles numérotées de 1 à 10. L’urne B, 5 balles
numérotées de 1 à 5. On sélectionne une urne au hasard dans laquelle on fait plusieurs tirages avec remise.
Premier tirage, c’est un 3.
Déterminer :

(a) la probabilité que la bille provienne de l’urne A.


(b) la valeur espérée d’un tirage (espérance a priori) ;
(c) la valeur espérée d’un prochain tirage, conditionnellement au fait qu’il sera fait dans la même urne que
celle où a été pigé le 3 (espérance a posteriori).

Démonstration: À faire en classe


4.1. INTRODUCTION 55

Remarques :
1. Si on connaissait l’urne pigée au hasard initialement, tous les tirages seraient indépendants.
2. L’exemple peut se transposer facilement à l’assurance, où l’urne correspond à un profil d’assuré (bon
ou mauvais) et le nombre pigé au nombre de sinistres déclarés.
3. Le fait d’avoir obtenu un 3 au premier tirage ne modifie pas la manière dont seront effectués les tirages,
mais donne une idée de l’identité de l’urne.
56 CHAPITRE 4. CRÉDIBILITÉ BAYÉSIENNE

Exemple 4.1.2. Supposons :


— Nt est le nombre de sinistres réclamés par un assuré pour l’année t ;
— Il existe deux types de risques au sein de la population : 60 % de bons conducteurs et 40 % de mauvais ;
— On ne sait pas àquelle catégorie appartient un assuré sélectionné au hasard.
0, si le conducteur sélectionné est bon
— On définit X =
1, sinon
— On a les modèles :

λk0
Pr[Nt = k|X = 0] = exp(−λ0 ) avec λ0 = 0.05
k!
λk1
Pr[Nt = k|X = 1] = exp(−λ1 ) avec λ1 = 0.15
k!
Calculer :
(a) L’espérance a priori ;
(b) L’espérance prédictive au temps t = 2, si notre assuré a réclamé k sinistres au cours de la 1ère année.

Démonstration: À faire en classe


4.1. INTRODUCTION 57

Remarque : En pratique, la population ne se divise pas seulement en bons ou mauvais conducteurs, mais en
une multitude de catégories qu’on ne peut déterminer. Ces catégories sont ce que l’on nomme hétérogénéité.

Modélisation : Dans le cours, on rend compte de l’hétérogénéité en introduisant un effet aléatoire Θ (par
exemple, le fait d’être un bon ou un mauvais conducteur, ou encore que les tirages viennent de l’urne A ou
B). Θ représente le niveau de risque inconnu de l’assuré.
Exemple 4.1.3. On peut séparer un portefeuille en une infinité de types d’assurés en introduisant un pa-
ramètre d’hétérogénéité continu, comme dans la modélisation suivante :
— Le nombre de sinistres, conditionnellement à Θ = θ, obéit à une loi de P oisson(θ) ;
— Θ ∼ Gamma(α, τ )
Il s’agit tout simplement de l’exemple précédent, appliqué sur une infinité de profils, ce qui correspond
beaucoup plus à la pratique. Il est ainsi possible de déterminer une prime d’assurance en fonction de l’his-
torique de perte. Nous ferons les calculs dans les prochaines sections.
58 CHAPITRE 4. CRÉDIBILITÉ BAYÉSIENNE

4.2 Modèle d’hétérogénéité

Cette section introduit le modèle que nous utiliserons dorénavant en crédibilité de précision. Établi par
Buhlmann en 1967, ce modèle permet de décrire remarquablement bien la situation à laquelle nous sommes
confrontés, à savoir que nous avons regroupé des contrats d’assurance aux caractéristiques semblables, mais
que subsiste dans le groupe de l’hétérogénéité dans les niveaux de risque. C’est cette hétérogénéité qui exige
que nous ayons recours à l’expérience des contrats pour établir une tarification juste et équitable.
Ainsi, nous avons un portefeuille (groupe) hétérogène de I contrats. Le niveau de risque du contrat i =
1, . . . , I est inconnu, mais des données Si1 , . . . , Sin sont disponibles pour fins de tarification (i.e. on a accès
à une expérience de sinistres sur n périodes).
L’élément clé dans notre modèle est le suivant : nous posons l’existence d’une variable aléatoire Θi qui
représente le niveau de risque du contrat i. Cette variable aléatoire est bien évidemment non observable —
il n’y aurait pas de problème de tarification autrement — et nous supposons qu’elle demeure constante dans
le temps. En d’autres termes, la variable aléatoire Θi constitue la synthèse de tous les facteurs de risque
associé au contrat i que nous ne savons prendre en compte par ailleurs dans la structure de classification.
La fonction de densité (ou de masse) de la variable aléatoire Θ est u(θ) .
4.2. MODÈLE D’HÉTÉROGÉNÉITÉ 59

Nous posons les hypothèses suivantes pour compléter notre modèle d’hétérogénéité.

1. Les observations du contrat i sont conditionnellement indépendantes et identiquement distribuées avec


fonction de densité f (x|θi ).
2. Les variables aléatoires Θ1 , . . . , ΘI sont identiquement distribuées avec fonction de densité u(θ).
3. Les contrats sont indépendants.

La première hypothèse dicte que les sinistres d’un contrat sont indépendants et identiquement distribués
seulement lorsque nous connaissons le niveau de risque de ce contrat. Autrement, les sinistres sont dépendants.
C’est là un phénomène dit de contagion apparente. La figure 4.2.1 illustre ce phénomène. Dans le graphique
de gauche, les sinistres d’un contrat, représentés par des points, sont tous supérieurs à la moyenne du por-
tefeuille, représentée par la ligne horizontale. On y constate de la dépendance. Pourtant, lorsque la ligne
représente plutôt, comme dans le graphique de droite, la moyenne (normalement inconnue) du contrat,
nous constatons que les sinistres fluctuent simplement aléatoirement autour de leur moyenne.

La deuxième hypothèse indique que les contrats sont différents (chacun son niveau de risque), mais suf-
fisamment similaires (les niveaux de risque proviennent tous du même processus) pour justifier de les re-
grouper

La troisième hypothèse est assez standard : elle établit que le dossier d’un contrat n’a pas d’influence sur
celui des autres contrats.
60 CHAPITRE 4. CRÉDIBILITÉ BAYÉSIENNE

F IGURE 4.2.1 – Illustration du phénomène de contagion apparente. À gauche, la ligne horizontale représente la moyenne du groupe. À droite, la ligne
représente le niveau de risque du contrat.
4.2. MODÈLE D’HÉTÉROGÉNÉITÉ 61

4.2.1 Distributions

Dans le contexte bayésien, nous rappelons les distributions qui seront utilisées et la notation associée.
1. Avant l’utilisation de l’historique de sinistre d’un assuré :
(a) La distribution conditionnelle de Si,t |Θi est le modèle noté f (x|θi ) pour lequel nous souhaitons
estimer θi .
Elle correspond à distribution de la sinistralité Si,t , sachant le paramètre de risque Θi = θi .
(b) La distribution a priori de Θ, notée u(θ).
Elle correspond à distribution du paramètre de risque Θ.
(c) La distribution marginale de Si,t , notée f (x).
Elle correspond à distribution de la sinistralité Si,t , lorsque le paramètre de risque θi a été introduit
dans le modèle. Cette distribution doit être calculée en utilisant la distribution conditionnelle de
Si,t |Θi et la distribution a priori de Θ :

Z
f (x) = f (x|θ)u(θ)dθ
Θ
62 CHAPITRE 4. CRÉDIBILITÉ BAYÉSIENNE

2. Après l’utilisation de l’historique de sinistre d’un assuré :


Lorsque des réalisations (années d’expérience en assurance, tirages pour les urnes, etc.) passées sont
dévoilées, il est possible de mettre à jour les distributions précédentes.
(a) La distribution a posteriori de Θi , sachant Si,1 = xi,1 , Si,2 = xi,2 , ..., Si,n = xi,n , notée u(θi |xi1 , xi2 , ...xin ).
Elle correspond à la mise-à-jour de la distribution a priori de Θ suite à l’observation de n périodes
d’expérience.
(b) La distribution prédictive de Si,t , sachant Si,1 = xi,1 , Si,2 = xi,2 , ..., Si,n = xi,n , notée f (x|xi1 , xi2 , ...xin ).
Elle correspond à la mise-à-jour de la distribution marginale de Si,t suite à l’observation de n
périodes d’expérience.
4.3. PRÉVISION 63

4.3 Prévision

Tel que mentionné en introduction du chapitre, notre but en crédibilité de précision consiste à calculer la
meilleure prime (pure) pour chacun des contrats de notre regroupement. D’un point de vue actuariel,

cette prime est le montant espéré des sinistres d’un contrat quelconque, éventuellement en tenant compte
des observations des années précédentes. D’un point de vue statistique, la prime peut aussi s’interpréter
comme la prévision du montant total des sinistres de la prochaine année.
Dans la suite, nous considérerons que la meilleure prime (ou prévision) est celle qui minimise l’erreur
quadratique moyenne, i.e nous ferons de l’inférence bayésienne en utilisant la fonction de perte quadratique.
Nous définissons trois primes : la prime de risque, la prime collective et la prime bayésienne. Elles diffèrent
par la quantité d’information dont nous disposons sur les contrats.
64 CHAPITRE 4. CRÉDIBILITÉ BAYÉSIENNE

4.3.1 Prime de risque

Si le niveau de risque du contrat i est connu, alors la meilleure prévision de ses sinistres futurs est l’espérance
µ(θi ) = E[Sit |Θi = θi ] (4.3.1)
Cette fonction est appelée la prime de risque.
La prime de risque serait la prime idéale à charger. Cependant, le niveau de risque θi et, donc, la prime de
risque sont inconnus. Dès lors, prévoir le niveau des sinistres de la prochaine période, Si,n+1 , et prévoir la
prime de risque µ(θi ) deviennent des problèmes équivalents. Ainsi, µ(θi ) doit être vue comme une variable
aléatoire.

4.3.2 Prime collective

Nous cherchons à estimer — ou prévoir — la prime de risque. Comme première approximation, nous
pouvons utiliser la moyenne pondérée de toutes les primes de risque :
Z ∞
m = E[µ(Θi )] = µ(θ)u(θ) dθ. (4.3.2)
−∞
Cette approximation sera la même pour tous les contrats ; c’est la prime collective.
On remarque que m = E[µ(Θi )] = E[E[Sit |Θi ]] = E[Sit ]. La prime collective est donc aussi égale au
montant espéré des sinistres dans le portefeuille.
4.3. PRÉVISION 65

4.3.3 Prime bayésienne

Comme nous l’avons vu au chapitre 1, la prime collective ci-dessus est globalement adéquate, mais elle
n’est pas nécessairement équitable ou optimale. Nous ne pouvons établir ce fait qu’à partir du moment
où des données de sinistres deviennent disponibles. En termes statistiques, cela signifie qu’il existe une
meilleure approximation des primes de risque dans ces circonstances.
La meilleure approximation (ou estimation, ou prévision) de la prime de risque µ(θi ) est la fonction
g ∗ (xi1 , . . . , xin ) des observations xi1 , . . . , xin du contrat i qui minimise l’erreur quadratique moyenne
E[(µ(Θi ) − g(xi1 , . . . , xin ))2 ],
où g() est une fonction quelconque.
Nous avons montré au chapitre précédent que
g ∗ (xi1 , . . . , xin ) = E[µ(Θi )|xi1 , . . . , xin ].
Nous nommerons cette espérance la prime bayésienne :
Z ∞
Bi,n+1 = E[µ(Θi )|Si1 = xi1 , . . . , Sin = xin ] = µ(θ)u(θ|xi1 , . . . , xin ) dθ. (4.3.3)
−∞

La prime bayésienne est la meilleure prévision de Si,n+1 que l’on puisse calculer.
66 CHAPITRE 4. CRÉDIBILITÉ BAYÉSIENNE

Ci-dessus, u(θ|xi1 , . . . , xin ) est la distribution à postériori des niveaux de risque, suite à l’observation de
l’expérience Si1 = xi1 , . . . , Sin = xin . Or, par le théorème de Bayes et étant donné l’indépendance condi-
tionnelle des observations,
f (xi1 , . . . , xin |θi )u(θi )
u(θi |xi1 , . . . , xin ) = R ∞ dθ
−∞ f (x i1 , . . . , x in |θ)u(θ)
Qn
t=1 f (xit |θi )u(θi )
= R∞ Q n
−∞ t=1 f (xit |θ)u(θ) dθ
Y n
∝ u(θi ) f (xit |θi ).
t=1

Comme la prime collective, la prime bayésienne est une moyenne pondérée des primes de risque, sauf que
cette dernière utilise la distribution à postériori de Θ plutôt que la distribution à priori. En effet, comparez
les deux équations ci-dessous :
Z ∞
m= µ(θ)u(θ) dθ
−∞
Z ∞
Bi,n+1 = µ(θ)u(θ|xi1 , . . . , xin ) dθ.
−∞

Dans cette optique, nous pouvons interpréter la prime collective comme la prime bayésienne de première
année, lorsque aucune expérience n’est disponible.
4.3. PRÉVISION 67

Remarques :
1. Puisque les montants de sinistres apparaissent seulement sous forme de produit dans le modèle
n
Y
f (xi1 , . . . , xin |θi ) = f (xit |θi ),
t=1

leur ordre ne joue aucun rôle dans les calculs.


2. Dans la suite, nous n’allons considérer qu’un seul contrat et, par conséquent, nous laisserons tomber
l’indice i dans la notation. En effet, dans l’approche entièrement paramétrique adoptée dans ce chapitre,
le portefeuille de contrats ne joue aucun rôle concret.
Exemple 4.3.1. Reprenons l’exemple 4.1.2 des bons et mauvais conducteurs. Calculer :
(a) la prime de risque ;
(b) la prime collective ;
(c) la prime à charger à un nouvel assuré ;
(d) la prime bayésienne au temps t = 3 si un assuré a subi des pertes S1 = 1 et S2 = 3.
Démonstration: À faire en classe
68 CHAPITRE 4. CRÉDIBILITÉ BAYÉSIENNE

4.4 Calcul de la prime bayésienne à l’aide de la distribution prédictive

Cette section introduit une manière alternative de calculer la prime bayésienne. Nous avons déjà effleuré
l’idée à la section 4.3.2 lorsque nous avons présenté la prime collective à la fois comme la moyenne des
primes de risque ou comme le montant espéré des sinistres :
m = E[µ(Θ)] = E[Sit ].
De manière similaire, nous pouvons démontrer que
Bi,n+1 = E[µ(Θ)|Si1 = x1 , . . . , Sin = xn ] = E[Si,n+1 |Si1 = x1 , . . . , Sin = xn ]. (4.4.1)
La distribution de la variable aléatoire Sn+1 |S1 = x1 , . . . , Sn = xn avec fonction de densité de probabilité
f (x|x1 , . . . , xn ) est appelée la distribution prédictive de la variable aléatoire Sn+1 .
Théorème 4.4.1. La fonction de densité de probabilité de la distribution prédictive de Sn+1 est
Z ∞
f (x|x1 , . . . , xn ) = f (x|θ)u(θ|x1 , . . . , xn ) dθ.
−∞

Démonstration: À faire en classe


4.4. CALCUL DE LA PRIME BAYÉSIENNE À L’AIDE DE LA DISTRIBUTION PRÉDICTIVE 69

Remarque : Puisque la fonction de densité de probabilité de la distribution marginale de la variable


aléatoire St est Z ∞
f (x) = f (x|θ)u(θ) dθ,
−∞
alors la seule différence entre l’expression de f (x) et celle de f (x|x1 , . . . , xn ) réside dans l’utilisation de la
distribution à priori de Θ pour la première et de la distribution à postériori pour la seconde.
La conséquence de la remarque précédente, c’est que si la distribution à posteriori de Θ est du même type
que la distribution à priori (i.e. elles sont conjuguées pour le modèle étudié), alors la distribution prédictive
est du même type que la distribution marginale, avec les paramètres mis à jour.
Nous avons posé la relation 4.4.1 de manière quelque peu intuitive. Démontrons maintenant qu’elle est
vraie.
Proposition 4.4.2. La prime bayésienne peut se calculer comme l’espérance prédictive de Si,n+1 , i.e.
Bi,n+1 = E[µ(Θ)|Si1 = x1 , . . . , Sin = xn ] = E[Si,n+1 |Si1 = x1 , . . . , Sin = xn ].
Démonstration: À faire en classe

Avec cette approche, la prime collective et la prime bayésienne s’interprètent toutes deux comme le montant
moyen des sinistres dans le portefeuille, mais avec des pondérations différentes.
70 CHAPITRE 4. CRÉDIBILITÉ BAYÉSIENNE

Exemple 4.4.3. (Bernouilli-Beta)


Supposons : St |Θ ∼ Bernoulli(Θ), avec Θ ∼ Beta(α, β) :

f [x|θ] = θst (1 − θ)1−x x = 0, 1


Γ(α + β) α−1
u(θ) = θ (1 − θ)β−1 0<θ<1
Γ(α)Γ(β)
Calculer les diverses primes pour un tel modèle.
Démonstration: À faire en classe
4.4. CALCUL DE LA PRIME BAYÉSIENNE À L’AIDE DE LA DISTRIBUTION PRÉDICTIVE 71

Exemple 4.4.4. (Poisson-Gamma - BN1)


Supposons : St |Θ ∼ P oisson(Θ), avec Θ ∼ Gamma(α, τ ). Ainsi :

θx e−θ
f (x|θ) = x = 0, 1, 2, 3, ...
x!
τ α α−1 −τ θ
u(θ) = θ e θ>0
Γ(α)
Calculer les diverses primes pour un tel modèle.
Démonstration: À faire en classe
72 CHAPITRE 4. CRÉDIBILITÉ BAYÉSIENNE

Exemple 4.4.5. On suppose que St |Θ ∼ P oisson(Θ), avec Θ ∼ Gamma(α = 0.6, τ = 4) : Déterminer


la prime prédictive au temps t = 7 de l’assuré s’il a eu les primes a priori et l’expérience de sinistre
suivantes :
Années Prime a priori Sinistres réclamés
1 0.15 0
2 0.15 1
3 0.15 0
4 0.15 4
5 0.15 0
6 0.15 1
7 0.15 ?

Démonstration: À faire en classe


4.4. CALCUL DE LA PRIME BAYÉSIENNE À L’AIDE DE LA DISTRIBUTION PRÉDICTIVE 73

Exemple 4.4.6. (Poisson-Gamma - BN2)


Supposons : St |Θ ∼ P oisson(λit Θi ), avec Θ ∼ Gamma(α, α) ∀i :

(λit θi )x e−λit θi
f (x|θi ) = x = 0, 1, 2, 3, ...
x!
α
α
u(θ) = θα−1 e−αθ θ>0
Γ(α)
Observations concernant ce modèle :
1. Ce n’est pas le paramètre λit qui est aléatoire, mais un facteur multiplicatif Θi (qui a une moyenne de
1) ;
2. La moyenne du modèle au temps t est de λit Θi ;
3. La variable aléatoire Θ est plus intuitive puisqu’elle le niveau de risque inconnu (E[θ] = α/α = 1),
de sorte que si Θi < 1, alors l’assuré i est un meilleur conducteur que la moyenne, et vice versa.
4. L’assuré i a une prime a priori λit pour l’année t.
5. On suppose une tarification a priori à chaque année (on peut avoir différentes valeurs de λit pour
différentes valeurs de t) ;
6. Deux assurés n’ont pas nécessairement la même prime a priori (on peut avoir différentes valeurs de λit
pour différentes valeurs de i) ;
74 CHAPITRE 4. CRÉDIBILITÉ BAYÉSIENNE

Calculez les diverses primes pour un tel modèle.


Démonstration: À faire en classe

Exemple 4.4.7. On suppose une hétérogénéité Gamma avec paramètres (α = 2, α = 2). Déterminer
la prime prédictive au temps t = 7 de l’assuré s’il a eu les primes a priori et l’expérience de sinistre
suivantes :
Années Prime a priori Sinistres réclamés
1 0.150 0
2 0.175 1
3 0.250 0
4 0.250 4
5 0.100 0
6 0.122 1
7 0.144 ?

Démonstration: À faire en classe


4.5. CRÉDIBILITÉ BAYÉSIENNE LINÉAIRE 75

4.5 Crédibilité bayésienne linéaire

Les primes de la forme


πn+1 = z S̄ + (1 − z)m,
Pn
t=1 xt
où 0 ≤ z ≤ 1, S̄ = et m est la prime collective, jouent un rôle fondamental en théorie de la
n
crédibilité. Nous les appelons primes de crédibilité et z est le facteur de crédibilité.
Il s’avère que pour certains des modèles étudiés précédemment, la prime bayésienne peut s’écrire sous cette
forme. Lorsque c’est le cas, on parle d’un modèle de crédibilité bayésienne linéaire (car la prime bayésienne
est une combinaison linéaire de l’expérience moyenne et de la prime collective).
Exemple 4.5.1. Montrer que le modèle Bernoulli-bêta de l’exemple 4.4.3 est un modèle de crédibilité
bayésienne linéaire.
Démonstration: À faire en classe

Exemple 4.5.2. Montrer que le modèle Poisson-gamma de l’exemple 4.4.4 est un modèle de crédibilité
bayésienne linéaire.
Démonstration: À faire en classe
76 CHAPITRE 4. CRÉDIBILITÉ BAYÉSIENNE

Ces résultats sont très séduisants sous plusieurs aspects. Premièrement, la prime bayésienne est linéaire, ce
qui est à la fois simple à calculer et facile à interpréter. Ensuite, puisque 0 < z < 1 pour n > 0, la prime
bayésienne se trouve être une combinaison convexe de S̄ et m. Elle se situe donc toujours entre l’expérience
individuelle d’un contrat (S̄) et la prime collective (m). D’un point de vue actuariel, il s’agit d’une propriété
importante. Imaginez seulement, si ce n’était pas le cas, devoir expliquer à un client dont l’expérience est
pire que la moyenne que vous devez non seulement lui charger plus que la prime collective, mais aussi plus
que sa propre expérience !
Nous avons déjà identifié deux combinaisons de distributions pour lesquelles la prime bayésienne peut
s’écrire comme une prime de crédibilité. Il y a au moins ces cinq combinaisons de distributions qui résultent
en une prime bayésienne linéaire :

1. S|Θ = θ ∼ Poisson(θ) et Θ ∼ Gamma(α, τ ) ;


2. S|Θ = θ ∼ Exponentielle(θ) et Θ ∼ Gamma(α, τ ) ;
3. S|Θ = θ ∼ Normale(θ, σ22 ) et Θ ∼ Normale(µ, σ12 ) ;
4. S|Θ = θ ∼ Bernoulli(θ) et Θ ∼ Bêta(a, b) ;
5. S|Θ = θ ∼ Géométrique(θ) et Θ ∼ Bêta(a, b).

Nous présentons un dernier exemple en crébilité bayésienne linéaire.


4.5. CRÉDIBILITÉ BAYÉSIENNE LINÉAIRE 77

Exemple 4.5.3. (Normale/normale) Soit


St |Θ ∼ Normale(Θ, σ22 )
Θ ∼ Normale(µ, σ12 ).
La prime de risque, la variance conditionnelle et la prime collective sont :
µ(Θ) = Θ
σ 2 (Θ) = σ22 (constante)

et

m = E[Θ] = µ.
Trouver la distribution à postériori n’est toutefois pas une sinécure. Tout d’abord,
2
Pn
/2σ12 − 2
/2σ22
u(θ|x1 , . . . , xn ) ∝ e−(θ−µ) e t=1 (xt −θ) .
En développant l’exposant tout en laissant de côté tous les termes non fonction de θ, nous obtenons
" n
#
2 2
1 θ − 2θµ X −2θxt + θ
Exposant = − 2 + 2 + cte
2 σ1 t=1
σ 2
2θµ −2θ nt=1 xt
   P 
1 2 1 n
=− θ + − 2 − + cte
2 σ12 σ22 σ1 σ22
78 CHAPITRE 4. CRÉDIBILITÉ BAYÉSIENNE

 " 2
Pn 2
#
1 1 n 2θµ/σ1 −2θ t=1 xt /σ2
=− + 2 θ2 − 1 n − + cte
2
2 σ1 σ 2 ( σ2 + σ2 ) ( σ12 + σn2 )
| {z } 1 2 1 2

φ
  2
Pn 2
 
1 µ/σ 1 + x t /σ 2
= − φ θ2 − 2θ t=1
+ cte
2 φ
  Pn 2
µ t=1 xt
1 θ − φσ12 + φσ22
=− + cte.
2 1/φ

Par conséquent,
Θ|S1 = x1 , . . . , Sn = xn ∼ Normale(µ̃, σ̃12 )

avec
1
σ̃12 =
φ
σ12 σ22
= 2
σ2 + nσ12
σ12
= 2 2 < σ12
1 + nσ1 /σ2
4.5. CRÉDIBILITÉ BAYÉSIENNE LINÉAIRE 79

et
Pn
µ t=1 xt
µ̃ = +
φσ12 φσ22
µσ22 + σ12 nt=1 xt
P
= .
σ22 + nσ12
La distribution marginale de S est plus aisée à trouver à l’aide des fonctions génératrice des moments. En
effet,
MS (t) = E[E[etS |Θ]]
2 2
= E[eΘt+σ2 t /2 ]
2 2
= eσ2 t /2 E eΘt
 
2 2
/2 µt+σ12 t2 /2
= eσ2 t e
µt+(σ12 +σ22 )t2 /2
=e
et donc
S ∼ Normale(µ, σ12 + σ22 ).
Puisque la distribution à postériori de Θ est du même type que la distribution à priori, nous pouvons
immédiatement conclure que
Sn+1 |S1 , . . . , Sn ∼ Normale(µ̃, σ̃12 + σ̃22 ).
80 CHAPITRE 4. CRÉDIBILITÉ BAYÉSIENNE

La prime bayésienne est donc, en utilisant indifféremment l’approche de la distribution à postériori ou celle
de la prédictive,
Bn+1 = µ̃
nσ12 σ22
= S̄ + 2 µ
nσ12 + σ22 nσ1 + σ22
= z S̄ + (1 − z)m

où
n
z= .
n + σ22 /σ12
4.5. CRÉDIBILITÉ BAYÉSIENNE LINÉAIRE 81

Remarques :
— En analyse bayésienne, si u(θ|x1 , ..., xn ) appartient à la même famille que u(θ), on dit de u(θ) et
u(x|θ) (les distributions mixantes) qu’elles sont des conjuguées naturelles.
— Dans les cas spéciaux où la combinaison des distributions mixantes résultent en une prime de crédibilité,
les lois Poisson, exponentielle, normale, Bernoulli et géométrique appartiennent toutes à la famille ex-
ponentielle, c’est-à-dire leur fonction de densité (ou de probabilité) peut s’écrire sous la forme :
p(x)e−θx
f (x|θ) = .
q(θ)
— Les modèles bayésiens et les distributions mixantes ne sont évidemment pas toujours des conjuguées
naturelles, et ne résultent par conséquent pas toujours en une prime bayésienne linéaire (voir la section
suivante). Ces modèles ne représentent pas moins bien la réalité mais seront toutefois beaucoup plus
difficiles à manipuler en engendrant des résultats ne pouvant pas être résolus analytiquement. Leur
résolution fera souvent intervenir des méthodes numériques, en ayant recours à divers logiciels de
calculs numériques.
82 CHAPITRE 4. CRÉDIBILITÉ BAYÉSIENNE

4.6 Lois non-conjuguées

Il arrive souvent que certaines personnes se questionnent, et cela est justifiable, sur les choix des distribu-
tions mixantes. Par exemple, nous avions le modèle Poisson-Gamma, d’où vient le choix d’une mixante
gamma ?

Pourquoi ne peut-on pas utiliser un Poisson(θ) avec Θ ∼ N ormale(a, b2 ) ?

⇒ Parce que le paramètre de moyenne de la loi de Poisson doit être positif et une normale a une probabilité
non-nulle d’être négative.

On pourrait toutefois utiliser d’autres modèles :


Exemple 4.6.1. Supposons : St |Θ = θ ∼ P oisson(θ), avec Θ = exp() et  ∼ N ormal(0, b2 ) :

θx e−θ exp()x e− exp()


f (x|θ] = =
x! x!
1 1   2
u() = √ exp(− )
2πσ 2 σ
Trouvez la prime collective et la prime bayésienne.
4.6. LOIS NON-CONJUGUÉES 83

Démonstration: À faire en classe

Dans l’exemple précédent, on ne peut procéder de manière analytique pour déterminer la prime bayésienne.
Pour y arriver, il faudrait passer par une méthode numérique, par exemple procéder par simulation.
Démonstration: À faire en classe
84 CHAPITRE 4. CRÉDIBILITÉ BAYÉSIENNE
Chapitre 5

Modèle de Jewell

Contexte : Il est possible d’obtenir des formules générales en crédibilité bayésienne si la distribution condi-
tionnelle et la loi a priori u(θ) sont conjuguées et que la distribution conditionnelle fait partie de la famille
exponentielle.

5.1 Famille exponentielle et distributions conjuguées

Définition 5.1.1 (Distributions conjuguées). La loi a priori u(θ) est conjuguée à la distribution condition-
nelle f (x|θ) si la loi a posteriori u(θ|x) est de la même forme que u(θ). Par même forme, on entend que les
deux fonction de densité correspondent à la même loi où seuls les paramètres sont différents.
Exemple 5.1.2. Modèle St |θ ∼ P oisson(θ) et θ ∼ Gamma(α, β).
85
86 CHAPITRE 5. MODÈLE DE JEWELL

Démonstration: À faire en classe

Définition 5.1.3 (Famille exponentielle). Soit :


(
exp[p(θ)A(x) + B(x) + q(θ)] si x ∈ [a, b]
f (x|θ) = ,
0 ailleurs
On dit alors que f (x|θ) est un membre de la famille exponentielle des fonctions de densités de type continu
(de type discret si x prend des valeurs dénombrables, i.e. x ∈ {x1 , x2 , ...}).
Remarque : Si A(x) = x, alors f (x|θ) appartient à la famille exponentielle linéaire.
Exemple 5.1.4. Modèle St |θ ∼ P oisson(θ).
Démonstration: À faire en classe

5.2 Modélisation

Idée : Développer une formule de crédibilité bayésienne générale pour les modèle avec lois conjuguées.
5.2. MODÉLISATION 87

Notations :
1. La forme de la densité conditionnelle de St est la suivante (famille exponentielle linéaire) :

a(st ) exp(−θst )
f (st |θ) = exp (−θst + ln(a(st )) − ln(c(θ))) =
c(θ)
où c(θ) peut être vue comme une constante de normalisation, et donc :
Z
c(θ) = a(st ) exp(−θst )dst
D
2. La forme de la distribution a priori de θ est la suivante :

c(θ)−T0 exp(−θx0 )
g(θ) =
d(T0 , x0 )
Note : c(θ) est le même que celui observé dans la densité conditionnelle
3. La distribution a posteriori de θ est la suivante :
Démonstration: À faire en classe
88 CHAPITRE 5. MODÈLE DE JEWELL

5.2.1 Calcul des primes

1. Prime de risque :

µ(θ) = E[St |θ]


Z
a(st ) exp(−θst )
= st dst
c(θ)
RD
st a(st ) exp(−θst )dst
= RD
D a(st ) exp(−θst )dst
−c0 (θ) δ
= = ln c(θ)
c(θ) δθ
car :

Z Z
δ δ
a(st ) exp(−θst )dst = a(st ) exp(−θst )dst
δθ D ZD δθ
= −st a(st ) exp(−θst )dst
D

2. Prime collective :
5.2. MODÉLISATION 89

Z
E[µ(θ)] = µ(θ)g(θ)dθ

c(θ)−T0 exp(−θx0 )
Z
= µ(θ) dθ
Dθ d(T0 , x0 )
c0 (θ) c(θ)−T0 exp(−θx0 )
Z
= − dθ
Dθ c(θ) d(T0 , x0 )
−1
Z
= c0 (θ)c(θ)−T0 −1 exp(−θx0 )dθ
d(T0 , x0 ) Dθ

on doit ici intégrer par parties.

u = exp(−θx0 )
du = −x0 exp(−θx0 )dθ
dv = c0 (θ)c(θ)−T0 −1 dθ
[c(θ)]−T0
v = −
T0
90 CHAPITRE 5. MODÈLE DE JEWELL

" #
−T0
−1
Z
[c(θ)] x0
E[µ(θ)] = exp(−θx0 ) − [c(θ)]−T0 exp(−θx0 )dθ

d(T0 , x0 ) T0 Dθ T0



 
−1 x0
= k(θ; T0 , x0 ) − d(T0 , x0 )
d(T0 , x0 ) T0
x0
=
T0
car on suppose que k(θ; T0 , x0 ) = 0, ce qui est le cas dans la majorité des situations. Les cas où 6= 0
sont en dehors du cadre de ce cours.
3. Prime bayésienne :
Démonstration: À faire en classe

Exemple 5.2.1. Modèle Exponentielle - Gamma.


Démonstration: À faire en classe

Exemple 5.2.2. Modèle Poisson(θ) - Gamma(α, τ ) (NB1).


5.2. MODÉLISATION 91

Démonstration: À faire en classe

Exemple 5.2.3. Modèle Poisson(λi,t θ) - Gamma(α, α) (NB2).


Démonstration: À faire en classe

Vous aimerez peut-être aussi