Vous êtes sur la page 1sur 109

Universit Claude Bernard Lyon 1

INSTITUT DE SCIENCE FINANCIERE ET D'ASSURANCES

Mmoire prsent
devant lInstitut de Science Financire et dAssurances
pour lobtention du diplme dActuaire de lUniversit de Lyon
le 2 juillet 2012
Par :

Alexis RENAUDIN

Titre: Modle de capital conomique pour le risque oprationnel bancaire :


estimation, diversification

Confidentialit : x NON

OUI (Dure : 1 an

Membre du jury de lInstitut des Actuaires


M. Frderic PLANCHET

2 ans)

Entreprise :
Crdit Agricole S.A.

Membres du jury I.S.F.A.

Directeur de mmoire en entreprise :

M.

Jean Claude AUGROS

Vincent LEHERISSE

M.

Alexis BIENVENE

M.

Areski COUSIN

Mme

Diana DOROBANTU

Mme

Anne EYRAUD-LOISEL

M.

Nicolas LEBOISNE

M.

Stphane LOISEL

Autorisation de mise en ligne sur

Mlle

Esterina MASIELLO

un site de diffusion de documents

Mme

Vronique MAUME-DESCHAMPS

actuariels (aprs expiration de

M.

Frdric PLANCHET

lventuel dlai de confidentialit)

M.

Franois QUITTARD-PINON

Mme

Batrice REY-FOURNIER

M.

Pierre RIBEREAU

M.

Christian-Yann ROBERT

M.

Didier RULLIERE

M.

Pierre THEROND

Secrtariat
Mme

Invit :

Signature du responsable entreprise

Signature du candidat

Marie-Claude MOUCHON

Bibliothque :
Mme

Michle SONNIER
50 Avenue Tony Garnier
69366 Lyon Cedex 07

Modle de capital conomique pour le risque


oprationnel bancaire : estimation, diversification
A LEXIS R ENAUDIN
ISFA, 2012

Rsum
Depuis la rglementation Ble II, les banques ont lobligation de mobiliser une partie de leurs fonds
propres en couverture de leur risque oprationnel. Pour autant, aucune mthode nest impose par le
rgulateur pour quantifier ce capital ; chaque tablissement financier peut alors choisir entre une approche standard (calcul forfaitaire) et une approche avance, sous rserve de validation. Lapproche
avance adapte au risque oprationnel les techniques de Value At Risk (VaR) en vigueur pour les
risques de march : le calcul de charge en capital correspond ainsi au quantile 99,9% de la perte
agrge annuelle thorique. Pour un groupe bancaire constitu de plusieurs entits, cette approche
avance comporte deux grandes tapes. Tout dabord le calcul de la charge en capital pour une entit considre : il faut pour cela estimer la frquence et la svrit des pertes oprationnelles, et
dterminer le quantile appropri de la distribution de la perte annuelle rsultante. Vient ensuite la
question dagrger les charges en capital ainsi dtermines pour obtenir un capital pour lensemble
du groupe avec un ventuel bnfice de diversification ainsi que dallouer ce capital entre les diffrentes entits en tenant compte de leur dpendance. Dans ce contexte, lestimation de la svrit
du risque oprationnel, lagrgation de ces risques dpendants, mais aussi lallocation de ce capital
diffrentes entits dun mme groupe bancaire soulvent diffrentes problmatiques qui seront identifies et traites dans ce mmoire, avec les outils mathmatiques associs. Nous prsentons ainsi dans
une premire partie les objectifs de ltude ainsi que le contexte rglementaire associ au risque oprationnel. Nous tudions ensuite en dtails ltape destimation de la svrit des pertes et proposons
une mthode destimation plus adapte aux spcificits du risque oprationnel que les mthodes statistiques classiques, en vue dobtenir un calcul de charge en capital prcis et cohrent. Enfin, nous
voyons dans la dernire partie comment agrger et allouer les diffrentes charges en capital calcules, en tenant compte de la dpendance entre entits dun mme groupe bancaire, afin dobtenir une
valeur de capital conomique. Nous proposons notamment pour cela une mthodologie base sur la
thorie mathmatique des copules, ainsi que des illustrations numriques pour le groupe Crdit Agricole.
Mots-cls : risque oprationnel, Ble II, maximum de vraisemblance, mthode des moments gnralise, statistiques de test, distance quantile, agrgation des risques, dpendance, copules, capital
conomique, ICAAP.

Abstract
Operational Risk is now an important quantitative topic in the banking world as a result of the Basel II
regulatory requirements. Through the Advanced Measurement Approach (AMA), banks are permitted significant flexibility over the approaches that may be used in the development of operational
risk models. The most popular is the Loss Distribution Approach, which is derived from an actuarial
frequency-severity model and the capital requirement is computed from the 99.9% quantile of the
theoretical aggregate loss distribution. There are two main steps in this model for a financial institution constituted of several legal entities. First is the computation of the capital charge for a specific
entity, which involves estimating the frequency and the severity of the operational losses. Then comes
the matter of aggregating these different capital charges to derive an economic capital at Group level with a potential diversification benefit and allocating it back to the different entities. In this
context, the severity estimation of operational risk, the aggregation of dependent risk types and their
allocation are important topics that will be identified and challenged in this actuarial thesis. We will
also present the associated mathematical and actuarial concepts, as well as a numerical application
on the Credit Agricole Group data.
Key words : operational risk, Basel II, maximum likelihood estimation, minimum distance, generalized method of moments, goodness of-fit statistics, quantile distance, risk aggregation, dependance
modeling, copulas, economic capital, ICAAP.

Remerciements
Mes premiers remerciements vont Vincent LEHRISS, mon matre de stage et JeanPhilippe MARY, qui ont su me guider tout au long de ma prsence au Crdit Agricole. Leur
disponibilit et leurs conseils ont t prcieux pour mener mon mmoire son terme.
Je remercie vivement M. Sylvain DELON pour mavoir accueilli dans son service et de
mavoir permis de prparer le diplme dactuaire lISFA travers un contrat dalternance.
Enfin, je tiens remercier lensemble des membres du GRO (ingnieurs et stagiaires)
pour leur accueil et leur sympathie. Il est particulirement agrable de travailler dans un
service o rgne une ambiance aussi chaleureuse.

Sommaire
Remerciements

Le risque oprationnel : cadre rglementaire et quantification

1 Introduction et objectifs
1.1 Structure daccueil . . . . . . . . . . . . . . . . . . . .
1.1.1 Crdit Agricole S.A. . . . . . . . . . . . . . . .
1.1.2 Le Groupe de Recherche Oprationnelle (GRO)
1.2 Quest-ce que le risque oprationnel ? . . . . . . . . . .
1.2.1 Dfinition . . . . . . . . . . . . . . . . . . . . .
1.2.2 Classification . . . . . . . . . . . . . . . . . . .
1.2.3 Particularits des donnes . . . . . . . . . . . .
1.2.4 Exemples clbres . . . . . . . . . . . . . . . .
1.3 Aperu des enjeux du mmoire . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.

2
2
2
3
3
3
3
4
5
6

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

7
7
7
7
8
9
9
9
9
10
11
11
11
11
12
12

2 Contexte rglementaire du risque oprationnel


2.1 Les dispositifs rglementaires bancaires . . . . . . . . . . . . . . . . . . . . .
2.1.1 Historique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.1.2 Ble I . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.1.3 Ble II . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2 Le pilier 1 de Ble II : une exigence de fonds propres . . . . . . . . . . . . .
2.2.1 Objectifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2.2 Principales amliorations . . . . . . . . . . . . . . . . . . . . . . . .
2.2.3 Les approches de base pour la mesure du risque oprationnel . . . .
2.2.4 Lapproche avance AMA (Advanced Measurement Approach) . . . . .
2.3 Le pilier 2 : pour un meilleur suivi des risques . . . . . . . . . . . . . . . . .
2.3.1 Motivations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3.2 ICAAP et risque oprationnel . . . . . . . . . . . . . . . . . . . . . .
2.4 Comparaison avec le rfrentiel Solvabilit 2 . . . . . . . . . . . . . . . . .
2.4.1 Dfinition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.4.2 Mesure . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.4.3 Poids du risque oprationnel dans la charge en capital rglementaire
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.5 Vers la norme Ble III . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. 13
. 13

3 Lapproche avance LDA


3.1 Dfinition du Capital-At-Risk (CaR) . . . . .
3.2 Principe . . . . . . . . . . . . . . . . . . . .
3.3 Prise en compte des assurances . . . . . . .
3.3.1 Caractristiques des polices . . . . .
3.3.2 Principe dintgration dans le modle
3.3.3 Effet sur les distributions . . . . . . .
3.4 Intgration des scnarios . . . . . . . . . .

.
.
.
.
.
.
.

ii

.
.
.
.

.
.
.
.
.
. .
. .

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

15
15
15
17
17
18
18
19

3.5 Des mthodes alternatives pour le calcul de la charge en capital . . . . . . . . 20


3.5.1 Algorithme rcursif de Panjer . . . . . . . . . . . . . . . . . . . . . . . 20
3.5.2 F.F.T. (Fast Fourier Transform) . . . . . . . . . . . . . . . . . . . . . . . 21

II

Estimation de la svrit du risque oprationnel

23

4 Les mthodes destimation usuelles


4.1 Quelques rappels thoriques sur les estimateurs . . . . . . . . . . . . . . .
4.2 La mthode du maximum de vraisemblance . . . . . . . . . . . . . . . . .
4.2.1 Quelques gnralits . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2.2 Prise en compte de leffet de seuil . . . . . . . . . . . . . . . . . . .
4.3 La mthode des moments gnralise . . . . . . . . . . . . . . . . . . . .
4.3.1 Prsentation thorique . . . . . . . . . . . . . . . . . . . . . . . . .
4.3.2 Choix de la matrice de pondration et influence sur lestimation . .
4.3.3 Les diffrents algorithmes pour implmenter la mthode . . . . . .
4.4 Difficults destimation rencontres . . . . . . . . . . . . . . . . . . . . .
4.4.1 Linstabilit de la vraisemblance en prsence dun seuil de collecte
4.4.2 Le biais de la mthode des moments gnralise . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

25
25
26
26
26
27
27
28
29
30
30
34

5 Les solutions alternatives envisages


5.1 Motivations et dmarche scientifique . . . . . . . . . . . . . . . . . . .
5.2 Une autre approximation de la distance minimise par le maximum de
semblance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.2.1 Introduction de la distance K-L . . . . . . . . . . . . . . . . . .
5.2.2 Application au maximum de vraisemblance . . . . . . . . . . .
5.2.3 Lestimation par Maximum Spacing (MS) . . . . . . . . . . . . .
5.3 Minimisation de statistiques de tests . . . . . . . . . . . . . . . . . . .
5.4 Minimisation dune distance inter-quantiles . . . . . . . . . . . . . . .
5.4.1 Principe de la mthode . . . . . . . . . . . . . . . . . . . . . . .
5.4.2 Pondration de la distance . . . . . . . . . . . . . . . . . . . .
5.4.3 Prise en compte des agrgats . . . . . . . . . . . . . . . . . . .
5.4.4 Prise en compte du seuil de collecte . . . . . . . . . . . . . . .
5.4.5 Choix des diffrents paramtres . . . . . . . . . . . . . . . . . .
5.4.6 Rcapitulatif des tapes de lestimation . . . . . . . . . . . . . .
5.5 Premier bilan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . .
vrai. . .
. . .
. . .
. . .
. . .
. . .
. . .
. . .
. . .
. . .
. . .
. . .
. . .

.
.
.
.
.
.
.
.
.
.
.
.
.

35
35
36
37
39
41
41
42
42
43
43
47
47

6 Comparaison thorique des mthodes destimation retenues


6.1 Modles simples . . . . . . . . . . . . . . . . . . . . . . .
6.1.1 Etude du biais . . . . . . . . . . . . . . . . . . . .
6.1.2 Prcision des estimations . . . . . . . . . . . . . .
6.1.3 Stabilit des estimations . . . . . . . . . . . . . . .
6.2 Modles hybrides . . . . . . . . . . . . . . . . . . . . . . .
6.2.1 Simulations des donnes . . . . . . . . . . . . . . .
6.2.2 Estimations . . . . . . . . . . . . . . . . . . . . . .
6.2.3 Calculs de charges en capital . . . . . . . . . . . .

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

49
49
49
50
51
52
52
52
52

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

35
. 35

III Diversification et agrgation des risques oprationnels : dtermination dun capital conomique
54
7 Enjeux et lments thoriques
56
7.1 Agrgation des risques et allocation : des enjeux importants . . . . . . . . . . 56
7.2 Mesures de risque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
7.2.1 Dfinition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
iii

7.2.2 Proprits dsirables . . . . . . . . . . . . . . . . . .


7.2.3 La mesure VaR (Value at Risk) . . . . . . . . . . . .
7.2.4 La mesure TVaR (Tail Value at Risk) . . . . . . . . .
7.2.5 La mesure CTE (Conditional Tail Expectation) . . . .
7.3 Mesures dallocation . . . . . . . . . . . . . . . . . . . . . .
7.3.1 Dfinition . . . . . . . . . . . . . . . . . . . . . . . .
7.3.2 Proprits dsirables . . . . . . . . . . . . . . . . . .
7.3.3 Allocation base sur la mesure VaR . . . . . . . . . .
7.3.4 Allocation base sur la mesure CTE . . . . . . . . . .
7.4 Mesures de dpendance . . . . . . . . . . . . . . . . . . . .
7.4.1 Dfinition et proprits dsirables . . . . . . . . . . .
7.4.2 Le coefficient de corrlation linaire . . . . . . . . .
7.4.3 Le tau de Kendall . . . . . . . . . . . . . . . . . . . .
7.4.4 Le rho de Spearman . . . . . . . . . . . . . . . . . .
7.4.5 Notion de dpendance de queue . . . . . . . . . . .
7.5 Thorie des copules . . . . . . . . . . . . . . . . . . . . . . .
7.5.1 Dfinition . . . . . . . . . . . . . . . . . . . . . . . .
7.5.2 Thorme de Sklar (1959) . . . . . . . . . . . . . . .
7.5.3 Quelques proprits remarquables . . . . . . . . . .
7.5.4 Expression de la dpendance de queue . . . . . . . .
7.5.5 Exemples classiques de copules multivaries . . . . .
7.5.6 Simulation . . . . . . . . . . . . . . . . . . . . . . .
7.5.7 Utilisation dans le contexte de lagrgation de risques

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

58
59
59
59
60
60
60
60
61
61
61
62
62
62
63
63
63
64
64
65
65
68
69

8 Une premire approche pour diversifier les charges en capital : lapproximation


gaussienne
8.1 Hypothses et mthodologie . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.2 Formule dagrgation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.3 Allocation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.4 Exemple simple en dimension 2 . . . . . . . . . . . . . . . . . . . . . . . . .
8.4.1 Agrgation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.4.2 Allocation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.5 Avantages et inconvnients . . . . . . . . . . . . . . . . . . . . . . . . . . . .

71
71
72
73
73
73
74
75

9 Mise en place dune nouvelle mthodologie : agrgation par copules


9.1 Principes de la mthode propose . . . . . . . . . . . . . . . . . . . . . . .
9.1.1 Objectifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9.1.2 Etape 1 : agrgation des catgories de risque . . . . . . . . . . . . .
9.1.3 Etape 2 : agrgation des entits . . . . . . . . . . . . . . . . . . . . .
9.1.4 Etape 3 : Allocation . . . . . . . . . . . . . . . . . . . . . . . . . . .
9.1.5 Exemple en dimension 2 . . . . . . . . . . . . . . . . . . . . . . . .
9.1.6 Discussion sur le choix de la copule . . . . . . . . . . . . . . . . . .
9.2 Lexemple du Groupe Crdit Agricole . . . . . . . . . . . . . . . . . . . . . .
9.2.1 Mise en uvre de la mthodologie dagrgation prcdente dans le
cadre de lICAAP . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9.2.2 Parallle avec la formule standard de Solvabilit II . . . . . . . . . .
9.3 Rsultats obtenus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9.3.1 Capitaux non diversifis . . . . . . . . . . . . . . . . . . . . . . . . .
9.3.2 Un mot sur les matrices de corrlation . . . . . . . . . . . . . . . . .
9.3.3 Considrations numriques et prcision des estimateurs . . . . . . .
9.3.4 Agrgation et capital conomique avec hypothse gaussienne . . . .
9.3.5 Agrgation et capital conomique avec copule normale . . . . . . . .
9.3.6 Agrgation et capital conomique avec copule de Student . . . . . .

iv

.
.
.
.
.
.
.
.

76
76
76
77
78
79
79
79
81

.
.
.
.
.
.
.
.
.

81
82
84
84
84
85
86
86
87

10 Approfondissements et perspectives
10.1 Les copules archimdiennes hirarchiques . . . . . . .
10.1.1 Motivations . . . . . . . . . . . . . . . . . . . .
10.1.2 Dfinition . . . . . . . . . . . . . . . . . . . . .
10.1.3 Contraintes . . . . . . . . . . . . . . . . . . . .
10.1.4 Exemple . . . . . . . . . . . . . . . . . . . . . .
10.1.5 Avantages et inconvnients . . . . . . . . . . .
10.2 Les vine copulas . . . . . . . . . . . . . . . . . . . . . .
10.2.1 Motivations . . . . . . . . . . . . . . . . . . . .
10.2.2 La dcomposition de Vine (Vine decomposition)
10.2.3 Avantages et inconvnients . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

88
88
88
88
89
89
91
91
91
91
92

Conclusion

94

Bibliographie

96

Table des figures

99

Liste des tableaux

100

Premire partie

Le risque oprationnel : cadre


rglementaire et quantification

Chapitre 1

Introduction et objectifs
1.1
1.1.1

Structure daccueil
Crdit Agricole S.A.

Crdit Agricole S.A. a t cr en 2001 pour former un ensemble reprsentatif des activits et de la puissance du groupe Crdit Agricole, premier groupe bancaire franais (28
% du march des particuliers), et premier groupe bancaire en Europe par les revenus de la
banque de dtail.
Financeur privilgi de lagriculture depuis lorigine comme son nom lindique, il a largi
au fil des annes son domaine dactivit pour tre, aujourdhui, le partenaire de tous les acteurs de la vie conomique : particuliers, entreprises, professionnels et collectivits locales.
Le groupe, prsent dans plus de 70 pays, sarticule autour de six ples mtiers :
1. Banque de proximit en France : complmentarit entre les Caisses Rgionales de
Crdit Agricole et le rseau LCL
2. Banque de dtail linternational : Cariparma FriulAdria (Italie), Emporiki Bank (Grce),
Banco Espirito Santo (Portugal), Lukas Bank (Pologne), Meridian Bank (Serbie), Index Bank (Ukraine), ainsi que Crdit du Maroc, Crdit Agricole Egypt, Credit Uruguay
Banco.
3. Services financiers spcialiss : crdit la consommation (CACF), crdit-bail (Crdit
Agricole Leasing) et affacturage (Eurofactor)
4. Gestion dactifs (Amundi), assurances (Prdica, Pacifica) et banque prive (Gestion
Prive Indosuez, LCL Banque prive)
5. Banque de financement et dinvestissement : CA-CIB (Crdit Agricole Corporate &
Investment Bank, ex-Calyon)
6. Activits et filiales spcialises : capital investissement (Crdit Agricole Private Equity,
Idia Agricapital, Sodica), immobilier (Crdit Agricole Immobilier), presse (Uni-ditions).
Crdit Agricole S.A. a t organis lors de sa cotation de manire tre reprsentatif de
tous les mtiers et de toutes les composantes du Groupe. Il dtient ainsi 25% du capital de
chaque Caisse rgionale, ainsi que lensemble des participations du Groupe dans ses filiales
spcialises ou dans des banques de dtail linternational.
Crdit Agricole S.A. est un organe central et de contrle, tte de rseau et banque centrale du Groupe Crdit Agricole, dont le capital est dtenu plus de 50% par les 39 caisses
rgionales, elles-mmes dtenues par les 2544 caisses locales.
Au sein du groupe Crdit Agricole, Crdit Agricole S.A. exerce quatre missions principales :
il veille la cohsion et au bon fonctionnement du rseau,
il reprsente le Groupe auprs des autorits bancaires,
il garantit lunit financire du Groupe,
2

I.S.F.A.

Mmoire dactuariat

A. R ENAUDIN

il se veut responsable de la cohrence de son dveloppement en coordonnant, en


liaison avec ses filiales spcialises, les stratgies des diffrents mtiers et assurant le
dveloppement international du Groupe.

1.1.2

Le Groupe de Recherche Oprationnelle (GRO)

Initialement cr en fvrier 1969 au sein du Crdit Lyonnais et rattach ensuite la


Direction des Risques (DRG) du Crdit Agricole aprs la fusion de 2003, le GRO a une
mission de consultant quantitatif interne et reprsente un ple daide la dcision dans
diffrents domaines.
Le GRO est organis sur le modle dune socit de services travaillant pour lensemble
des entits du Groupe Crdit Agricole sur tout type de sujet ncessitant une expertise technique et scientifique. Les diffrentes entits du Groupe lui confient donc des tudes, dont
les rsultats servent de support la prise de dcisions stratgiques. Le GRO semploie aussi
de faon gnrale maintenir une activit de recherche et de veille technologique afin de
rester la pointe des techniques et mthodes quantitatives employes dans la banque et de
manire plus gnrale en gestion des risques.

1.2
1.2.1

Quest-ce que le risque oprationnel ?


Dfinition

Le risque oprationnel peut tre dfini comme le risque de pertes rsultant de procdures
internes inadaptes ou dfaillantes, derreurs humaines, de dfaillance des systmes informatiques, dvnements extrieurs. Ce sont donc des risques qui existent depuis toujours
dans les banques ou les entreprises. Il peut sagir par exemple de problmes informatiques
qui retardent lexcution dordres sur les marchs (incidents courants) mais galement de
lincendie de locaux ou de fraude interne pouvant entrainer de lourdes pertes. Le risque
oprationnel est donc un risque qui peut savrer trs couteux.
Mme sils sont connus depuis longtemps, la gestion des risques oprationnels est un
exercice encore assez rcent pour les banques, qui a largement volu grce la rforme
Ble II (qui sera dtaille dans le chapitre suivant). Le Comit de Ble dfinit les risques
oprationnels de manire formelle comme le risque de pertes dues une inadquation ou
une dfaillance des procdures, personnels, systmes internes ou des vnements extrieurs .

1.2.2

Classification

Catgories de risques (ELs)


Pour rpondre la diversit des vnements assimilables des risques oprationnels et
homogniser les donnes de pertes, le Comit de Ble prsente une classification des diffrentes catgories dvnement (EL pour Event Line) dont les intituls sont regroups dans
le tableau 1.1.
Ces catgories sont gnralement respectes par la plupart des banques lors de la collecte
de leurs pertes, dans un soucis dhomognit et de comparaison. Il est toutefois possible
que dans certaines banques des catgories soit sous-divises, comme la catgorie EL2 gnralement diffrencie entre pertes lies la montique (M) et les autres types de fraude
externe hors montique (HM).
Lignes mtiers (BLs)
Les diffrentes catgories dvnements prcdentes sont observes suivant une rpartition des lignes mtier (business lines, BL) de la banque, propose par le Comit de Ble.
Leurs intituls figurent dans le tableau 1.2.

I.S.F.A.

Mmoire dactuariat

A. R ENAUDIN

Catgorie de risque

Intitul

EL1

Fraude interne

EL2

Fraude externe

EL3

Pratiques en matire demploi et scurit sur le lieu de travail

EL4

Clients, produits et pratiques commerciales

EL5

Dommages occasionns aux actifs corporels

EL6

Interruption de lactivit et dysfonctionnement des systmes

EL7

Excution, livraison et gestion des processus

TABLE 1.1 Classification des catgories de risque (ELs) pour le risque oprationnel selon Ble II

Ligne mtier

Intitul

BL1

Financement dentreprise

BL2

Activits de march

BL3

Banque de dtail

BL4

Banque commerciale

BL5

Paiements et rglements

BL6

Fonctions dagent

BL7

Gestion dactifs

BL8

Courtage de dtail

TABLE 1.2 Classification lignes mtier (BLs) pour le risque oprationnel selon Ble II
Ces lignes mtiers sont donnes titre indicatif, et peuvent subir des modifications selon
les diffrentes activits de la banque ou groupe bancaire considr.

1.2.3

Particularits des donnes

Seuil de collecte
Les pertes collectes lies au risque oprationnel comportent un seuil de collecte. Cest-dire quaucune perte de type risque oprationnel dun montant infrieur au seuil fix
par la banque (variant gnralement de 1000 C 10 000 C), ne figure dans les bases de
donnes. Les donnes disponibles pour lestimation sont donc censures gauche. Comme
nous le verrons par la suite, ceci est source de difficult dans lestimation des paramtres.
Soulignons galement que les bases de pertes ont gnralement une volumtrie trs variable
selon les catgories de risques, certaines bases ne comportant quune dizaine de pertes. Cela
constitue donc un obstacle supplmentaire lestimation statistique 1 .
Htrognit
Les donnes de pertes oprationnelles possdent des profils trs atypiques. Malgr la
classification des risques et lamlioration de la collecte des pertes, il existe toujours une
1. Lestimation se fait en gnral sur une base de donne comportant 5 ans dhistorique, ce qui correspond
au minimum requis rglementairement. La priode dhistorique pourrait tre accrue mais cela ne serait alors plus
reprsentatif des nouveaux risques encourus.

I.S.F.A.

Mmoire dactuariat

A. R ENAUDIN

htrognit non ngligeable lintrieur des catgories mais aussi entre les catgories.
Elles contiennent de nombreuses pertes de montants faibles ainsi que quelques vnements
extrmes, ce qui les rend difficiles ajuster.
La figure 1.1 permet de lillustrer, avec un boxplot (boite moustaches) pour 6 catgories de pertes diffrentes collectes par le Groupe Crdit Agricole.

F IGURE 1.1 Boxplot pour diffrentes catgories de pertes oprationnelles


Nous notons tout dabord que les donnes issues du risque oprationnel prsentent des
pertes extrmes, et ce quelque soit la catgorie. Nous pouvons galement remarquer que la
catgorie excution (EL7) semble se distinguer car elle parait contenir deux groupes de
pertes : un premier groupe de pertes peu svres (dans la boite) et un groupe important
de pertes trs svres (points hors de la boite). La catgorie dommages (EL5) semble
pour sa part avoir une distribution trs asymtrique. Nous verrons dans la suite du mmoire
que des difficults destimation, spcifiques aux donnes issues du risque oprationnel, en
dcoulent.

1.2.4

Exemples clbres

Nous illustrons la dfinition et la classification prcdente au travers dexemple de pertes


lies au risque oprationnel subies secteur bancaire lors de ces dernires annes.
Lincendie du Crdit Lyonnais
Le Crdit Lyonnais a t victime de lincendie spectaculaire de son sige parisien, le 5 mai
1996. Lincendie, parti de la salle des marchs, ravage le btiment et la salle des coffres.
Mme si certains doutes subsistent sur son caractre accidentel, il occasionne de srieux dgts et le Crdit Lyonnais revend ensuite son sige central 1.3 milliard de francs lassureur
AIG. Cette perte rentre donc dans la catgorie Dommages (EL5) de la ligne mtier Banque
de dtail (BL3).

I.S.F.A.

Mmoire dactuariat

A. R ENAUDIN

Laffaire Kerviel
Plus rcemment, la Socit Gnrale a enregistr en 2008 des pertes trs lourdes (plusieurs milliards deuros) rsultant de prises de positions frauduleuses dun de ces tradeurs,
Jrme Kerviel. Il aurait expos la banque un risque de march en accumulant des positions acheteuses sur des contrats terme sur indices. Il aurait surtout dissimul ces oprations de march en introduisant dans le systme informatique de la Socit Gnrale des
oprations inverses fictives les compensant. Les causes de ces importantes pertes sont la
fraude interne (EL1) et une dfaillance dans les contrles sur les activits de march (BL2).

1.3

Aperu des enjeux du mmoire

La rpartition des pertes oprationnelles en deux dimensions expose prcdemment


permet dobtenir une vision matricielle des risques oprationnels que peut subir un tablissement bancaire :
EL1

...

EL7

BL1
...
BL8
Chaque case de la matrice, dans laquelle sont collectes un certain nombre de pertes, est
alors appele cellule de risque (risk cell) et fait lobjet dune exigence de fonds propres : les
techniques destimation associes seront lobjet de la seconde partie du mmoire. Une fois
ces charges en capital calcules pour les diffrentes cellules, nous nous devons alors de les
agrger pour calculer la charge en capital global au titre du risque oprationnel au niveau
groupe, et rallouer ce capital aux diffrentes lignes mtier ou entits du groupe. Cela sera
lenjeu de la troisime et dernire partie de ce mmoire.

Chapitre 2

Contexte rglementaire du risque


oprationnel
2.1

Les dispositifs rglementaires bancaires

La rglementation prudentielle a considrablement volu ces vingt dernires annes


sous limpulsion des travaux du Comit de Ble (Basel Committee on Banking Supervision,
BCBS). Mme si celui-ci na aucun pouvoir dcisionnel, ses recommandations sont reprises
par les autorits de tutelle des diffrents pays concerns. En Europe, cest la Commission Europenne qui est charge de dfinir les rgles prudentielles CRD (pour Capital Requirement
Directive), dont la mise en uvre revient aux diffrentes autorits nationales de tutelle. En
France, cest lAutorit de Contrle Prudentiel 1 (ACP), qui contrle lapplication de la CRD,
une fois que celle-ci a t adapte en droit franais par le Comit de la Rglementation
Bancaire et Financire.

2.1.1

Historique

Les grandes tapes de lvolution de ces directives prudentielles sont rpertories cidessous :
1988
1993
1996
1999
2004
2006
2010
2013

2.1.2

Publication de The Basel Capital Accord dfinissant le ratio Cooke (Ble I).
laboration de la CAD par la Commission Europenne.
Incorporation du risque de march dans lassiette des risques.
Premier document consultatif sur le nouveau ratio McDonough.
Publication du texte dfinitif de la rglementation Ble II.
Mise en place de la norme Ble II.
Publication du texte dfinitif de la nouvelle rglementation Ble III.
Mise en uvre programme de la norme Ble III.

Ble I

En 1988, le Comit de Ble propose un ratio international de solvabilit qui doit permettre une adquation des fonds propres par rapport aux risques, tout en renforant la
solidit et la stabilit du systme bancaire et galement dattnuer les ingalits concurrentielles entre les banques. Il sagit du ratio Cooke (du nom du prsident du Comit de Ble de
lpoque) qui correspond au rapport entre le montant des fonds propres et celui des encours
pondrs de crdit (EPC). Plusieurs niveaux de fonds propres sont dfinis :
1. LACP rsulte de la fusion intervenue en janvier 2010 entre lorgane de contrle des banques (la Comission
Bancaire) et celui contrlant les assurances (lAutorit de Contrle des Assurances et des Mutuelles).

I.S.F.A.

Mmoire dactuariat

A. R ENAUDIN

1. les fonds propres de base F P1 (Tier one), qui correspondent au capital et aux rserves,
2. les fonds propres complmentaires F P2 (Tier two), principalement constitus demprunts subordonns,
3. les fonds propres surcomplmentaires F P3 (Tier three).
Selon laccord de Ble I, les tablissements financiers doivent alors respecter les contraintes
F P1 6 F P2 et F P1 /EP C 6 4%, mais galement le ratio de Cooke dfini par :
F P1 + F P2
> 8%
EP C
La rglementation a ensuite volu progressivement pour prendre en compte les risques
de march, avec la proposition de deux approches, lune forfaitaire, et lautre autorisant
les banques utiliser un modle interne. Lide est dinciter les banques construire des
modles robustes pour valuer leurs risques de march et donc dobtenir des exigences de
fonds propres plus ralistes. Ce nest quen janvier 1996 que le Comit de Ble propose
dincorporer le risque de march dans le ratio Cooke. En 1999, le Comit de Ble publie un
premier document consultatif pour rformer le ratio Cooke, puis un second en 2001, avec
pour objectifs la modification du traitement du risque de crdit et lintgration du risque
oprationnel.

2.1.3

Ble II

Le Comit de Ble publie finalement en juin 2004 le Nouvel Accord de Ble, rsultat de
plusieurs priodes consultatives auprs des institutions financires. La premire motivation
de lAccord est la modification de lassiette des risques, qui prvoit dsormais la prise en
compte du risque oprationnel, et la dfinition dun nouveau ratio de solvabilit, le ratio
McDonough :
F P1 + F P2
> 8%
ERC + ERO + ERM
o ERC , ERO et ERM sont les exigences dfinies respectivement pour le risque de crdit, le
risque oprationnel et le risque de march.
La seconde motivation de lAccord est de rendre lexigence de fonds propres plus sensible
au risque rel encouru par la banque. Lide est dautoriser les banques, sous certaines
conditions, recourir des modles internes pour mesurer le risque de crdit et le risque
oprationnel, de la mme faon que pour le risque de march .Cette rforme sappuie sur
trois piliers, reprsents sur la figure 2.1

F IGURE 2.1 Les trois piliers Ble II


Le premier pilier correspond aux exigences minimales de fonds propres et vise dfinir le
ratio McDonough (voir ci-dessus). Le deuxime pilier concerne le processus de surveillance
8

I.S.F.A.

Mmoire dactuariat

A. R ENAUDIN

et donne un pouvoir accru aux autorits de contrle (ACP). Le troisime pilier porte pour
sa part sur la communication financire et la discipline de march, et vise amliorer la
transparence financire des banques pour permettre des tiers dapprcier ladquation de
leurs fonds propres. Nous dtaillons dans les sections suivantes les deux premiers piliers,
auxquels se rapporte ce mmoire.

2.2
2.2.1

Le pilier 1 de Ble II : une exigence de fonds propres


Objectifs

Les fonds propres (ou le capital) sont un des lments du passif dune banque. Ils peuvent
tre calculs de faon rglementaire. Dans ce cas, il est dusage de parler de fonds propres
forfaitaires ou rglementaires (regulatory capital). Il est aussi possible de les calculer partir
de modles internes qui tiennent compte des effets de diversification ou de la nature du
portefeuille de la banque. Dans ce cas, nous parlons de fonds propres ou capital conomique
(economic capital, voir dans la suite 2.3.1 p.11 pou une dfinition plus prcise). Lide de
Ble II est de faire converger le capital rglementaire souci des autorits de contrle et
le capital conomique souci des tablissements bancaires.

2.2.2

Principales amliorations

En ce qui concerne le premier pilier de Ble II, le traitement du risque de march reste
inchang par rapport Ble I, alors que le traitement du risque de crdit est revu en profondeur. Les mthodes de calcul des fonds propres rglementaires lis au risque de crdit sont
standardises et imposes par le Comit de Ble, et sont au nombre de trois :
lapproche standard (SA, pour Standard Approach), qui reste une mthode forfaitaire
lapproche IRB (Internal Ratings Based) simple est base sur des mesures internes
des probabilits de dfaut (PD) et des mesures exognes des autres paramtres du
modle
lapproche IRB dite avance , o la banque estime dautres paramtres comme la
LGD (Loss Given Default) et lEAD (Exposure at Default).
Notons que les approches IRB ne sont pas des modles internes proprement parler, mais
plutt des formules standards avec des paramtres internes chaque tablissement.
Le risque oprationnel est dsormais pris en compte et limage du risque de crdit trois
approches sont proposes par le rgulateur pour le calcul de lexigence en fonds propres li
ce nouveau risque. Nous introduisons le principe de ces approches dans les paragraphes
suivants.

2.2.3

Les approches de base pour la mesure du risque oprationnel

Parmi les trois approches qui vont suivre, les banques ont la possibilit de choisir celle
qui leur parait le mieux correspondre la spcificit de leur activit et leur capacit globale daction. Elles doivent en effet sassurer quelles disposent de lensemble des moyens
ncessaires la mise en uvre de la solution retenue. Le degr de sophistication de chacune
de ces trois mthodes est en effet croissant.
Lapproche indicateur de base BIA (Basic Indicator Approach)
Cette mthode, la plus simple, est forfaitaire : le calcul des fonds propres mobiliser se
fait partir dun indicateur fond sur le produit annuel brut (PAB), qui intgre le produit net
bancaire et dautres lments dexploitation. Lindicateur dexposition retenu est la moyenne
des parties positives des PAB des trois dernires annes :

I.S.F.A.

Mmoire dactuariat

A. R ENAUDIN

1X
IEn =
max(PABni , 0).
3 i=1
Ensuite, le montant des fonds propres (FP) au titre de lanne coule n se fait par un calcul
forfaitaire :
F Pn = 15% IEn
En tant que calcul forfaitaire, il na pas besoin de justification. Nanmoins cette mthode
a de fortes chances de survaluer le risque oprationnel rellement encouru par la banque.
Au contraire en priode de crise, le PAB de la banque tant trs faible, le montant de fonds
propres valu par cette mthode devient drisoire, et cette mthode inapproprie.
Les banques vocation internationale ont ce titre opt pour des mthodes certes plus
complexes mais plus ralistes pour valuer leur exposition au risque oprationnel.
Lapproche standardise TSA (The Standardized Approach)
Cette approche affine quelque peu la prcdente, en effectuant un calcul par ligne mtier j :
X
F Pn =
j IEn,j
j

Les coefficients j proposs par le Comit de Ble sont :


Ligne mtier

Financement dentreprise

18%

Activits de march

18%

Banque de dtail

12%

Banque commerciale

15%

Paiement et rglement

18%

Fonctions dagent

15%

Gestion dactifs

12%

Courtage de dtail

12%

Par rapport lapproche prcdente, elle fait gnralement diminuer le montant des
fonds propres de 8 10% en moyenne (sur des montants de plusieurs milliards deuros).

2.2.4

Lapproche avance AMA (Advanced Measurement Approach)

Cette approche implique le choix et la mise en uvre dune mthode avance, dont
lintrt est de donner une apprciation plus juste du risque travers la construction dun
modle interne, qui peut parfois mener une rduction denviron 20% de lexigence en
fonds propres par rapport aux mthodes standard. Le choix du modle interne est laiss
lapprciation de la banque, mais fait nanmoins lobjet de contrles rguliers de la part des
instances de rgulation, aprs avoir t valid sur des critres la fois qualitatifs et quantitatifs. Quelque soit lapproche retenue, la mesure du risque oprationnel doit nanmoins
correspondre une priode de dtention dun an et un niveau de confiance de 99,9%.
La mthode avance la plus populaire dans le secteur bancaire pour le risque oprationnel est la mthode LDA (pour Loss Distribution Approach) et sera la mthode de rfrence
tout au long de ce mmoire. Sa prsentation dtaille fait lobjet du chapitre suivant (voir
p.15).
10

I.S.F.A.

2.3
2.3.1

Mmoire dactuariat

A. R ENAUDIN

Le pilier 2 : pour un meilleur suivi des risques


Motivations

Le pilier 2 de laccord de Ble II est un lment essentiel du nouveau dispositif dadquation des fonds propres, dont lobjectif est double.
Pour le superviseur, il sagit de sassurer que les tablissements financiers disposent de
systmes dvaluation et de surveillance de lensemble de leurs risques et quils disposent
dun niveau de fonds propre conforme leur profil de risque.
Pour les tablissements financiers, lobjectif est de dvelopper des techniques de contrle
et de gestion de leurs risques, ainsi que de mettre en place un processus interne pour lvaluation de leur capital interne (ICAAP : Internal Capital Adequacy Assessment Process)
adapt leur profil de risques et leurs stratgies. Ce processus a pour vocation leur
permettre de correctement identifier, mesurer, agrger et surveiller les risques, et dassurer
la dtention dun montant de capital en adquation avec leur profil de risque.
Ce capital dtermin partir dun modle interne est appel capital conomique, et peut
se dfinir comme le montant de capital dtermin selon des bases ralistes quune banque
estime ncessaire de dtenir pour faire face aux risques quelle encourt.

2.3.2

ICAAP et risque oprationnel

En pratique, ce capital conomique est calcul en dterminant le montant de capital


ncessaire la solvabilit de ltablissement sur une priode de temps donne et selon une
probabilit dtermine lavance. Ce niveau de capital conomique est alors fonction du
profil de risque de ltablissement financier, et de son degr daversion au risque. Celui-ci
se matrialise par un objectif de notation externe quil dtermine et auquel correspond un
seuil de confiance.
Plus concrtement si lobjectif de notation externe de la banque est AA, cela correspond
une probabilit de dfaut de 0,03% lhorizon dun an. De ce fait, le capital conomique
au titre du risque oprationnel reprsente le montant de fonds propres que la banque estime
ncessaire de dtenir pour faire face, dans 99,97% des cas lhorizon dun an, une perte
extrme pouvant mettre en pril sa solvabilit.
Dans la suite du mmoire, nous utiliserons donc le niveau de quantile cible de 99,97%
lors des calculs et application numriques mens dans le cadre pilier 2 (ICAAP) en raison
de lobjectif de rating externe AA de Crdit Agricole.

2.4

Comparaison avec le rfrentiel Solvabilit 2

Dans lesprit de Ble II rgulant les activits bancaires, la Commission Europenne souhaite amliorer lvaluation et le contrle des risques dans le secteur de lassurance. Dans
ce contexte, la directive Solvabilit II est un projet de rglementation prudentielle qui
partir du 1er janvier 2013 sappliquera lensemble des socits dassurance 2 de lUnion
Europenne.
La rforme Solvabilit II vise renforcer les critres de solvabilit des assureurs afin de
garantir le respect des engagements pris envers les assurs. La rforme prne une nouvelle
approche des risques, tous les risques auxquels les assureurs sont soumis devant tre pris en
compte, tant du point de vue quantitatif que qualitatif. Notamment, le risque oprationnel
rentre dans dsormais son champs dapplication. Dans une logique similaire Ble II, elle
se construit autour de trois piliers :
1. Exigences financires quantitatives
2. Autorit de contrle et systme de gouvernance
2. Entrent galement dans le champs dapplication de Solvabilit II : les mutuelles, les institutions de prvoyance, et les rassureurs.

11

I.S.F.A.

Mmoire dactuariat

A. R ENAUDIN

3. Discipline de march
Tous les acteurs du march sont impliqus dans llaboration de cette rforme. Ils doivent en
effet rpondre des tudes quantitatives permettant la Commission europenne dvaluer
limpact concret de ces mesures sur le march. Actuellement, cinq tudes ont dores et dj
t menes, la dernire en date tant QIS5.

2.4.1

Dfinition

La dfinition du risque oprationnel est quasiment identique dans les deux rglementations, comme le montre le tableau suivant :

Solvabilit II

Ble II

Risque de pertes rsultant de


procdures internes inadaptes ou
dfaillantes, ou de membre du
personnel et de systmes, ou
dvnements extrieurs. Le risque
oprationnel ainsi dfini
comprend les risques juridiques
mais non les risques dcoulant de
dcisions stratgiques ni les
risques de rputation

Risque de pertes rsultant dune


inadaptation ou dune dfaillance
imputable des procdures,
personnels et systmes internes,
ou des vnements extrieurs.
Inclut les vnements de faible
probabilit doccurrence, mais
risque de perte leve. Le risque
oprationnel ainsi dfini inclut le
risque juridique, mais exclut les
risques stratgiques et de
rputation.

Source : directive cadre du 10


juillet 2007, articles 13 et 100

Source : art. 4-1 de larrt


transposant Ble II en France

Prcisons galement quen terme de nomenclature les lignes mtiers et catgories de


risques sont normalises dans Ble II (matrice 8 7), alors que non prcises dans Solvabilit II.

2.4.2

Mesure

Formule standard
La formule standard permettant de quantifier le risque oprationnel dans Solvabilit II
est le pendant de lapproche standard de Ble II. Evidemment, la formule est ici adapte en
introduisant des facteurs spcifiques, notamment pour les compagnies exerant une activit
dassurance vie.
La formule gnrale pour le besoin en capital au titre du risque oprationnel est la
suivante :
SCRop = min (30%BSCR, Op) + 25%Expul
Avec
Op : Charge du risque oprationnel pour tous les contrats hors contrats dassurance vie o
le risque est pas port entirement par lassur
Expul : Montant bruts de rassurance des dpenses annuelles dans le cadre des contrats en
units de compte (i.e dpenses administratives) durant les 12 derniers mois.

12

I.S.F.A.

Mmoire dactuariat

A. R ENAUDIN

Modle interne
Comme pour Ble II, il est possible dutiliser une approche dite avance pour la mesure
du risque oprationnel ; nous parlons alors de modle interne. Ces modles internes sont
encore peu dvelopps dans les socit dassurance (principalement en raison du manque
de donnes d labsence de processus de collecte gnralis et fiable, la gestion de ce
risque tant trs rcente dans ce secteur).
Il est nanmoins possible de mettre en place des modles calqus sur le secteur bancaire
(utilisation de scnarios, modlisation frquence/svrit...), nous renvoyons pour cela au
mmoire dactuariat [29] consacr la modlisation du risque oprationnel dans les compagnies dassurance.

2.4.3

Poids du risque oprationnel dans la charge en capital rglementaire

Terminons enfin cette comparaison en ajoutant que dans le secteur bancaire, le risque
oprationnel reprsente le deuxime risque le plus important en terme dallocation des fonds
propres, aprs le risque de crdit. Comme le montre la figure 2.2, il reprsente environ 15
25% des exigences en fonds propres des banques grandes banques gnralistes.

F IGURE 2.2 Illustration de la rpartition du capital entre risque de crdit, oprationnel et


risque de march dans une grande banque
Avec Solvabilit II, le poids du risque oprationnel a t revu la hausse dans la dernire
vague de papiers consultatifs (QIS5) mais ce nest pas encore dfinitif. Il reprsente en tout
cas pour un assureur lun des trois plus gros risques rglementaires.

2.5

Vers la norme Ble III

Tirant les leons de la crise, et sous limpulsion du G20, le Comit de Ble a engag une
rvision complte du dispositif prudentiel applicable compter de dbut 2013 et qui vise
renforcer la rsilience des banques (capacit absorber des chocs lis des conditions de
march dfavorables). Les enjeux de cette rforme sont considrables, non seulement pour
le secteur bancaire et la stabilit des marchs financiers, mais aussi pour lconomie dans
son ensemble.
Le projet de nouvel accord se concentre ainsi sur cinq points dattention majeurs.
1. Harmonisation et renforcement de la qualit des fonds propres
Le premier objectif est daccroitre lhomognit, la qualit et la transparence des
fonds propres, cest--dire sassurer quils sont constitus de capitaux capables dabsorber des montants de pertes importants et non dinstruments financiers complexes
et sujets fluctuations.
13

I.S.F.A.

Mmoire dactuariat

A. R ENAUDIN

2. Renforcement des exigences de fonds propres relatives au risque de contrepartie


La principale innovation rside dans la charge en capitaux propres au titre des ajustements de crdit sur produits drivs de gr gr (OTC)
3. Mise en place dun ratio de levier
Le Comit envisage dintgrer au Pilier 1 un ratio deffet de levier (leverage ratio) destin plafonner les expositions en risques indpendamment de la qualit des risques
encourus, et ce afin de limiter lendettement des banques.
4. Instauration de mesures contra-cycliques
Afin de limiter les effets de pro-cyclicit (en temps de crise, les banques rduisent leur
offre de crdit pour maintenir un niveau de solvabilit constant, ce qui a pour effet
daggraver la crise), les banques seront tenues de constituer des coussins en capital
destins absorber les pertes en priode conomique dgrade, ceci afin de stabiliser
le systme bancaire en lissant les chocs conomiques
5. Instauration de ratios de liquidit
Le Comit de Ble propose la mise en place de deux ratios de liquidit. Le premier
(LCR, pour Liquidity Coverage Ratio) imposera aux banques de dtenir un stock dactifs
sans risque, qui leur permettrait de rsister pendant trente jours une crise qui se
traduirait par des retraits massifs. Le second ratio (NSFR, Net Stable Funding Ratio)
vise le mme objectif sur un an. Plus contraignant, il doit inciter les tablissements de
crdit renforcer leur profil de financement en faveur de ressources de long terme,
supposes plus stables.
Prcisons enfin quen ltat actuel des choses, aucune relle nouveaut na t apporte en
ce qui concerne la mesure et la gestion du risque oprationnel.

14

Chapitre 3

Lapproche avance LDA


Dans ce chapitre, nous prsentons de manire plus dtaille cette mthode de quantification du risque oprationnel qui sera utilise dans la suite, ceci afin de mieux comprendre
les enjeux du mmoire qui vont suivre.

3.1

Dfinition du Capital-At-Risk (CaR)

La charge en capital (Capital-at-Risk ou CaR) est la part des fonds propres destine
prserver la banque de linsolvabilit en cas de perte(s) exceptionnelle(s). Cette couverture
du risque est bien entendu assortie dun certain niveau de confiance ou probabilit, fix
99.9% dans le cadre de la rglementation Ble II (voir chapitre prcdent). Lobjet de la
mthode qui va suivre est de calculer la charge en capital au titre du risque oprationnel,
pour une entit et une ligne mtier fixes.

3.2

Principe

La mthodologie que nous prsentons ici (LDA pour Loss Distribution Approach) est
laboutissement de rflexions menes par le Groupe de Recherche Oprationnel, et a fait
lobjet dune publication ([1]). Elle est drive dune approche actuarielle ancienne et largement utilise en assurance 1 . Lide gnrale est de modliser la perte lie au risque oprationnel pour une priode donne (1 an) et den dduire la valeur en risque, pour chaque
catgorie. La difficult rside dans le fait que cette perte ne correspond pas une seule
occurrence mais quelle est le rsultat de plusieurs pertes successives. Nous parlons alors
de perte agrge, ou perte annuelle, pour la perte rsultante. Il faut donc distinguer deux
distributions :
la frquence des pertes (Frequency Loss Distribution)
la svrit des pertes (Severity Loss Distribution)
En introduisant les notations :
N la variable alatoire associe au nombre dvnements annuels (les pertes) et p(k) =
P (N = k) sa distribution discrte
la variable alatoire reprsentant le montant dune perte individuelle. F sera la
fonction de rpartition de la svrit des pertes. Lhypothse classique du modle
frquence-svrit suppose les pertes indpendantes entre elles, identiquement distribues, et indpendantes de N .
1. Qui figure notamment dans le livre rfrence de Panjer et Klugmann : Loss Models From Data to Decisions
(1998)

15

I.S.F.A.

Mmoire dactuariat

A. R ENAUDIN

La perte annuelle est donc :


`N =

N
X

k=1

Dans cette configuration dindpendance, nous pouvons exprimer lesprance et la variance


de la perte annuelle en fonction de celles de la svrit et de la frquence :
E [`N ] = E [N ] .E []
et par la formule de dcomposition de la variance
2

var [`N ] = E [N ] .var [] + (E []) .var [N ]

(3.1)

En notant G la fonction de rpartition de la perte annuelle `, alors nous pouvons galement crire :
(P

k
pour x > 0
k=1 p(k)F (x)
(3.2)
G(x) =
p(0)
pour x = 0
o F n (x) est la fonction de rpartition de la somme des n pertes (1 , 2 , ..., n ), qui sobtient
par auto-convolution dordre n de la distribution de svrit 2 .
La charge en capital CaR (ou VaR) de niveau sobtient finalement daprs la distribution
de la perte annuelle en calculant son quantile de niveau :
CaR() = inf {x | G(x) } = G1 ()
Le Comit de Ble fixe un niveau rglementaire de quantile = 99.9%, ce qui correspond
la couverture dun risque millnaire.
La figure 3.1 donne une ide des distributions obtenues lors des diffrentes tapes du
modle pour une catgorie de risque et ligne mtier donne, ainsi que de la charge en capital rsultante en fonction de .
Ce calcul est effectu pour chaque catgorie de risque, gnralement par simulations
de Monte-Carlo afin dobtenir la distribution annuelle empirique agrge et den prendre le
quantile de niveau , fix 99.9% dans le cadre de lexigence en fonds propres du pilier 1.
Une agrgation est ensuite effectue pour calculer la CaR totale lie au risque oprationnel, notamment en tenant compte des corrlations entre catgories. Cela fait notamment
lobjet de la dernire partie du mmoire.

Rcapitulatif des principales tapes du modle


1. Estimation des paramtres de svrit
Il sagit ici destimer, dans le cadre classique de la statistique paramtrique, les paramtres = (1 , ..., p ) de la loi de svrit choisie pour modliser la svrit des
pertes i . La mthode de rfrence sur un plan thorique est le maximum de vraisemblance mais nous verrons quen raison des particularits des donnes lies au risque
oprationnel il est souvent prfrable dutiliser dautres mthodes destimation (ceci
est lobjet de la deuxime partie de ce mmoire).
2. Rappelons que si les variables alatoires indpendantes
 continues X et Y admettent respectivement les
densits f et g , alors Z = X + Y a pour densit : h(x) =
g(y)f (x y)dy = f g
Si X et Y sont i.i.d. de mme densit f , la variable Z a pour densit f f = f 2 , rsultat qui peut se gnraliser
au cas dune somme de n variables alatoires.

16

I.S.F.A.

Mmoire dactuariat

A. R ENAUDIN

F IGURE 3.1 Les diffrentes tapes de la mthode LDA pour lestimation de la charge en capital

2. Estimation de la frquence
N est suppos suivre une loi de Poisson de paramtre . Cette distribution prsente
lavantage de ne ncessiter quun seul paramtre que nous pouvons estimer simplement via maximum de vraisemblance par la moyenne empirique du nombre annuel
de pertes, et elle est trs utilise en assurance pour modliser des problmes similaires.
3. Construction de la distribution annuelle des pertes
Cette distribution est construite par simulations de Monte-Carlo, avec les paramtres
et , estims prcdemment.
4. Calcul de la charge en capital
Il suffit pour cela dextraire le quantile empirique 99.9% de la distribution construite
ltape prcdente.

3.3

Prise en compte des assurances

Les banques valides en approche avance AMA se voient offrir la possibilit de prendre
en compte certaines polices dassurance dans le calcul de leur capital rglementaire au titre
du risque oprationnel. Leffet de rduction du capital induit par la prise en compte de ces
couvertures est cependant limit hauteur de 20% par le rgulateur.

3.3.1

Caractristiques des polices

Les polices dassurance souscrites par la banque se doivent de respecter plusieurs caractristiques afin de pouvoir tre prises en compte lors du calcul de leur exigence en fond
propres rglementaire. Les principales contraintes sont les suivantes :
Lassureur fournissant la police doit avoir un rating minimum de A (ou quivalent)
La police doit tre dune dure initiale dau moins 12 mois
Lannulation de la police par lassureur (ou son non renouvlement) doit faire lobjet
dun pravis dau moins 90 jours
17

I.S.F.A.

Mmoire dactuariat

A. R ENAUDIN

Pas de motif dexclusion pouvant tre lis laction du rgulateur


Le contrat ne doit faire intervenir que des tierces parties (ce qui exclue donc lutilisation de socits dassurance captives 3 )
Les polices remplissant ces conditions sont dites conformes Ble II. En pratique, il est
dusage dintroduire dans le modle un taux de couverture Ble II, qui traduit la conformit des polices dassurances aux exigences Ble II. Cela est d la complexit de certains
contrats o plusieurs assureurs ou rassureurs peuvent intervenir, et de la couverture des
polices propres chaque contrat, pouvant ne pas tre toujours tre dfinies selon les catgories de risque Ble II.

3.3.2

Principe dintgration dans le modle

Lintgration des couvertures dassurance dans le modle LDA se fait naturellement lors
de ltape des simulations de Monte-Carlo, car nous avons alors accs au montant individuel
des pertes, et pouvons si besoin appliquer leffet dune couverture dassurance.
Pour cela, un jeu complmentaire de paramtres caractrisant la police dassurance est
ajout au modle lors de cette tape. Il comprend la franchise, le taux dassurabilit, le taux
de couverture (taux de conformit des polices Ble II, dfini au paragraphe prcdent), le
plafond des sinistres, et enfin le plafond annuel.
En terme de montant rembours, cela se traduit par de la manire suivante, pour des
taux dassurabilit t1 et t2 (gnralement gaux 100% et 0%) :


Plafond par
sinistre

Franchise


Montant
rembours/sinistre
t2 (%)

t1 (%)

Pour un montant de perte enregistr infrieur la franchise, lassurance ne rembourse


rien
Lorsque le montant de perte excde la franchise mais reste en de du plafond, t1 %
du sinistre moins la franchise est rembours
Lorsque le montant excde le plafond par sinistre, le montant rembours est gal
t1 % de (plafond franchise) + t2 % de (perte plafond)
Il faut enfin vrifier que lconomie ne dpasse pas le plafond annuel, auquel cas il
faut ajouter la diffrence
Cet algorithme est appliqu chaque perte issue des simulations Monte-Carlo, aprs avoir
dtermin si la couverture de cette perte est susceptible dtre pris en compte dans le calcul
moyen de taux de couverture (conformit Ble II).

3.3.3

Effet sur les distributions

Lexemple suivant a t obtenu sur des pertes issues de la catgorie Dommages de


banque de dtail, susceptibles dtre couvertes par une police dassurance sur les immeubles.
Il est alors possible de comparer les distributions obtenues avec et sans la prise en compte
de leffet de cette police dassurance (suppose Ble II 95%), les diffrentes figures tant
rassembles figure 3.2.
Il est alors ais de vrifier leffet attendu, savoir une diminution de la charge en capital
3. Une captive dassurance est une entreprise de dassurance dtenue par une entreprise ou un groupe dentreprises qui nexercent pas leurs activits en tant quassureurs directs ou rassureurs. La mission dune captive se
limite la fourniture de produits de dassurance couvrant les risques de lentreprise ou du groupe dentreprises
dont elle fait partie.

18

I.S.F.A.

Mmoire dactuariat

A. R ENAUDIN

F IGURE 3.2 Comparaison des distributions issues du modle LDA avec la prise en compte de
polices dassurance (courbes rouges) et sans (en bleu)

3.4

Intgration des scnarios

Utilit et dfinition
En complment des calculs de charges en capital effectus partir des pertes internes
collectes, la banque intgre son calcul de risque une analyse de scnarios. Ils reprsentent
des vnements exceptionnels qui permettent de complter le profil de risques internes
dtermin sur la base des donnes historiques.
La mthodologie du Groupe Crdit Agricole repose sur une liste de 25 scnarios de base
dfinis de concert avec les autres institutions de la place. Chaque entit choisit au sein de
cette liste, les scnarios quelle dsire inclure dans son primtre de risque oprationnel. Ce
choix seffectue en fonction i) du mtier ou de lactivit exerce par lentit et, ii) de lenvironnement, de la sensibilit ou du niveau dexposition de lentit lvnement dclencheur
du sinistre li ce scnario de base.
Chaque entit peut galement retenir des scnarios additionnels si elle considre que
cela permet de prendre en considration certaines de ses spcificits. En moyenne, les entits
retiennent un douzaine de scnarios diffrents pour la dtermination de leurs exigences au
titre du risque oprationnel.
Construction dun scnario
Un scnario reprsente un vnement de risque blois au niveau le plus fin. Il est compos, en gnral, dun ensemble de trois points reprsentant chacun un couple (montant de
perte (potentielle ou avre) frquence de cette perte).
Ces trois points sont dfinis dires dexperts, et correspondent trois tats possibles
associs la ralisation de lvnement de risque :
hypothse haute : combinaison de facteurs danalyse (Cause, Dispositif de Contrles
Permanents et Priodiques) telle que la sinistralit soit la plus dfavorable,
hypothse moyenne : combinaison de facteurs danalyse telle que la sinistralit soit
juge intermdiaire,
hypothse basse : combinaison de facteurs telle que la sinistralit soit juge la moins
dfavorable.
19

I.S.F.A.

Mmoire dactuariat

A. R ENAUDIN

Les trois hypothses sont croissantes en termes de svrit et dcroissantes en termes


de frquence. La construction des scnarios seffectue sur la base dune fiche danalyse de
scnario renseigne par chaque entit comprenant toute une srie dinformations normes.
Traitement des donnes de scnarios
Les donnes des scnarios sont ensuite utilises pour dterminer les paramtres des lois
de svrit et de frquence suivant deux modes :
Scnario internalis : les donnes de pertes des scnarios sont intgres aux donnes
internes de pertes collectes par lentit sous condition du respect de critres mtiers et
statistiques (critre dhomognit au profil de pertes internes). Elles sont par consquent,
utilises conjointement avec les donnes de pertes internes pour ajuster les lois de frquence
et de svrit.
Scnario stand alone : les trois points de scnarios sont utiliss pour dterminer les
paramtres des distributions de frquence et de svrit par rsolution dun systme de 3
quations non linaires 3 inconnues (, , dans le cadre dune svrit lognormale et
dune frquence suivant une loi de Poisson). Prcisons ici que lutilisation de loi de svrit
comportant plus que deux paramtres ncessiterait dautant plus de points de scnarios.
Les scnarios stand alone sont alors traits comme des catgories de risque part entire
(calcul dune CaR correspondant aux paramtres pralablement calculs).

3.5

Des mthodes alternatives pour le calcul de la charge


en capital

Etant donn le temps de calcul parfois consquent requis par ltape de simulations de
Monte-Carlo pour obtenir la distribution agrge avec une bonne prcision, il peut tre
souhaitable dutiliser dautres techniques numriques afin dacclrer le calcul de charge en
capital. Nous prsentons ci-dessous les deux mthodes les plus populaires pour le calcul des
distributions convolues, leurs avantages et leurs inconvnients.

3.5.1

Algorithme rcursif de Panjer

Prsentation
Cest la mthode la plus connue pour le calcul des distributions convolues, notamment
utilise en assurance non-vie dans le cadre du modle collectif. Initialement prsente par
Harry Panjer dans [25] sous le nom de Panjer recursion, elle se fonde sur le thorme suivant.
Avec les notations introduites prcdemment et lquation (3.2), il est possible dcrire
la densit de la perte annuelle `N comme
g(x) =

p(k)f k (x)

k=0

Soit en discrtisant selon une grille de N points de pas h > 0,


gn = P (`N = hn) =

p(j)f n (x)

j=0

Le thorme de Panjer indique alors que si la variable alatoire N suit une loi de frquence
discrte Q = {qk }k N pouvant scrire pour k > 1 sous la forme p(k) = (a + b/k) .p(k
1) avec a, b R, alors la distribution agrge discrte gn peut tre calcule de manire
rcursive suivant la formule :

20

I.S.F.A.

Mmoire dactuariat

A. R ENAUDIN

gn



X
bj
=
fj gnj , n > 1
a+
n
j=1

g0

= p(0)

Application au modle LDA, avantages, inconvnients


Notons tout dabord que la loi de Poisson employe dans le modle LDA pour la variable
alatoire N rentre bien dans les critres dapplications du thorme, avec a = 0 et b = .
Nous obtenons donc la formule rcursive suivante pour une svrit de densit f choisie :

gn =

X
j.fj .gnj
n j=1

Le principal intrt de la mthode est lobtention dune formule exacte (mme rcursive)
pour calculer chacun des termes de la distribution de probabilit. De ce fait, cette mthode
est thoriquement trs prcise car elle ne ncessite aucune mthode numrique (intgration,
drivation...) pour lvaluation des termes de la somme.
Pour autant, sa complexit et le temps de calcul en dcoulant la rend difficilement utilisable dans le cadre du modle LDA. En effet, pour chaque calcul dun terme de la somme gp
il faut parcourir toutes les valeurs
 calcules prcdemment (g1 , g2 , ..., gp1 ), soit une complexit algorithmique en O N 2 . Comme le nombre de point de discrtisation N doit tre
assez important pour obtenir une prcision suffisante, cela implique des temps de calculs
trs consquents. Cest notamment le cas pour de grandes valeurs de , qui a tendance a
alourdir les queues de distributions et ncessite donc un nombre de points de discrtisation
plus important afin de pouvoir correctement estimer le quantile 99.9% de la distribution agrge ; cest pourquoi cette mthode est trs peu utilise dans le domaine du risque
oprationnel.

3.5.2

F.F.T. (Fast Fourier Transform)

Fondements thoriques
Nous pouvons dfinir 4 la transforme de Fourier dune fonction relle f par


f (u)eivu du

F(f )(v) = g(v) =

et il est possible de retrouver f (sous conditions de rgularit appropries) laide de la


transforme de Fourier inverse :


+
1
F (g)(u) = f (u) =
g(v)eiuv dv
2
Ainsi, pour une variable alatoire Z, il est possible de relier sa densit fZ sa fonction
caractristique via les transformes de Fourier :
1



Z (u) = E eiuZ =

fZ (v)e

iuv

fZ (v)eiuv dv = F(fZ )(u)

dv =

Inversement, la densit se retrouve alors en crivant :




F 1 (Z )(u) = F 1 F(fZ )(u) = fZ (u) = fZ (u)
Il est donc possible de passer de la densit la fonction caractristique dune variable alatoire,et inversement, en manipulant ces transformes de Fourier.
4. Il existe dautres dfinitions, qui diffrent gnralement dun facteur selon la convention choisie.

21

I.S.F.A.

Mmoire dactuariat

A. R ENAUDIN

Application au calcul de charge en capital


Dans
PNle cadre du modle LDA, lobjet est de calculer la distribution de la perte annuelle
` =
i=1 i dont nous ne connaissons pas lexpression analytique, afin den dduire la
charge en capital comme un quantile de cette distribution . Or il est possible dexprimer
explicitement sa fonction caractristique ` au moyen de la fonction caractristique de la
svrit, elle-mme obtenue par transformation de Fourier de sa densit f (comme dtaill
au paragraphe ci-dessus).
En effet, les svrits tant considres comme indpendantes et identiquement distribues, en conditionnant selon la frquence N il vient :


N
`|N (u) = E eiu` | N = 1 2 ...N (u) = [ (u)]
Do en prenant lesprance,
h
i


 

N
` (u) = E eiu` = E E eiu` | N = E ( (u))
= gN ( (u))
 N
o gN (t) = E t
dsigne la fonction gnratrice de la variable alatoire discrte de frquence N , qui dans le cas dune loi de Poisson de paramtre vaut gN (t) = exp ((t 1)).
Il est alors possible dobtenir la densit f` comme transforme de Fourier inverse de
` . Le passage la fonction caractristique ainsi que son inversion se font en pratique en
utilisant lalgorithme FFT (ou FFT inverse), le plus performant numriquement 5 . Cest un
algorithme qui ncessite davoir discrtis les fonctions intervenant dans le processus prcdent selon une grille de points (x1 , x2 , ..., xNF F T ). La fonction de rpartition de ` et la CaR
associe se dduit alors par somme cumule du vecteur de densit discrtis.
En rsum, le processus de calcul par FFT de la charge en capital correspondant la
distribution convolue peut donc se dcrire de la faon suivante :
1. Discrtiser la fonction de densit de la svrit f
2. Utiliser lalgorithme FFT pour obtenir la fonction caractristique discrtise
3. Appliquer la fonction gnratrice gN
4. Utiliser lalgorithme FFT inverse pour obtenir le vecteur de densit discrtis f` .
5. Calculer le vecteur de la fonction de rpartition discrtise pour en dduire la charge
en capital recherche
Avantages et inconvnients
Le principal avantage de cette mthode est sa rapidit : alors que le calcul de CaR par
simulations de Monte-Carlo peut parfois savrer trs chronophage (plusieurs heures) , le
calcul par FFT est pour sa part quasiment immdiat (quelques secondes).
En revanche, cette mthode est assez instable numriquement et le choix des diffrents
paramtres peut savrer dlicat. En effet, les densits intervenant tant dfinies sur R+ , se
pose la question du choix de la borne suprieure de lintervalle de discrtisation ainsi que
du nombre de points choisir lintrieur de cet intervalle afin de conserver une prcision
de calcul suffisante. La problme est alors larbitrage entre un intervalle suffisamment grand
(afin quil contienne la CaR recherche) et un nombre de points de discrtisation assurant
une prcision satisfaisante (taille qui ne peut excder 231 1 sur une machine standard 32
bits). Ce problme numrique devient donc particulirement complexe lors de la manipulation de densits de lois queues paisses, pour lesquelles la FFT nest pas adapte.
Enfin, cette manire de procder rend par essence cette mthode incompatible avec la
prise en compte des assurances dans le calcul de charge en capital dtaille prcdemment
(3.3).
5. Pour une description plus prcise de lalgorithme FFT et de ses proprits se rfrer S CHALLER P et TEMNOV
G (2008), Efficient and Precise Computation of Convolutions : Applying FFT to Heavy Tailed Distributions, dans
Computational Methods in Applied Mathematics, Vol 8, No. 2, pp 187-200

22

Deuxime partie

Estimation de la svrit du
risque oprationnel

23

I.S.F.A.

Mmoire dactuariat

A. R ENAUDIN

Dans cette partie, il est question damliorer le modle LDA pralablement prsent au
niveau de ltape dterminante de lestimation des paramtres de svrit, et de trouver
des mthodes qui pourraient tre plus adaptes au contexte des donnes de pertes lies au
risque oprationnel.

24

Chapitre 4

Les mthodes destimation


usuelles
Dans ce chapitre, nous prsentons les deux mthodes destimation les plus couramment
employes dans le cadre du risque oprationnel, pour lestimation du paramtre = (, )
dune loi de svrit lognormale.

4.1

Quelques rappels thoriques sur les estimateurs

Afin de prsenter dans ce chapitre et le suivant les proprits des estimateurs obtenus,
nous rappelons certaines dfinition thoriques que nous utiliserons.
Convergence
n est un estimateur convergent de sil converge en probabilit vers , cest--dire si :
> 0, P (|n | > ) 0
n

Si la convergence a lieu presque srement (p.s.) alors lestimateur est dit fortement
convergent.
h i
h i
En pratique, une condition suffisante pour assurer la convergence est E n = et Var n
n
0.
Biais
h i
Lestimateur n est dit sans biais si pour tout n, E n = . Les valeurs de lestimateur
sont alors en moyenne autour du vrai paramtre, et ceci quelque soit la taille n de
lchantillon.
Lestimateur n est dit asymptotiquement
sans biais si le biais diminue quand la taille
h i
de lchantillon augmente : E n .
n

Efficacit Lestimateur n est dit efficace sil est de variance minimale parmi tous les estimateurs de ayant mme moyenne.
Normalit asymptotique Nous dirons que lestimateur n est asymptotiquement normal
(ou gaussien) sil existe deux suites de fonctions relles mn () et n (), cette dernire tant
strictement positive, telles que la suite :
Zn =

n mn ()
n ()
25

I.S.F.A.

Mmoire dactuariat

A. R ENAUDIN

converge en loi vers une variable alatoire de loi normale centre rduite.

4.2

La mthode du maximum de vraisemblance

4.2.1

Quelques gnralits

La mthode du maximum de vraisemblance (MLE pour Maximum Likelihood Estimation)


est la technique destimation la plus populaire en raison de ses bonnes proprits thoriques,
que le lecteur pourra trouver dans tous les manuels de statistique. Rappelons simplement
ici que lestimateur du maximum de vraisemblance est obtenu en maximisant la fonction de
vraisemblance (ou log-vraisemblance), et que lestimateur d
M L ainsi obtenu est sans biais,
asymptotiquement efficace, et possde la proprit de normalit asymptotique.
Nous rappelons la fonction densit lognormale choisie pour reprsenter la svrit des
pertes :
f (x; , ) =

(ln x)2
1
e 22
x 2

La log-vraisemblance scrit alors pour un chantillon de n pertes historiques (collectes


sans seuil) :
L(, ) =

n
X

ln f (i ; , )

i=1
n

n
n
1X
ln 2 ln 2
2
2
2 i=1

ln(i )

2

n
X

ln(i )

i=1

Les estimateurs
bM L et
bM L maximisent la fonction de log-vraisemblance, ils vrifient
donc L (b
ML ,
bML ) = 0 et L (b
ML ,
bML ) = 0 .
Un calcul analytique est possible et ils valent :
n

bML

4.2.2

2
1X
1X
ln i et
bML =
ln i
bML
=
n i=1
n i=1

Prise en compte de leffet de seuil

Pour les paramtres de svrit


La prsence de donnes tronques affecte lestimation de la distribution de svrit puisque
la distribution empirique (pertes effectivement collectes) est diffrente de la vraie distribution (celle que nous devons obtenir si aucune perte nest nglige) : il faut donc relier
la vraie distribution sa version empirique. Il faut alors considrer la vraisemblance conditionnelle. Pour une svrit lognormale et un seuil de collecte H, la densit conditionnelle
scrit en divisant par le terme normalisateur :
f (x; , )
f (x; , )
f (x; , |H) = 
1{xH} =
1{xH}
1

F (H; , )
f
(y;
,
)dy
H
Ceci se traduit par une modification de la fonction de log-vraisemblance :

L(, |H) =

n
X
i=1

ln f (i ; , |H) =

n
X

ln f (i ; , ) n ln (1 F (H; , ))

(4.1)

i=1

Le deuxime terme dpendant de et par lintermdiaire de la fonction de rpartition


lognormale F (dont il nexiste pas dexpression analytique), il ny a pas dans ce cas de
26

I.S.F.A.

Mmoire dactuariat

A. R ENAUDIN

formules fermes pour les estimateurs du maximum de vraisemblance. Loptimisation de


la vraisemblance se fait donc de manire numrique. Cet effet de seuil gnre donc de
linstabilit sur la fonction de vraisemblance, dont loptimisation est parfois complique (voir
la suite du rapport pour plus de prcisions, paragraphe 4.4.1).
Pour le paramtre de frquence
Nous rappelons que dans le modle LDA (cf. chapitre 3 page 15), le paramtre de frquence est estim via maximum de vraisemblance, par la moyenne empirique du nombre
sample . Si le biais de collecte nest pas
annuel de pertes dans lchantillon, estimateur not
pris en compte, utiliser cet estimateur sans correction signifierait quune banque utilisant
un seuil de collecte grand (ayant donc un faible nombre de pertes effectivement collectes)
devrait allouer moins de capital quune autre qui utiliserait un seuil plus faible. Ceci est
absurde et met donc en vidence la ncessit de corriger le paramtre de frquence pour
prendre en compte le biais de collecte.
Lexpression de lestimation du paramtre corrig de frquence sobtient daprs la loi de
Bayes :
corr =

sample

1 F (H;
,
)

Il faut donc effectuer cette correction aprs avoir estim les paramtres de svrit ltape
prcdente par
et
.

4.3
4.3.1

La mthode des moments gnralise


Prsentation thorique

Lide de cette mthode (Generalized Method of Moments, GMM ou MMG) est de chercher le paramtre qui minimise lcart entre les deux premiers moments thoriques (dpendants de ) et leurs quivalents empiriques (dpendant des donnes). Au lieu dexploiter
linformation complte de la fonction de densit f des pertes (galement contenue dans la
fonction gnratrice des moments) il est aussi possible de nutiliser quun nombre restreint
de moments. videmment, cette perte dinformation se traduit par de moins bonnes proprits thoriques par rapport au maximum de vraisemblance.
Notations
Le vecteur des pertes est not (i )i=1..n . Comme rappel dans la section prcdente, il
nous faut prendre en compte la censure gauche des donnes de pertes. Nous nous intresserons donc aux deux premiers moments thoriques conditionnellement au seuil H nots
respectivement m1 (, ) et m2 (, ), qui sobtiennent en calculant lintgrale pour p = 1..2 :
E [ p | > H] =

1
1 F (H; , )

+
H

2
xp1 (ln x)
2 2
e
dx
2

Les dtails du calcul sont donns par Frachot et al. (2001) ([6]), pour obtenir :



ln H(+ 2 )

m1 (, ) =
e+ /2
1( ln H
)



ln H(+2 2 )

m2 (, ) =
e2(+ )
1( ln H
)

o dsigne la fonction de rpartition de la loi normale centre rduite.

27

I.S.F.A.

Mmoire dactuariat

Leurs contreparties empiriques sont :


(
m
1 =
m
2 =

1
n
1
n

A. R ENAUDIN

Pn
i
Pi=1
n
2
(
i=1 i )

Nous noterons galement g () = (g1 (), g2 ()) le vecteur des diffrences entre moments
thoriques et empiriques 1 :
(
g1 () = m1 () m
1
g2 () = m2 () m
2
Principe
La rsolution de lquation vectorielle g () = 0 nadmettant pas de solution analytique,
nous sommes amens la rsoudre numriquement de manire approche, en minimisant
une distance entre g () et 0. Nous nous donnons pour cela une matrice symtrique dfinie
positive W afin de minimiser la forme quadratique suivante :
Q () = t g () W g ()

(4.2)

ce qui fournit lestimateur GM M .

4.3.2

Choix de la matrice de pondration et influence sur lestimation

Nous pouvons montrer que le choix de W ninfluence pas la convergence de la mthode


vers le vrai paramtre 0 (voir pour cela Hansen (1982) [3]). Cependant, ce choix influe sur
la variance asymptotique de lestimateur obtenu.
Choix naf
Le choix de W = I (matrice identit) fournit un estimateur not (1) asymptotiquement
normal et consistant, cest--dire convergent vers la vraie valeur du paramtre 0 . Il nest
cependant pas efficace (au sens o sa variance asymptotique nest pas optimale). Ce choix
de W revient alors chercher lestimateur des moindres carrs minimisant g12 + g22 cest
dire :
(1) = argmin

2
X

(mi () m
i )

i=1

Nous reprsentons sur la figure 4.1 le biais de cet estimateur en fonction de la taille n
de lchantillon log-normal de paramtres = 8 et = 2. Pour chaque chantillon, le biais
a t moyenn sur N = 50 simulations.

Choix optimal
Il existe un choix optimal de W permettant dobtenir une variance asymptotique minimale
pour lestimateur (voir de nouveau [3] pour les dtails thoriques). En notant les moments
unitaires empiriques centrs dordre 1 et 2 hi,1 = i m1 () et hi,2 = i m2 (), et les
vecteurs h1 =t (h1,1 , ..., hn,1 ) et h2 =t (h1,2 , ..., hn,2 ), la matrice optimale est dfinie par :
1. Il est aussi possible dutiliser la variance de la loi au lieu du moment thorique dordre 2 : lquivalent
empirique est alors la variance empirique des pertes. Cela ninflue pas sur lestimation obtenue.

28

I.S.F.A.

Mmoire dactuariat

A. R ENAUDIN

Biais Sigma MMG2 N=50

0.0
0.2
0.4
0.6

biaisMMGmodif3_N50_n2000$biais_sigma

1.0

0.8

0.5
0.0
0.5

biaisMMG_N50_n2000$biais_mu_with_n

1.0

0.2

Biais Mu MMG N=50

500

1000

1500

2000

500

1000

1500

2000

F IGURE 4.1 Biais des estimateurs de et obtenus avec le choix W = I

var(h1 )
cov(h1 , h2 )
cov(h1 , h2 )
var(h2 )
1
t
= h1 h2

1

Wopt = [cov(hi )]i=1..2 =

Lestimateur obtenu en minimisant lquation (4.2) est alors efficace au sens o sa variance est la plus petite possible (en dfinissant la relation dordre sur les matrices : A < B
B A est semi-dfinie positive) parmi cette classe destimateurs.
Nous le remarquons clairement sur la figure 4.2 o lestimateur obtenu prsente une
volatilit moins importante que prcdemment.
Biais Sigma MMG N=50

0.0
0.2
0.4
1.0

0.8

0.6

biaisMMG_N50_n2000$biais_sigma

0.8
0.6
0.4
0.2
0.0
0.2

biaisMMGmodif3_N50_n2000$biais_mu_with_n

0.2

1.0

Biais Mu MMG2 N=50

500

1000

1500

2000

500

1000

1500

2000

F IGURE 4.2 Biais des estimateurs de et obtenus avec le choix W = Wopt

4.3.3

Les diffrents algorithmes pour implmenter la mthode

Two-Step MMG
Cest la premire version de la MMG, prsente par H ANSEN (1982) (cf. [3]). Comme
son nom lindique, lalgorithme comporte seulement 2 tapes pour calculer lestimateur
2SGM M :

29

I.S.F.A.

Mmoire dactuariat

A. R ENAUDIN

Algorithme 4.1 2-step MMG


1. Calculer (1) en minimisant (4.2) avec W = I

2. Calculer 2SGM M en minimisant (4.2) avec W = W (1)
Cette version possde lavantage dtre relativement peu coteuse en temps de calcul
(2 minimisations effectuer, dans lesquelles W ne dpend pas de ). Elle est en revanche
moins prcise que les mthodes qui suivent, puisquune estimation grossire de la matrice
de covariance est utilise.
Iterative MMG
Les deux versions amliores suivantes ont t proposes par Hansen et al. (1996) ([4]).
Dans cette version, nous itrons la mthode prcdente jusqu lobtention dun critre de
convergence pour obtenir IT GM M :
Algorithme 4.2 Iterative MMG
1. Calculer (1) en minimisant (4.2) avec W = I
2. Calculer (2) en minimisant (4.2) avec W = W (1)

3. Si |(2) (1) | < alors IT GM M := (2) sinon retourner l'tape 2 avec


(1) (2)
4. Dfinir IT GM M := (2)
o > 0 est un critre de convergence que nous pouvons prendre arbitrairement proche
de 0 pour amliorer la convergence de la mthode. Cette mthode est donc plus prcise
mais plus coteuse en temps de calcul.

Continuous-updating MMG
Dans cette dernire version, la minimisation est directement faite sur lquation (4.2), o
W dpend explicitement de , la matrice est donc recalcule chaque itration de lalgorithme doptimisation lors de la recherche du minimum :
IT GM M := argmin t g () W ()g ()

Cette mthode a pour avantage dtre directement implmentable. Cependant, la non


linarit et la complexit de la fonction optimiser font que cette mthode est relativement
instable et sensible lalgorithme doptimisation choisi et ses starting values.

4.4

Difficults destimation rencontres

Dans cette section, nous mettons en exergue les diffrentes difficults quinduit lutilisation des mthodes destimation dites standard que sont le maximum de vraisemblance et
la mthode des moments gnralise. Nous montrons en quoi elles posent parfois problme
pour estimer la svrit du risque oprationnel, en lillustrant sur des exemples rels.

4.4.1

Linstabilit de la vraisemblance en prsence dun seuil de collecte

Prsentation du problme
Lobstacle le plus gnant lutilisation de lestimation par maximum de vraisemblance
30

I.S.F.A.

Mmoire dactuariat

A. R ENAUDIN

dans le cadre du risque oprationnel est linstabilit de la vraisemblance optimiser. En


effet, le seuil de collecte modifie la vraisemblance qui devient non convexe et trs instable
numriquement.
Nous rappelons lexpression de la vraisemblance dans le cas de n pertes oprationnelles
i collectes au dessus dun seuil H :
L(, | H) =

n
Y
i=i

f (i ; , )
1 F (H; , )

La prsence dun seuil de collecte ajoute donc un facteur 1/ (1 F (H; , )) toutes les
contributions des observations la vraisemblance. Or ce terme peut devenir trs grand pour
certaines valeurs de (, ), ce qui complique fortement loptimisation numrique lors de la
recherche du maximum (bien videmment, le mme problme se pose si nous utilisons la
log-vraisemblance).
Afin de mieux nous en convaincre, nous traons sur la figure 4.3 le terme figurant au
dnominateur de la fonction de vraisemblance pour le seuil de collecte en vigueur au Crdit
Agricole (H = 1000C) en fonction de et .

F IGURE 4.3 Comportement du terme au dnominateur de la vraisemblance pour H = 1000


Nous observons alors que ce dnominateur est trs proche de 0 ds que devient ngatif. Si la vraisemblance ne prsente pas de maximum au niveau des starting values de
lalgorithme doptimisation (gnralement de lordre de 0 = 8 et 0 = 2) alors ce dernier
va aller chercher lextrmum de la fonction sur une plage de valeurs o le paramtre est
ngatif, zone o la vraisemblance devient trs instable en raison du facteur au dnominateur de la vraisemblance.

Mise en vidence sur donnes relles


Nous pouvons illustrer ce cas sur donnes relles : loppos de la log-vraisemblance (
minimiser) est ainsi trace figure 4.4 en fonction de ( tant fix 2), pour un chantillon
de 191 pertes de la catgorie dommages survenues entre 2003 et 2007. Cet chantillon
de pertes a t choisi en raison de ses mauvaises proprits (prsence de plusieurs pertes
gales et de pertes extrmes, faible adquation au modle log-normal...) afin de mettre
mal les mthodes destimation de sa svrit. Il fait dailleurs partie des catgories mises en
vidence prcdemment au travers des boxplots (figure 1.1 page 5 ).
Nous remarquons ainsi une forte instabilit de la fonction minimiser ds que 67.
Ceci laisse penser que le minimum trouv par lalgorithme doptimisation, sil converge,
sera incohrent. Pour illustrer ces problmes numriques, le logiciel R indique que la valeur
de loppos de la log-vraisemblance en ( = 10, = 2) vaut .
31

I.S.F.A.

Mmoire dactuariat

A. R ENAUDIN

2000

1950

1900

1850

1800

1750

10

mu

F IGURE 4.4 Oppos de la log-vraisemblance dun chantillon rel de la catgorie dommages


(banque de dtail) en fonction de , pour = 2.
Dans ces conditions, nous comprenons que la mthode du maximum de vraisemblance
est ici inapplicable et inadapte. Pourtant, le rsultat de loptimisation avec le mme logiciel
semble tout de mme converger (retour du code 0 dans le champ $convergence) :

> optim(c(8,2),NegLogVrais, method = "Nelder-Mead")


$par [1] -87.05392 11.51389
$value [1] 1567.848
$convergence [1] 0
Pour autant, les paramtres estims (
= 87.05,
= 11.51) sont absurdes dun point
de vue mtier comme nous lexpliquons dans le paragraphe suivant.
Le problme des 6 0
A ce stade de ltude, nous pouvons nous poser la question de savoir comment interprter les rsultats de lestimation, et si certaines valeurs de paramtres sont en pratique
inacceptables.
Dun point de vue thorique, la seule contrainte sur les paramtres dun modle lognormal est > 0. Le rsultat prcdent est donc en thorie valable. En revanche, une fois
les paramtres de ce modle estims, la proportion de pertes infrieures au seuil sestime
par F (H;
,
). Comme lavons constat sur la figure 4.3, ce terme est trs proche de 1 ds
que 6 0 : toute la masse de probabilit est donc concentre en-de du seuil. Ceci est trs
dangereux dun point de vue mtier car les pertes extrmes (bien suprieures 1000 C) ne
sont alors pas du tout prises en compte par le modle. De plus, comme nous le verrons par
la suite, un calcul de charge en capital avec un paramtre ngatif conduit des valeurs
aberrantes.
Dans toute la suite de ltude, nous rejetterons donc systmatiquement les rsultats destimation menant un ngatif, en considrant la mthode inadapte au problme.
Un mot sur lalgorithme doptimisation
Prcisons ici que le problme identifi auparavant nest pas spcifique lalgorithme doptimisation employ. Les rsultats prcdents ont t obtenus en utilisant la mthode du
simplexe de Nelder-Mead 2 implmente dans R, qui parait la mthode doptimisation la
plus adapte au problme. En effet, contrairement aux algorithmes comme la descente de
2. John Nelder et Roger Mead (1965), A simplex method for function minimization, dans Computer Journal,
vol. 7, No.4

32

I.S.F.A.

Mmoire dactuariat

A. R ENAUDIN

gradient ou ses drivs (BFGS), elle ne calcule pas la matrice Hessienne de la fonction optimiser, et ne fait quvaluer successivement la fonction en des points judicieusement choisis.
De plus, elle est beaucoup moins sensible aux starting values donnes.
Nous avons donc test les principales mthodes doptimisation sur la srie de pertes prcdente (disponibles sous R en argument de la commande optim), y compris loptimisation
sous contraintes. Nous recensons les rsultats dans le tableau 4.1.
Mthode doptimisation

M L

M L

- Log-vrais

Convergence

Nelder-Mead

-87.1

11.5

1567.8

Oui

BFGS

-42.7

8.49

1645.6

Oui

Gradient-conjugu

-4.22

4.40

1648.3

Non

BFGS-B (contrainte : > 0)

0.00

3.68

1841.2

Oui

BFGS-B (contrainte : > 2)

2.00

3.29

1842.9

Oui

TABLE 4.1 Rsultat des diffrentes mthodes doptimisation de la log-vraisemblance sur donnes relles (catgorie dommages de la banque de dtail)
Nous pouvons alors observer que la mthode de Nelder-Mead donne les meilleurs
rsultats, en tout cas en ce qui concerne la valeur de la fonction objectif. Lutilisation de
loptimisation sous contraintes (au moyen de lalgorithme BFGS with Bounds) est un chec,
dans le sens o la contrainte est systmatiquement sature. Cela laisse donc penser que la
vraisemblance, sur ces donnes relles, ne possde pas dextrmum local dans la rgion des
valeurs positives de .
Tentative dexplication thorique
Terminons enfin en apportant un argument thorique au problme mis en vidence. En
effet, les bonnes proprits thoriques du maximum de vraisemblance (notamment son efficacit et surtout labsence de biais dans les estimations) requirent certaines hypothses,
dont la plus fondamentale est la bonne adquation du modle paramtrique dajustement :
la loi du phnomne observ doit ici appartenir la famille lognormale. Or ce nest manifestement pas le cas sur cet exemple, comme en tmoigne la densit empirique trace
sur la figure 4.5 : elle semble assez loigne dune distribution lognormale, et parait avoir
plusieurs modes.

F IGURE 4.5 Densit empirique de pertes relles de la catgorie dommage


En consquence de quoi la convergence de lestimateur nest plus assure (cf. [12]), ce
qui explique en partie les rsultats incohrents obtenus sur lchantillon rel, et linadqua33

I.S.F.A.

Mmoire dactuariat

A. R ENAUDIN

tion de la mthode du maximum de vraisemblance lestimation des paramtres de svrit


du risque oprationnel sous lhypothse lognormale.

4.4.2

Le biais de la mthode des moments gnralise

La mthode des moments gnralise ne souffre pas des cueils voqus prcdemment.
En effet, la fonction optimiser (4.2 p.28) numriquement reste suffisamment rgulire
mme avec la prise en compte du seuil de collecte. Lalgorithme doptimisation converge
ainsi systmatiquement, vers des valeurs positives de sur des donnes relles. Cest en
partie pour cela quelle a t choisie pour estimer les paramtres de svrit des pertes
oprationnelles au Crdit Agricole.
Cependant, ses proprits thoriques ne sont pas comparables celle du maximum de
vraisemblance. En effet, contrairement au maximum de vraisemblance, elle nest quasymptotiquement sans biais, et converge lentement vers la vraie valeur du paramtre (comme
nous pouvions dj le pressentir au vu de la figure 4.2 page 29). Afin de mettre en vidence
le problme de manire plus dtaille, nous effectuons des simulations avec un paramtre
fix 5, un paramtre allant de 1 2,5 et une volumtrie comprise entre 0 et 5000
observations. Nous estimons alors les paramtres et pour calculer un cart relatif en
valeur absolue, chaque cart tant moyenn
sur la base de N = 100 estimations. En notant
 
0 la vraie valeur du paramtre et ni
ses estimations successives par MMG, nous
i=1..N

traons donc pour chaque n la valeur de lcart :






n 0
n =
0
Les rsultats sont regroups sur la figure 4.6.

F IGURE 4.6 Valeur absolue de lcart relatif sur lestimation des paramtres et par MMG
Nous pouvons ainsi observer que le biais sur les paramtres est encore important mme
avec une volumtrie leve : de lordre de 10% pour 5000 observations quand vaut 2.
Comme en pratique les donnes issues du risque oprationnel dpassent rarement une taille
de n = 1000, le biais rsiduel est en pratique bien plus consquent. De ce fait, comme nous
le verrons dans la suite, lestimation de la charge en capital sera dautant moins fiable.

34

Chapitre 5

Les solutions alternatives


envisages
Nous exposons dans ce chapitre la dmarche scientifique suivie pour essayer de saffranchir des diffrents cueils des mthodes destimation prsentes auparavant. Elle aboutit
la dfinition de plusieurs mthodes alternatives dont nous prsentons les dtails thoriques.

5.1

Motivations et dmarche scientifique

Dans tout problme destimation statistique, la premire tape est le choix du modle
sous-jacent ici log-normal pour les pertes oprationnelles. Ensuite, lide est de se donner
une mesure de distance entre le modle thorique et les donnes relles, et de la rendre
aussi faible que possible. Par exemple, nous montrerons que la mthode du maximum de
vraisemblance est quivalente la minimisation dune distance entre la densit relle et
celle du modle thorique. En choisissant diffrentes mesures, nous obtenons autant de
mthodes destimation statistiques aux proprits diffrentes.
A ce stade, il est donc naturel de se poser les questions suivantes. Est-il possible dobtenir
de meilleures mthodes destimation que celles prsentes prcdemment en jouant sur les
mesures de distance minimiser ? Sont-elles plus adaptes au cadre du risque oprationnel ?

5.2

Une autre approximation de la distance minimise par


le maximum de vraisemblance

Nous montrons dans ce paragraphe que la mthode du maximum de vraisemblance est


quivalente la minimisation dune distance particulire, que nous cherchons approximer
autrement afin dobtenir une mthode destimation un peu plus robuste.

5.2.1

Introduction de la distance K-L

Dans leur article de 1951 intitul On information and Sufficiency, Kullback et Leibler
proposent une mesure de distance entre deux densits de probabilits. Si R et S sont deux
variables alatoires continues de densits respectives r et s de mme support X , alors la
distance entre leurs densits peut tre mesure par :


D(r, s) = D(R||S) =

r(x) ln
xX

35

r(x)
dx
s(x)

I.S.F.A.

Mmoire dactuariat

A. R ENAUDIN

o D(r, s) 0, avec galit ssi r(x) = s(x) p.p.


N.B. : Il ne sagit pas dune distance au sens mathmatique du terme car elle ne possde
pas la proprit de symtrie (D(r, s) 6= D(s, r)). Cest pourquoi elle est aussi appele mesure de divergence de Kullback-Leibler (K-L).
Dans le cas simple de deux variables alatoires normales R N (R , R ) et S
N (S , S ) , il est possible dillustrer cette notion sur des exemples. Nous pouvons alors
calculer :
1
D(r, s) =
2


2
R
R
(R S )
ln
1 +
S
S
2S

Ceci peut tre reprsent graphiquement pour diffrentes valeurs des paramtres (voir pour
cela la figure 5.1).

F IGURE 5.1 Distances K-L entre deux distributions normales pour diffrents paramtres
(source : prsentation de Rudolf Kulhavy, A Kullback-Leibler Distance Approach to System
Identification, Academy of Sciences of the Czech Republic)

5.2.2

Application au maximum de vraisemblance

Soient 1 , 2 , ..., n les variables i.i.d. reprsentant les pertes oprationnelles issues de la
vraie distribution de densit g. Nous voulons ajuster un modle paramtrique de densit
thorique {f , R}. La distance K-L entre ces distributions est alors :


D(g, f ) =

g(x) ln

g(x)
dx =
f (x)

g(x) ln g(x)dx

g(x) ln f (x)dx

(5.1)

qui dans le cas discret sestime le plus simplement par :


n

1X
1X
ln g(i )
ln f (i )
n i=1
n i=1
La vraie densit g tant inconnue, minimiser (5.2) est alors quivalent maximiser :
n
X

ln f (i )

i=1

36

(5.2)

I.S.F.A.

Mmoire dactuariat

A. R ENAUDIN

qui est la fonction de log-vraisemblance.

5.2.3

Lestimation par Maximum Spacing (MS)

Principe thorique
Reprenons les notations prcdentes, en notant G et F les fonctions de rpartition correspondant aux densits g et f . Nous pouvons alors obtenir une autre approximation de la
mesure K-L (quation 5.1) entre distributions empirique et thorique.
En effet, en considrant les statistiques dordre (1) 6 (2) 6 ..., nous pouvons crire au
premier ordre :
f ((j) )

F ((j) ) F ((j1) )
(j) (j1)

En effectuant la mme approximation pour la densit g, alors nous obtenons une nouvelle approximation discrte de (5.1) :
n+1
G((j) ) G((j1) )
1 X
ln
n + 1 j=1 F ((j) ) F ((j1) )

(5.3)

Minimiser cette expression est quivalent maximiser :


Sn () =

n+1
X



ln F ((j) ) F ((j1) ; )

(5.4)

j=1

Le paramtre ralisant le maximum de cette expression est appel estimateur par Maximum Spacing (littralement : maximum despacement) not M S .
N.B. : En notant D(j) () = F ((j) ) F ((j1) ) les espacements, nous pouvons reprsenter graphiquement le principe de la mthode (voir figure 5.2). En effet, lexpression
(5.4) peut se rcrire :
Sn () =

n+1
X

ln

D(1) D(2) ...D(n+1)

1 i
 n+1

j=1

Il sagit donc, pour effectuer lestimation, de maximiser la moyenne gomtrique des


espacements D(j) () ce qui revient trouver une distribution uniformisant leur longueur.

F IGURE 5.2 Principe de lestimation par Maximum Spacing (source : Wikipedia)

37

I.S.F.A.

Mmoire dactuariat

A. R ENAUDIN

Proprits de lestimateur obtenu


Sagissant dune mthode drive du maximum de vraisemblance, nous pouvons nous
attendre trouver des proprits trs proches sur les estimateurs obtenus. Sous certaines
conditions de rgularit, Ranneby [7] prouve la convergence de lestimateur du Maximum
Spacing, ainsi que sa normalit et son efficacit asymptotiques.
Cheng et Traylor [10] montrent galement que ces conditions de rgularit du modle
sous-jacent sont plus larges que dans le cas du maximum de vraisemblance. Ainsi dans
certains cas, lestimation par maximum spacing produit des estimateurs convergents quand
le maximum de vraisemblance ne russit pas estimer les paramtres (en raison de densits
non bornes, par exemple dans le cas de mlanges de lois). Cette mthode destimation
parait donc avoir de bonnes proprits thoriques tout en tant un peu plus robuste que le
maximum de vraisemblance. Nanmoins, elle prsente tout de mme certaines difficults
destimation.
Les obstacles rsiduels lestimation
Nous pouvons prsent remarquer que lexpression maximiser (5.4) pour obtenir lestimation est sensible aux observations gales. En effet, sil existe un j tel que (j) = (j1)
alors elle devient infinie.
Pour viter cet cueil, Cheng et Amin [11] proposent dans ce cas de remplacer la valeur
de D(j) () par la valeur de la densit f ((j) ), tant donn que :
lim

(j) (j1)

1
(j) (j1)

(j)

f (x)dx = f ((j1) ) = f ((j) )


(j1)

Lorsque la collecte recense plusieurs pertes de montant similaire (assez courant dans le
cadre du risque oprationnel), les contributions lexpression maximiser sont donc sensiblement les mmes que dans le cas du maximum de vraisemblance.
L encore, la prise en compte du seuil de collecte nous oblige modifier la fonction de
rpartition utiliser dans lquation (5.4). En effet, il faut utiliser la fonction de rpartition conditionnellement au seuil H, ce qui nous oblige remplacer F (x) par F|H (x) =
(x)F (H)
P ( < x | > H) = F1F
. De ce fait, nous retrouvons le terme en 1 F (H) au d (H)
nominateur de lexpression minimiser, ce qui comme nous lavons vu pose problme lors
de loptimisation.
Nous nous attendons donc retrouver certaines difficults destimation rencontres avec
le maximum de vraisemblance.
Illusration sur un exemple rel
Afin davoir une ide des rsultats pouvant tre obtenus avec cette mthode destimation,
nous lappliquons sur une catgorie de pertes relles. Il sagit de la fraude interne collecte
par une banque dinvestissement, comportant 47 pertes. Notons quil sagit plus prcisment
des pertes hors montique (cest--dire hors petits montants lis lutilisation frauduleuse
de cartes bleues). Ces donnes sont donc susceptibles de comporter des pertes extrmes.
Nous recensons dans le tableau 5.1 la valeur des estimateurs obtenus avec la mthode
du maximum spacing (MS) et, pour comparaison, avec les deux autres mthodes dtailles
prcdemment. Nous remarquons que le problme destimation mis en exergue pour le
maximum de vraisemblance est prsent. En revanche, il napparait pas sur lestimateur par
maximum spacing, ce qui confirme quil est plus robuste dans certains cas.
Les mthodes MS et MMG donnent donc sur cet exemple rel des rsultats qui semblent
corrects premire vue. Pour avoir une premire ide de ladquation des pertes au modle
log-normal avec les paramtres estims par ces mthodes, nous traons galement les QQplots sur la figure 5.3.
38

I.S.F.A.

Mmoire dactuariat

MS

ML

MMG

4.11

-73.8

8.75

3.34

10.2

1.51

A. R ENAUDIN

TABLE 5.1 Rsultats destimation sur la catgorie Fraude Interne de la banque dinvestissement

F IGURE 5.3 QQ-plots log-normaux avec les paramtres estims par MS et MMG, pour la
fraude externe de la banque dinvestissement
Nous pouvons alors observer que ladquation semble meilleure avec une estimation des
paramtres de svrit par maximum spacing que par la mthode des moments gnralises.
Ceci conforte lanalyse prcdente (paragraphe 4.4.2 page 34) sur le biais des paramtres
estims, lchantillon tant ici de petite taille (n = 47).
Prcisons enfin que lestimation MS pour la svrit de lchantillon dommages (donn
en exemple au paragraphe 4.4.1 page 31) donne peu de choses prs les mmes rsultats
que par maximum de vraisemblance, cest--dire inacceptables dun point de vue mtier.
Cette mthode nest donc pas tout fait approprie notre problmatique.

5.3

Minimisation de statistiques de tests

Dans ce paragraphe, nous proposons dutiliser la thorie des tests et ses statistiques
comme mesures de distances minimiser afin de tenter dobtenir des mthodes destimation
alternatives plus adaptes au risque oprationnel.
Plusieurs statistiques couramment utilises dans la thorie des tests sont des mesures de
distance entre la fonction de rpartition empirique Fn et la fonction de rpartition thorique
du modle paramtrique ajuster F , qui est ici log-normal. Nous rappelons que la fonction
de rpartition empirique Fn est dfinie par :
n

Fn (x) =

1X
1{x6(j) }
n j=1

Nous
noterons dans la suite zH := F (H) et zj := F ((j) ), et comme prcdemment

(j) j=1..n dsignent les statistiques dordre de lchantillon de pertes considr. En prsence dun seuil de collecte (donnes censures gauche), les deux hypothses testes sont
Fn F|H contre Fn
/ F|H (voir le paragraphe 5.2.3 page 38 pour la dfinition de F|H ).
Deux types de tests dajustement, et donc de distance, vont tre prsents. La premire
statistique de test, Kolmogorov-Smirnov (KS), se base sur la distance mesurant lcart maximum rsidant entre Fn et F|H . Les autres sappuient sur une distance quadratique entre
39

I.S.F.A.

Mmoire dactuariat

A. R ENAUDIN

ces deux fonctions de rpartition prenant ainsi en compte lensemble des carts et non pas
seulement un cart local. Cest le cas des tests de type Cramer von Mises (CvM) et Anderson
Darling (AD). Nous prsentons dans la suite leurs proprits thoriques.
Quelques aspects thoriques
Lestimation de paramtres par minimisation de distance a t originellement propose
par Wolfowitz en 1953 ([15]). En notant (., .) une fonction retournant une distance entre
deux fonctions de rpartitions, elle peut se formaliser comme suit : sil existe tel que
(Fn , F) = inf {(Fn , F ), }, alors est appel estimateur par minimum de distance
de .
Wolfowitz (1953) prouve la convergence de lestimateur obtenu avec la distance (F1 , F2 ) =
sup |F1 (x) F2 (x)|. Diffrents auteurs la gnralisent ensuite plusieurs autres types de
x

distances, notamment des distances quadratiques pour lesquelles lestimateur obtenu est
asymptotiquement normal (cf. [16] pour un tat de lart complet).
Les principaux attraits des estimateurs par minimum de distance est leur relative simplicit de mise en uvre (moyennant un algorithme doptimisation performant), ainsi que
leurs bonnes proprits quand le modle thorique paramtrique conjectur nest pas correct, ce qui nous lavons vu parait tre le cas pour certaines sries de pertes issues du risque
oprationnel comme EL5 (dommages aux actifs corporels) : se rfrer au graphique 1.1
page 5.
Statistique KS
La distance mesure par la statistique de Kolmogorov-Smirnov est lcart maximal entre
la distribution empirique et la distribution paramtrique du modle ajuster :
KS() =



nsup Fn (x) F|H (x)
x

Dans la pratique (voir [13]), nous calculons :

KS = nsup Fn ((j) ) F|H ((j) ) =


j


KS = nsup F|H ((j) ) Fn ((j) ) =


j



n
j
1zH sup zH + n (1 zH ) zj
j



n
sup
zj zH j1
1zH
n (1 zH )
j

Puis :


KS() = max KS + , KS
Lestimateur KS est alors obtenu en minimisant cette distance :
KS := argmin KS()

Statistique CvM
En gnral, les statistiques bases sur des distances quadratiques sont regroupes en une
famille, dite de Cramer von Mises, et a pour forme gnrale en prsence dun seuil H :



Fn (x) F|H (x) 2 (F|H )dF|H (x)

Q() = n
H

o est une fonction de pondration des diffrentes observations.


Dans le cas dune pondration uniforme ((x) = 1), nous obtenons une distance quadratique mesurant lcart moyen entre distributions empirique et thorique, appele statistique
de Cramer Von Mises. En discrtisant lintgrale selon les observations et en effectuant des
40

I.S.F.A.

Mmoire dactuariat

A. R ENAUDIN

changements de variables (se reporter [13] pour les dtails), nous pouvons dmontrer
que cette statistique peut galement scrire :

W 2 () =

n
n
X
X
n
nzH
1
1
2
+
+
(1 2j)zj +
(zj zH )
3
1 zH
n(1 zH ) j=1
(1 zH )2 j=1

Cest cette forme que nous utiliserons en pratique pour minimiser cette distance et obtenir :
CV M := argmin W 2 ()

Statistique AD up
La statistique dAnderson
Darling est obtenue en changeant la fonction de pondration

( = F|H 1 F|H ) afin dattribuer plus de poids aux observations en queues de distribution (queues gauche et droite). Lobjectif de gestion du risque oprationnel tant de se prmunir face aux pertes extrmes exceptionnelles, cest lajustement de la queue droite de la
distribution qui revt une importance particulire. Cest une version lgrement modifie de
2
la statistique AD que nous utiliserons donc, avec une pondration (F|H ) = 1 F|H
qui attribue un poids plus important aux pertes extrmes, et un poids moindre aux pertes
moins svres. Nous la nommerons AD up et nous pouvons montrer quelle vaut ici (voir
encore [13] pour les tapes du calcul) :
2
ADup
() = 2n ln(1 zH ) + 2

n
X

ln(1 zj ) +

j=1

n
1 zH X (1 + 2(n j))
n j=1
1 zj

Comme prcdemment, nous dfinissons :


2
ADup := argmin ADup
()

5.4

Minimisation dune distance inter-quantiles

Nous proposons ici une dernire mesure de distance qui pourrait tre minimise afin
destimer les paramtres de svrit du risque oprationnel. Cette mthode destimation
ainsi que ses proprits thoriques ont t originellement prsentes par LaRiccia, et LaRiccia et Wehrly [9].

5.4.1

Principe de la mthode

Le principe de cette approche est similaire lanalyse des QQ-plots, outils graphiques
permettant de juger de ladquation entre des estimations et des donnes relles et consistant tracer les quantiles empiriques (issus des donnes), en fonction des quantiles thoriques (issus du modle paramtrique ajust). Lorsque ladquation est parfaite, les points
observs se situent le long de la premire bissectrice du repre. Il sagit donc doptimiser
lestimation de manire ce que les quantiles thoriques les plus proches possibles des
quantiles empiriques.
Pour un chantillon de n pertes 1 , . . . , n collectes au-del dun seuil H, nous nous
intressons la distance quadratique entre k quantiles empiriques qb(p1 ), . . . , qb(pk ) et quantiles thoriques F1 (pi ), o F1 est la fonction de rpartition inverse et le vecteur de
paramtres de la loi ajuster. La distance inter-quantiles scrit classiquement :
Q2 (, p, ) =

k
X


2
i qb(pi ) F1 (pi )

i=1

41

I.S.F.A.

Mmoire dactuariat

A. R ENAUDIN

p = (p1 , . . . , pk )0 est le vecteur des niveaux des quantiles ajuster, avec 0 < p1 < . . . < pk <
1
= (1 , . . . , k )0 est le vecteur des poids attribus aux diffrents termes dajustement.
Les quantiles empiriques qb sont construits partir du vecteur de pertes de lchantillon, en
fonction du vecteur p = (p1 , . . . , pk )0 . Le ie`me quantile empirique correspond la ie`me perte
de lchantillon tri si le nombre est entier, et une interpolation linaire entre les deux
pertes les plus proches sinon. Comme le montre la figure 5.4 ci-dessous, cela permet de
lisser les quantile empiriques et donc la fonction optimiser, ce qui produit de meilleurs
rsultats lors de loptimisation, notamment lorsque le nombre de donnes disponibles est
faible.

F IGURE 5.4 Fonctions quantiles empiriques (en bleu) et quantiles empiriques interpols (en
rouge) ; illustration sur un chantillon de fraude montique
Lobjectif de lestimation est donc de trouver le paramtre = bQD minimisant la distance inter-quantiles Q2 (, p, ), afin dobtenir une bonne adquation entre les pertes observes (quantiles empiriques) et les pertes estimes par le modle paramtrique (quantiles
thoriques).

5.4.2

Pondration de la distance

Afin de limiter linstabilit numrique lie aux termes de la sommes lis des quantiles
extrmes dans lexpression de la distance, nous choisissons de considrer les carts relatifs
entre quantiles en utilisant linverse du quantile empirique en guise de pondration :
i =

1
qb(pi )2

Ceci permet de relativiser limportance de chaque niveau de quantile utilis pour la


minimisation de la distance et dviter les problmes numriques lors de loptimisation.

5.4.3

Prise en compte des agrgats

Comme dans la MMG, il est galement possible de prendre en compte les agrgats. Si les
pertes i sont chacune constitues de i vnements distincts (pour une perte concernant
b
un unique vnement), nous considrons alors les
 quantilesempiriques q (pi ) obtenus en
considrant lchantillon rduit (1 , . . . , n ) =
alors :
Q2 (, p) =

k
X
i=1

1
n
1 , . . . , n

. La distance-quantile devient


2
1
b (pi ) F1 (pi )
q
qb(pi )2
42

I.S.F.A.

Mmoire dactuariat

A. R ENAUDIN

Remarque : la normalisation par les quantiles empiriques hors agrgats 1/b


q (pi )2 est conserve mme en prsence dagrgats, ceci ayant pour effet de limiter limpact des pertes composes de plusieurs vnements.

5.4.4

Prise en compte du seuil de collecte

Nous introduisons une dernire modification la mthode afin de tenir compte du seuil
de collecte des pertes oprationnelles, not H. Cela se traduit par une transformation des
niveaux de quantiles ajuster. En effet, le quantile de niveau de lchantillon tronqu
correspond en fait un niveau de quantile H de la distribution thorique complte, avec
H > .
En utilisant la relation liant la distribution conditionnelle F|H la distribution complte
F :
F|H (x) =

F (x) F (H)
1 F (H)

nous dduisons le lien entre H et :



H = + 1 F (H).

(5.5)

En consquence, nous modifions les quantiles thoriques ajuster, ce qui implique que
lexpression de la distance minimiser est :
Q2 (, p, H) =

k
X
i=1




 2
1
b (pi ) F1 pi + (1 pi )F (H)
q
qb(pi )2

Nanmoins, le paramtre intervient doublement dans cette formulation et cela est


source de difficults numriques lors de loptimisation. Afin de rduire cette instabilit, nous
dcidons dutiliser un estimateur de dans le terme correcteur F (H) . Lestimateur retenu
est obtenu par minimisation dune distance-quantile qui tient compte du seuil de collecte en
dcalant linairement les quantiles empiriques vers lorigine :
qb (pi ) qb (pi ) (1 pi )H
Cette modification permet dutiliser des quantiles thoriques de la distribution lognormale non tronque et donc dviter toute instabilit numrique dans la minimisation de la
distance :
e = arg min

k
X
i=1





 2
1
b (pi ) F1 pi + (1 pi )H
q
qb(pi )2

Une fois e ainsi dtermin, lestimateur bQD du paramtre de la distribution de svrit


est finalement obtenu en minimisant la distance suivante :
e 2 (, p, H) =
Q

k
X
i=1

5.4.5




 2
1
b (pi ) F1 pi + (1 pi )F e(H)
q

qb(pi )2

Choix des diffrents paramtres

Dans la distance inter-quantiles introduite au paragraphe prcdent, il reste plusieurs


lments paramtrer. Il sagit notamment de dterminer le nombre de quantiles examiner ainsi que le choix de la rpartition des niveaux de quantiles. Ergashev [14] fixe des
paramtres arbitraires pour effectuer lestimation dans le cadre dune loi de svrit logStudent mais ne propose pas de justifications.
43

I.S.F.A.

Mmoire dactuariat

A. R ENAUDIN

Nous nous proposons donc dtudier le choix de ces paramtres dans le cadre dune
distribution de svrit lognormale. Dans un premier temps, nous faisons le choix dune
rpartition uniforme des quantiles ajuster dans lchantillon. La figure 5.5 illustre les
pertes ordonnes dun chantillon superposes avec les quantiles intervenant dans lestimation dans le cas dune rpartition uniforme, sur des pertes relles provenant du crdit
la consommation.

F IGURE 5.5 Quantiles choisis uniformment (en rouge) dans un chantillon rel (montants
de pertes en chelle logarithmique)

Choix du nombre de quantiles ajuster


Nous choisissons k, le nombre de quantiles ajuster, infrieur ou gal n de manire
ne faire porter lestimation que sur k pertes de lchantillon collect de taille n. Afin davoir
une premire ide de linfluence du nombre de quantiles retenir dans lestimation, nous
calculons en fonction de k les paramtres de svrit par la mthode QD prsente prcdemment sur des chantillons simuls.
Nous simulons deux chantillons log-normaux de paramtres LN (8, 2) et LN (12, 1.5),
censurs au seuil H, de tailles n = 100 et n = 1000, puis nous effectuons lestimation. Les
rsultats sont regroups sur la figure 5.6.

F IGURE 5.6 Estimations de (bleu) et (vert) sur donnes simules LN (8, 2) et LN (12, 1.5)
de tailles n = 100 (en haut) et n = 1000 (en bas) en fonction du nombre de quantiles utiliss
Les estimations semblent tre trs vite stables vis--vis du paramtre k. Pour la suite,
nous ferons donc le choix assez naturel de prendre en compte la moiti des donnes pour
lestimation, soit k = bn/2c.
44

I.S.F.A.

Mmoire dactuariat

A. R ENAUDIN

Rpartition exponentielle des quantiles


Le choix de la rpartition uniforme des quantiles nest pas ncessairement adapt la
problmatique du risque oprationnel. En effet, comme le montre la figure 5.5 dans le
cas dune rpartition uniforme des quantiles, les pertes extrmes ne sont pas suffisamment
prises en compte dans lestimation : le corps de la distribution est mieux reprsent que
la queue. Or ce sont pourtant les valeurs extrmes qui influent davantage sur la valeur
de la CaR. Pour y remdier, nous nous proposons de choisir une rpartition exponentielle
des quantiles afin de mieux ajuster les quantiles extrmes. Cest ce que prconise Ergashev
([14]) en rpartissant les quantiles avec une fonction de la forme :
(exp)

pi

=C

1 exp(im/k)
1 exp(m)

o :
C est une constante dans [0, 1] matrialisant le niveau du dernier quantile ajuster
m un entier positif dont la valeur influe sur la rpartition des niveaux de quantiles : plus
cette valeur augmente, plus les quantiles ajuster sont concentrs en queue de distribution (cf. figure 5.5), et le cas de la rpartition uniforme sobtient pour m 0.
Nous fixerons dans la suite pour un chantillon de n pertes la constante C = 1 1/2n.
Cela permet davoir un niveau de quantile final cohrent avec la taille de lchantillon, et de
prendre en compte la dernire perte dans lestimation.
En effet, le dernier niveau de quantile est alors systmatiquement compris entre lavantdernire et la dernire perte de lchantillon tri. Du fait de linterpolation entre les quantiles
empiriques la dernire perte sera donc en partie prise en compte dans lestimation (voir le
dernier quantile choisi en rouge figure 5.7) . Cela apporte une certaine robustesse la
mthode en la prmunissant de possibles problmes numriques, tout en lui apportant une
prcision suprieure aux quantiles empiriques sans interpolation qui ne prennent pas du
tout en compte la dernire perte.

F IGURE 5.7 Quantiles exponentiellement rpartis (en rouge) dans un chantillon tri de la
catgorie excution avec m = 5 (montants en chelle logarithmique)
Reste donc la question du paramtre de rpartition des quantiles, quErgashev [1] fixe
m = 5 sans justification. Nous nous proposons donc dtudier son influence dans le paragraphe suivant.
Influence du paramtre de rpartition m des quantiles ajuster
Nous regardons prsent linfluence de cette variable sur lestimation des paramtres de
svrit. Nous choisissons pour cela les 12 chantillons rels de pertes collectes entre 2005
et 2009 ayant prsent des critres dajustement jugs non satisfaisant lors du backtesting 1
1. Des indicateurs sont produits par la banque chaque exercice annuel afin dvaluer la pertinence du modle
(notamment la prcision des estimations, la stabilit et la robustesse des paramtres sur des fentres glissantes de
5 ans). Cela permet de confronter les valeurs prdites par le modle la ralit de lanne coule (par exemple
en terme de nombre de pertes ou de montant attendu), et de procder des ajustements le cas chant

45

I.S.F.A.

Mmoire dactuariat

A. R ENAUDIN

2009. Leurs caractristiques 2 sont donnes dans le tableau 5.2. Nous pouvons donc considrer ces chantillons comme htrognes, et/ou ne prsentant pas de bonnes proprits
de log-normalit.
Cas
1
2
3
4
5
6
7
8
9
10
11
12

Entit
Banque de dtail 1
Banque de dtail 1
Banque de dtail 1
Banque de dtail 1
Banque de dtail 2
Banque de dtail 2
Banque dinvestissement
Asset Management
Crdit conso 1
Crdit conso 1
Crdit conso 2
Crdit conso 2

Catgorie
EL2M
EL4
EL5
EL7
EL4
EL7
EL7
EL7
EL2
EL7
EL2
EL7

Seuil de collecte
1
1000
1000
1000
1000
1000
1000
1000
1
150
1
1

Nb pertes
22 164
5 245
3 691
9 284
1 121
5 541
7 913
1 520
2 011
107
1 217
226

TABLE 5.2 Caractristiques des chantillons de pertes mis en vidence dans le backtesting 2009

Sur chaque chantillon, nous effectuons lestimation par QD (traits pleins) en fonction
du paramtre m, que nous faisons varier de m 0 jusqu m = 8 (voir figure 5.8).

F IGURE 5.8 Influence du paramtre m sur lestimation des paramtres de svrit ( en bleu,
en vert)
Comme il tait possible de le prvoir, on remarque que les valeurs leves du paramtre
m fournissent gnralement des estimations moins leves du paramtre et plus leves
du paramtre . Mais linfluence de cette variable nest pas dcisive dans lestimation des paramtres. Toutefois, il parait naturel de choisir une valeur de pour laquelle les quantiles sont
concentrs en queue de distribution. Cela permet de mieux ajuster les quantiles extrmes
(et donc daboutir des CaR plus prcises), et de compenser leffet des pondrations introduites au paragraphe 5.4.2 (p.42) qui ont tendance uniformiser linfluence des quantiles
2. Pour raisons de confidentialit, des pertes ont t alatoirement supprimes dans chacun des chantillons.

46

I.S.F.A.

Mmoire dactuariat

A. R ENAUDIN

dans lestimation. Le choix de m = 4 parait alors appropri, et a t vrifi empiriquement


comme celui amenant le meilleur ajustement sur ces 12 catgories difficiles (en terme de
tests dadquation et QQ-plots ).
Au final, pour un chantillon de pertes de taille n, le vecteur des niveaux des quantiles
ajuster est donc constitu de la manire suivante :


jnk
1 1 exp (4i/k)
(5.6)
pi = 1
, avec k =
2n
1 exp(4)
2

5.4.6

Rcapitulatif des tapes de lestimation

Comme expliqu prcdemment, lestimation par QD dans le cadre du risque oprationnel se fait finalement de la manire suivante :
1. Collecte des pertes 1 , . . . , n au dessus dun seuil H
2. Cration du vecteur des niveaux de quantiles p de taille k, rpartis exponentiellement
selon (5.6)
3. Calcul dun estimateur e de avec :
bn/2c

e = arg min

X
i=1



 1 
 2
1

b
q (pi ) F pi + (1 pi )H
qb(pi )2

4. Utilisation de cet estimateur pour obtenir lestimateur final :


bn/2c

bQD = arg min

5.5

X
i=1




 2
1
b (pi ) F1 pi + (1 pi )F e(H)
q

qb(pi )2

Premier bilan

A ce stade de ltude, nous avons introduit et prsent 5 mthodes destimation alternatives au maximum de vraisemblance (ML) et la mthode des moments gnralise
(MMG) :
Maximum Spacing (MS)
Kolmogorov-Smirnov (KS)
Cramer von Mises (CvM)
Anderson-Darling up (ADup)
Quantile-Distance avec rpartition exponentielle des quantiles (QDexp)
Cependant, nous avons aussi vu que toutes ne sont pas adaptes la ralit du risque oprationnel.
Afin davoir un premier aperu de leur comportement, nous ralisons un premier test sur
les chantillons rels problmatiques du backtesting 2009 (voir 5.4.2 page 42).
Nous ne rapporterons pas ici la valeur exacte des paramtres estims, nayant pas de
valeur de rfrence laquelle les comparer, mais il sagit de rpertorier les cas o la phase
doptimisation a conduit des estimations irralistes des paramtres (i.e. : caractriss par
des estimations de ngatives) ainsi que la convergence de lalgorithme numrique associ.
Ainsi, le tableau 5.3 recense pour chaque mthode le nombre destimation(s) problmatique(s) ainsi que le taux de convergence de lalgorithme doptimisation sur les 12 chantillons tests.
Nous remarquons de suite que bien que la convergence de lalgorithme soit pratiquement
toujours assure ( part dans le cas de la minimisation de la statistique KS), beaucoup de
mthodes fournissent pourtant des estimations incohrentes : paramtre
ngatif, et

47

I.S.F.A.

Mmoire dactuariat

A. R ENAUDIN

Mthode destimation

# {
6 0}

Convergence

MLE

11/12

MPS

11/12

KS

9/12

CvM

12/12

ADup

12/12

QD

12/12

MMG

12/12

TABLE 5.3 Cohrence et convergence des diffrentes mthodes destimation sur les 12 chantillons issus du backtesting 2009
associ trs lev. Seules la mthode des moments gnraliss (MMG) et celle se basant sur
la distance quantile prsente prcdemment (QD) donnent des rsultats satisfaisants, aussi
bien en terme de convergence que de cohrence des estimations.
Ces deux critres tant des conditions sine qua none pour lutilisation pratique dune
mthode destimation dans le cadre du risque oprationnel, nous ne conserverons dans la
suite que les deux mthodes MMG et QD.

48

Chapitre 6

Comparaison thorique des


mthodes destimation retenues
Aprs avoir test diffrentes mthodes sur chantillons rels dans le chapitre prcdent,
ce chapitre offre un aperu du comportement de la mthode distance-quantile (QD) en
environnement simul. Deux types de simulations sont raliss :
1. Modles simples : simulations effectues selon des lois lognormales pour diffrentes
valeurs de et : la loi ajuster correspond donc la loi dont les donnes sont issues.
Cela permet dtudier les proprits thoriques des estimateurs.
2. Modles hybrides : simulations effectues selon un mlange de deux lois lognormales
LN (1 , 1 ) et LN (2 , 2 ) . Cela permet de contrler les proprits de robustesse,
deffectuer un calcul de charge en capital avec les paramtres estims et de le comparer
la valeur attendue, par simulations de Monte Carlo.
Par soucis de cohrence vis--vis de la ralit, les donnes que nous simulons sont ensuite
tronques gauche dun seuil H que nous prciserons.

6.1

Modles simples

Les simulations sont effectues selon une loi lognormale LN (, ) et les estimations
de paramtres sont moyennes sur N = 1000 simulations. Afin de reprsenter des cas de
figures communment observs sur des cas rels, plusieurs jeux de paramtres sont utiliss
et chaque chantillon est constitu de n = 200 pertes :
modle

10

11

12

10

10

10

12

12

12

Les modles ainsi simuls permettent alors de dterminer diffrents indicateurs concernant le biais, la prcision et la stabilit des estimations par QD et par MMG.

6.1.1

Etude du biais

Nous considrons dans cette partie les chantillons prsents prcdemment qui ont
1
ensuite t censurs au seuil H = min 1000, F,
(0.3) . Cela permet davoir un seuil qui
ne censure quenviron 30% des donnes des chantillons de svrit faible, tandis que le
seuil raliste de 1000C sera choisi pour les chantillons dont la svrit est suffisamment
importante.
49

I.S.F.A.

Mmoire dactuariat

A. R ENAUDIN


 
Nous rappelons que le biais dun estimateur bn de est dfini par b bn = E bn .
Cette esprance sera dtermine en moyennant les estimateurs obtenus sur N estimations
distinctes :
N

1 X bi
b

b n =
N i=1 n

Les valeurs de biais sont ainsi dtermines pour chacune des deux mthodes et pour les
deux paramtres du modle log-normal. La figure 6.1 reprsente les biais relatifs b bn /.
Ces valeurs sont majoritairement positives pour le paramtre (partie suprieure de la
figure) et ngatives pour (partie infrieure).

F IGURE 6.1 Biais relatifs des estimateurs de (en haut) et (en bas) pour les 12 modles
simuls, avec N=1000 simulations
La premire observation qui ressort de cette figure est que, sur les diffrents cas simuls,
la mthode QD prsente un faible biais, qui est significativement moins important que la mthode MMG et ce pour chacun des deux paramtres de svrit et quelque soit lchantillon
considr. En outre, cela confirme que lapproximation effectue pour la prise en compte
du seuil de collecte (voir 5.4.4 page 43) est satisfaisante. Par ailleurs, les deux mthodes
partagent la caractristique de fournir des estimateurs dautant plus biaiss que le utilis
pour simuler le modle est important.

6.1.2

Prcision des estimations

Cette partie prsente deux indicateurs communment utiliss pour valuer la prcision
des estimations obtenues par les deux mthodes. Le premier des deux indicateurs dtermin
pour chacun des 12 modles simuls, est la racine de lerreur quadratique moyenne relative
(relative root mean square error) :
"N
#1/2
2
1 X  i
/N
R-rmse =
i=1 n
Le second indicateur reprend lide du premier en utilisant une chelle logarithmique :

50

I.S.F.A.

Mmoire dactuariat

N
X
L-rmse =
ln
i=1

ni

!!2

A. R ENAUDIN

1/2
/N

Les erreurs de sous-estimation reoivent ainsi plus de poids que les erreurs de surestimation,
contrairement au prcdent indicateur o ces erreurs ont des poids symtriques. Ceci est
adapt au cadre du risque oprationnel dans le sens o mobiliser un capital trop important
pour sa couverture est moins gnant que de ne pas en mobiliser assez.
La figure 6.2 reprsente les rsultats obtenus par simulations pour chacun des deux
indicateurs.

(a) R-rmse

(b) L-rmse

F IGURE 6.2 Indicateurs de prcision pour ( gauche) et ( droite) sur les 12 modles
simuls, avec N=1000 simulations

6.1.3

Stabilit des estimations

Afin dvaluer la stabilit des estimations fournies par les deux mthodes, un coefficient
de variation relatif est dtermin partir des rsultats prcdents. partir des estimateurs
bn1 , . . . , bnN obtenus sur N estimations distinctes, il sagit du rapport entre lcart-type et la
moyenne des estimations :
1
=
mn

"

N
2
1 X bi
n mn
N i=1

#1/2
, avec mn =

N
1 X bi

N i=1 n

Les graphiques de la figure 6.3 montrent que dans la quasi-totalit des cas, et notamment
en ce qui concerne lestimation de , les estimations effectues via la mthode QD sont plus
stables.

51

I.S.F.A.

Mmoire dactuariat

A. R ENAUDIN

F IGURE 6.3 Coefficients de variation obtenus pour les 12 modles pour ( gauche) et (
droite), avec N=1000 simulations

6.2
6.2.1

Modles hybrides
Simulations des donnes

Dans cette section, les simulations sont bases sur des modles mlanges log-normaux.
Chaque vecteur de n pertes est simul selon une loi lognormale LN (1 , 1 ) en proportion
p, et une loi LN (2 , 2 ) en proportion 1 p.
Ce choix permet de se rapprocher de la ralit des donnes collectes. En effet, nous
rappelons que le boxplot trac en 1.1 page 5 suggre que les pertes oprationnelles de certaines catgories sont htrognes et semblent possder deux groupes de pertes diffrents,
dont des extrmes. Ce modle parait donc plus raliste pour ajuster la svrit des pertes.
De plus, cela permet de tester la robustesse des mthodes destimations en ajustant un
modle paramtrique qui nest cette fois pas le vrai. La valeur de lestimateur obtenu nest
pas directement interprtable en tant que telle mais elle peut toutefois tre utilise afin
de calculer une charge en capital, valeur qui peut tre compare la valeur calcule par
Monte-Carlo avec les vrais paramtres du mlange.
Les caractristiques des modles retenus sont recenss dans le tableau ci dessous :

6.2.2

Modle

0.5

10

0.5

0.5

Estimations

Les estimations menes sur ces modles hybrides fournissent les rsultats suivants :

6.2.3

Modle

bQD

bQD

bM M G

bM M G

7.71

2.03

8.53

1.64

7.22

1.82

7.64

1.59

7.75

1.74

7.85

1.72

Calculs de charges en capital

Une fois les paramtres estims par chaque mthode (ayant donc obtenu
,
, ainsi que
corrig comme expliqu au paragraphe 4.2.2 page 27), il est
le paramtre de frquence
possible de calculer la charge en capital correspondante en effectuant NM C =5 millions de
simulations Monte-Carlo. Le principe est dtaill dans lalgorithme 6.1.
Il est ensuite de comparer les rsultats obtenus la CaR attendue, elle aussi calcule par
simulations de Monte-Carlo. Cest lobjet du tableau 6.1.
52

I.S.F.A.

Mmoire dactuariat

A. R ENAUDIN

Algorithme 6.1 Simulations de Monte-Carlo pour le calcul de CaR


Pour i=1..NM C {  

Simuler NP P

Pour j=1..NP {
Simuler [j] LN (
,
)
cum_func[i] = cum_func[i] + [j]
}
}
tri_ascendant(cum_func)
retourner cum_func[0.999*NM C ] //quantile empirique niveau 99.9%
Modle
1
2
3

CaR relle
12.2
4.48
12.3

CaRQD
11.8 (-4%)
3.09 (-30%)
5.45 (-56%)

CaRMMG
5.50 (-55%)
1.86 (-58%)
5.42 (-57%)

TABLE 6.1 Valeurs des CaRs (M C) calcules sur modles hybrides et cart relatif par rapport
la CaR relle
Nous remarquons alors que la mthode QD fournit des rsultats bien plus proches de la
vraie CaR que la CaR issue des estimations par la mthode MMG.

53

Troisime partie

Diversification et agrgation des


risques oprationnels :
dtermination dun capital
conomique

54

I.S.F.A.

Mmoire dactuariat

A. R ENAUDIN

Prliminaires
Une fois la charge en capital au titre du risque oprationnel calcule comme expliqu
dans la partie prcdente pour la ligne mtier de lentit considre, se pose dsormais la
question dvaluer la charge en capital pour une entit complte ainsi que pour un ensemble
dentits. Faire la simple somme des charges en capital obtenues ce qui sous-entendrait
une corrlation parfaite entre les lignes mtiers des entits ne tiendrait pas compte dune
dpendance raliste entre les risques et mobiliserait de fait des capitaux trop importants.
La position du rgulateur est la suivante (article 366-3 de larrt transposant Ble II en
France) :
La Commission bancaire peut autoriser la prise en compte des effets de corrlations entre les estimations de pertes pour risque oprationnel lorsque
ltablissement assujetti dmontre que son systme danalyse et de mesure de
ces corrlations repose sur des principes robustes et quil est mis en uvre
de manire intgre. Ce systme prend en compte lincertitude que comporte
toute estimation de corrlations, notamment en priode de crise. Ltablissement assujetti valide ses hypothses de calcul de corrlations au moyen de
techniques quantitatives et qualitatives appropries.
Cette apprciation reste donc assez vague, et il revient ltablissement bancaire de justifier clairement ses choix en matire de prise en compte de la dpendance pour la mesure
de son risque oprationnel.
Comme le soulignent Frachot et al. ([6]) il existe deux sources de corrlations dans le
modle LDA, qui correspondent aux deux dimensions du modle : svrit et frquence. La
corrlation sur les svrits est pourtant dlicate envisager compte tenu des hypothses du
modle en elles-mmes qui imposent lindpendance des svrits des pertes au sein dune
mme catgorie de risque, et qui serait difficilement compatible avec une corrlation des
svrits entre deux types de risques.
Lhypothse de corrlation sur la frquence est pour sa part assez naturelle et est plus
facile prendre en compte. Historiquement, il est par exemple possible dobserver que le
nombre de fraudes externes est faible quand le nombre de fraudes internes est lev, et
inversement. Dans le modle, cette corrlation des frquences se rpercute alors sur les
corrlations des pertes annuelles (ou pertes agrges) :
(
cor( (1) , (2) ) = 0
cor(N1 , N2 ) 6= 0

= cor(`1 , `2 ) 6= 0

o `i est la perte annuelle convolue de la svrit (i) et de la frquence Ni .


Nous prsentons donc dans cette partie, aprs avoir dtaill les enjeux de la diversification et de lallocation du capital, deux approches permettant de modliser la dpendance
entre les pertes annuelles afin dagrger les charges en capital. La premire repose sur une
hypothse de normalit des pertes annuelles, tandis que la seconde utilise la thorie des
copules. Nous illustrons enfin ces mthodes sur le cas des diffrentes lignes mtiers des entits du Groupe Crdit Agricole S.A. et la diversification de leur risque oprationnel, dans le
cadre de lICAAP (pilier 2 de Ble II, voir 2.3 p.11).

55

Chapitre 7

Enjeux et lments thoriques


7.1

Agrgation des risques et allocation : des enjeux importants

Afin de se conformer la rglementation Ble II, les tablissements de bancassurance


doivent non seulement dterminer un capital conomique au titre des risques oprationnels
au niveau groupe mais aussi allouer ce capital entre ses diffrents mtiers, ce qui a donc un
impact direct sur la rentabilit perue de ses activits.
Un enjeu de lapproche avance (AMA) est de prendre en compte les corrlations, cest-dire les interactions ou absences dinteractions entre les entits elles-mmes, ainsi quavec
leurs environnements respectifs (par exemple les risques transverses comme les catastrophes
naturelles quelles subissent simultanment, ou les risques spcifiques quelles subissent sparment).
Lapproche AMA doit donc faire apparaitre une rduction (du moins une variation espre la baisse) des fonds propres rsultant des effets de synergies de la consolidation. Or
toute mthode de rpartition des fonds propres sappuyant sur des coefficients ne dpendant
que des caractristiques propres chaque entit - manire la plus naturelle de faire - ne peut
tenir compte de leurs interactions et ne peut donc pas rpondre cet enjeu. Par exemple,
une ventilation au prorata de CaR ou du PNB de chaque entit nest pas approprie car elle
ne tient pas compte de la dpendance existant entre ces entits.
Pour un bon pilotage, une bonne analyse des performances ou une prise de dcision pertinente, il est indispensable que la mthode dallocation retenue soit fonde sur la contribution apporte par chaque entit la rduction globale des risques : une entit contribuant
plus la rduction des fonds propres du groupe doit tre avantage par rapport aux autres.
A dfaut, le risque est de biaiser les analyses de performances et dtre amen prendre de
mauvaises dcisions, comme lillustre lexemple suivant.
Un exemple introductif
Pour fixer les ides et comprendre les enjeux de lagrgation et lallocation des charges
en capital, considrons lexemple simple dun groupe compos de trois entits diffrentes,
notes E1, E2 et E3.
Supposons que le tableau qui suit recense les capitaux calculs au titre du risque oprationnel pour chaque entit ainsi que leur rsultat sur lanne. Il contient aussi la valeur
de la charge en capital au niveau du groupe, tablie par agrgation en tenant compte de
la dpendance entre les diffrentes entits, mthode que nous dtaillerons dans la suite du
mmoire.

56

I.S.F.A.

Mmoire dactuariat

Entit
Rsultat (M C)
CaR (MC)

E1
17
200

E2
17
200

E3
14
200

(E1,E2)
400

A. R ENAUDIN

(E2,E3)
280

(E1,E3)
280

(E1,E2,E3)
480

Afin de se rendre compte des effets de diversifications que peut apporter chaque entit,
nous donnons galement que la valeur de la CaR de chacun des couples dentit obtenue
par agrgation.
Cet exemple simple permet de remarquer que lentit E3, compte tenu de sa corrlation
avec les autres entits, contribue plus que les autres la diversification de la CaR totale.
Selon lide exprime au paragraphe prcdent, le montant allou la concernant devrait
alors tre plus faible que pour les deux autres.
Or une simple allocation au prorata de la CaR de chacune des entits donne le rsultat
du tableau 7.1.
Entit

Capital co. allou


(M C)

Rentabilit des
fonds propres

E1

160

10.6%

E2

160

10.6%

E3

160

8.75%

TABLE 7.1 Allocation entre les 3 entits considres au prorata de leur CaR
Cette allocation lmentaire a donc pour effet dattribuer le mme capital conomique
toutes les entits, et donc denvisager au vu des chiffres prcdent que lentit E3 est la
moins rentable.
En effectuant lallocation selon une mthode plus approprie (dite cohrente et qui
tient compte des variations de capital obtenues lorsquune entit est consolide avec dautres
que nous dtaillerons dans la section suivante), nous obtenons des rsultats bien diffrents
comme le montre le tableau 7.2.
Entit

Capital co. allou


(M C)

Rentabilit des
fonds propres

E1

180

9.45%

E2

180

9.45%

E3

120

11.67%

TABLE 7.2 Allocation entre les 3 entits considres selon une mthode cohrente
Contrairement au cas prcdent, lentit E3 est cette fois considre comme la plus rentable de toutes. Il semble donc essentiel dans ce contexte de prendre en compte la contribution la diversification du risque sa juste valeur, sans quoi il est possible daboutir des
analyses de performance errones.
Cest notamment lobjet de la section suivante qui expose de manire thorique les proprits souhaitables des mesures de risque et des mthodes dallocation utiliser.

7.2
7.2.1

Mesures de risque
Dfinition

Comme son nom lindique, une mesure de risque permet de quantifier le danger inhrent un risque reprsent par une valeur alatoire X. Plus formellement, une mesure
57

I.S.F.A.

Mmoire dactuariat

A. R ENAUDIN

de risque est une fonctionnelle % qui attribue un risque X une valeur %(X) positive et
ventuellement infinie.
%(X) est gnralement assimil au capital dont la banque doit disposer pour faire face
aux ventuelles pertes rsultant du risque X.

7.2.2

Proprits dsirables

Afin dtre utile dans ses applications, il est dusage quune mesure de risque vrifie un
certain nombre de proprits :
1. (Sous-additivit). Soient deux risques X1 et X2 . La mesure % est dite sous-additive si
%(X1 + X2 ) 6 %(X1 ) + %(X2 ).
Cette proprit est synonyme de rduction de risque par diversification, dont leffet est
alors mesur par la quantit %(X1 ) + %(X2 ) %(X1 + X2 ) > 0, reprsentant lconomie
de capital ralise en couvrant simultanment les risques X1 et X2 .
2. (Homognit). Soient un risque X et a un scalaire positif. La mesure % est homogne
si
%(aX) = a%(X).
Cette proprit peut-tre vue comme une invariance par rapport aux units montaires
(un changement dchelle sur le risque fait subir la mme transformation au capital).
3. (Monotonicit). Soient deux risques X1 et X2 tels que P(X1 6 X2 ) = 1. La mesure %
est monotone si
%(X1 ) 6 %(X2 ).
Cette proprit traduit simplement le fait quil faut plus de capital lorsque le risque
devient plus svre.
4. (Invariance par translation). Soient un risque X et a un scalaire. La mesure % est
invariante par translation si
%(X + a) = %(X) + a.
Cela garantit alors que %(X %(X)) = 0.
La vrification de ces quatre premires proprits amne la notion de mesure de
risque cohrente, comme introduit par Artzner et al. (1999). Cependant en actuariat,
il est galement souhaitable que les mesures de risque satisfassent les trois proprits
suivantes.
5. (Marge de risque non excessive). Pour un risque X donn, si X 6 xmax alors %(X) 6
xmax .
Ceci veut dire quil nest pas ncessaire de dtenir un capital en excdent du montant
maximal que peut prendre une perte pour couvrir ce risque.
6. (Marge de risque non ngative). Pour un risque X donn, nous devons avoir %(X) >
E[X].
Le capital requis doit ainsi excder les pertes espres (sous peine de ruine pour une
compagnie dassurance, par exemple).
7. (Marge de risque justifie). Soit a une constante quelconque. Alors nous devrions avoir
%(a) = a.
Nous prsentons dans la suite des exemples de mesures couramment utilises en gestion
des risques.

58

I.S.F.A.

7.2.3

Mmoire dactuariat

A. R ENAUDIN

La mesure VaR (Value at Risk)

Cest traditionnellement la mesure la plus utilise en matire de gestion des risques et


sciences actuarielles : elle apparait explicitement dans les textes rglementaires (Ble II,
Solvabilit II).
Pour 0 6 6 1, la VaR de niveau associe la variable alatoire X est dfinie de la
manire suivante :
1
V aR (X) = FX
(),
1
o FX
dsigne la fonction de rpartition inverse (ventuellement gnralise dans le cas
discontinu) de la v.a X.

Parmi les proprits prcdentes, cette mesure ne vrifie pas la proprit de sous-additivit :
il peut arriver que la diversification conduise une augmentation de la VaR, notamment
dans le cas o les v.a ont des distributions queues lourdes (moyennes infinies), ce qui peut
savrer dangereux car contre-intuitif. Cependant, dans le cadre de distributions elliptiques 1
pour les risques, cette proprit est vrifie et cette mesure est alors cohrente.
Notons enfin quelle ne vrifie pas non plus la proprit 6 : un contre-exemple est donn
immdiatement pour une loi normale standard en choisissant < 0.5 (la moyenne tant
dans ce cas gale la VaR de niveau 50%) ; elle valide nanmoins toutes les autres proprits
nonces prcdemment.

7.2.4

La mesure TVaR (Tail Value at Risk)

Cest une autre mesure populaire en gestion des risques, qui tend se gnraliser avec
la prise en compte des queues de distributions. Elle est dfinie de la manire suivante, pour
0661:
1
T V aR (X) =
1

1

V aRu (X)du

Elle peut donc tre vue comme une moyenne des mesures V aRu (X) pour u > . Ceci
fournit donc de linformation sur lpaisseur de la queue de distribution, contrairement la
VaR qui nindique quun point de cette queue.
La TVaR a aussi lavantage dtre une mesure cohrente, et de vrifier toutes les proprits dsirables nonces prcdemment. Malgr ses bonnes proprits, cette mesure est peu
utilise en gestion des risques en raison des difficults numriques pour la calculer, et de
son interprtation dlicate.

7.2.5

La mesure CTE (Conditional Tail Expectation)

La mesure CTE avec un niveau de confiance [0; 1] vaut :


CT E (X) = E [X | X > V aR (X)]
La CTE correspond donc la moyenne des 100(1 )% des valeurs les plus leves que
prend X.
Cette mesure vrifie les proprits 2 7. Dans le cas continu, la proprit 1 de sousadditivit est vrifie et la mesure est cohrente. A noter que dans ce cas, la CTE concide
alors avec la TVaR et nous pouvons valuer lune ou lautre indiffremment.
1. Une loi continue est dite elliptique de paramtre de position et de matrice de forme symtrique dfinie

positive si sa densit p peut scrire p(x) = (det)1/2 q t (x )1 (x ) , o q est une fonction relle



valeurs positives telle que Rn q kyk2 dy = 1. Cela peut tre vu comme la gnralisation dune loi gaussienne.

59

I.S.F.A.

7.3

Mmoire dactuariat

A. R ENAUDIN

Mesures dallocation

7.3.1

Dfinition

Considrons que linstitution financire considre fait face un risque X, constitu de


la somme de n risques diffrents X1 , ..., Xn , (ce sont par exemple les risques ports par ses
diffrentes entits). Aprs avoir choisi une mesure de risque % et calcul le capital conomique %(X) correspondant lagrgation de ses n risques, se pose la question dallouer ce
capital entre ces risques. Une mthode dallocation de capital permet dallouer les bnfices
de diversification et ainsi obtenir des capitaux individuels dont la somme est gale au capital
conomique global.
Denault (2001, [19]) sest intress ce problme en dfinissant un ensemble de proprits dsirables que doit respecter une mthode dallocation. A limage des mesures de
risques, une telle mthode dallocation est alors considrePcomme cohrente.
n
En notant K = %(X) la mesure du risque total X = i=1 Xi et Ki la part de capital
e`me
alloue au i
risque, un principe dallocation (ou fonction dallocation) peut alors tre
dfini comme une fonction associant au couple (%, n) un vecteur de scalaires (K1 , ..., Kn ).

7.3.2

Proprits dsirables

1. (Allocation complte).
K1 + K2 + ... + Kn = K
Cette proprit intuitive est essentielle afin que le capital soit totalement allou entre
les diffrents risques.
2. (Prise en compte des effets de diversification). Pour tout sous ensemble {a, b, ..., z} de
{1, 2, ..., n},
Ka + Kb + ... + Kz 6 %(Xa + Xb + ... + Xz ).
Cela assure ainsi que le capital requis pour un sous-ensemble de risques considr
seul est plus important que le capital requis pour ce mme sous-ensemble lorsquil est
diversifi avec dautres risques.
3. (Symtrie). Le fait de remplacer le risque Xi par le risque Xj avec %(Xi ) = %(Xj ) ne
change pas lallocation des risques.
4. (Pas de marge de risque injustifie). Pour un risque constant Xi = a alors lallocation
correspondante vaut Ki = a.

7.3.3

Allocation base sur la mesure VaR

Cest lallocation la plus naturelle lorsque la mesure de risque choisie pour calculer le capital requis pour lensemble des risques est la VaR, et elle se dfinit de la manire suivante :
Ki = E [Xi | X = V aR (X)]
Nous pouvons aisment vrifier quelle vrifie la proprit 1 dallocation complte en
calculant :
n
X
i=1

Ki =

n
X

E [Xi | X = V aR (X)]

i=1

=E

" n
X

#
Xi | X = V aR (X)

i=1

= E [X | X = V aR (X)]
= V aR (X) = %(X)
60

I.S.F.A.

Mmoire dactuariat

A. R ENAUDIN

Ce principe dallocation vrifie galement les proprits 3 et 4, et la 2 sous certaines


conditions qui sont logiquement les mmes sous lesquelles la mesure VaR est sous-additive
(voir prcdemment).
La mesure de risque utilise dans le cadre du modle LDA tant la VaR (comme prconis
par le rgulateur), cette mthode dallocation sera naturellement utilise dans la suite (cf.
chap 9).

7.3.4

Allocation base sur la mesure CTE

Le capital allou au ie`me risque sexprime comme :


Ki = E [Xi | X > V aR (X)]
Lorsque la mesure de risque choisie est la CTE (ou la TVaR avec des variables continues), il
apparait naturel de considrer une allocation selon cette formule. Elle respecte alors toutes
les proprits mentionnes prcdemment, et peut donc tre qualifie de cohrente. Le
lecteur pourra se rfrer [20] pour une analyse plus approfondie des proprits et la description dautres principes dallocation.
N.B. : La mthode dallocation ne peut tre cohrente que lorsque la mesure de risque
associe lest aussi (condition ncessaire).

7.4

Mesures de dpendance

Nous insistons dans ce paragraphe sur les diffrences entre les termes de corrlation
et de dpendance, souvent confondus en pratique. Nous prsentons les proprits souhaitables dune mesure de dpendance, et verrons que sorti du cas gaussien, le coefficient de
corrlation linaire ne les respecte pas.

7.4.1

Dfinition et proprits dsirables

Une mesure de dpendance (., .) est une fonction qui associe un couple de variables
alatoires une valeur relle.
Soient X1 et X2 deux variables alatoires. Pour quune mesure de dpendance soit utilisable en pratique, elle doit respecter les proprits suivantes :
1. (Symtrie).
(X1 , X2 ) = (X2 , X1 )
2. (Normalisation).
1 6 (X1 , X2 ) 6 1
3. (Comonotonicit). (X1 , X2 ) = 1 ssi X1 et X2 sont comonotones 2 .
4. (Antimonotonicit). (X1 , X2 ) = 1 ssi X1 et X2 sont antimonotones.
5. (Invariance). Pour toute fonction monotone f relle,
(
(X1 , X2 )
si f est croissante
(f (X1 ), X2 ) =
(X1 , X2 ) si f est dcroissante
Lorsque toutes ces proprits sont satisfaites, la mesure est appele mesure de concordance.
Nous exposons dans les paragraphes suivants des mesures de dpendances couramment
utiliss en statistiques et numrons leurs diffrentes proprits. Nous prsentons ensuite
la thorie des copules en vue dintroduire une notion de dpendance stochastiques entre
plusieurs risques .
2. Il est dusage de parler de comonotonie (resp. antimonotonie) entre des risques lorsquils peuvent chacun
scrire comme une fonction croissante (resp. dcroissante) dune mme variable alatoire sous-jacente : ce sont
les deux cas de dpendance parfaite.

61

I.S.F.A.

7.4.2

Mmoire dactuariat

A. R ENAUDIN

Le coefficient de corrlation linaire

Cest la manire la plus usite pour mesurer la dpendance entre deux v.a. Il sera not r
et il se dfinit de la manire suivante :
r(X1 , X2 ) = p

cov(X1 , X2 )
var(X1 ).var(X2 )

Il vrifie les deux premires proprits nonces ci-dessus : il est symtrique et les bornes
1 sont atteintes lorsque X1 et X2 sont lies par une relation linaire.
Cependant lorsque X1 et X2 ne suivent pas une loi normale, r ne vrifie pas les proprits
3 et 4 : ce nest donc pas une mesure de concordance : ce nest en fait quune mesure de
dpendance linaire entre X1 et X2 . De ce fait, son usage est problmatique dans le cas
gnral car son comportement devient contre-intuitif :
un coefficient de corrlation linaire nul nimplique pas lindpendance mais seulement labsence de relation linaire,
une valeur de r trs proche de 1 peut nanmoins traduire une relation non-linaire
entre les deux variables,
enfin les valeurs possibles de r dpendent des lois marginales FX1 et FX2 : elles sont
notamment modifies par une transformation croissante de ces marginales. En particulier, la corrlation linaire entre deux variables X1 et X2 est gnralement diffrente
de celle du couple ln(X1 ) et ln(X2 ), bien que le contenu informationnel dans les deux
couples soit le mme.
Bien que la plus utilise, cette mesure de dpendance peut amener des analyses errones
dans la majorit des cas. Nous proposons dans la suite des mesures plus appropries.

7.4.3

Le tau de Kendall

Lide du tau Kendall est dapprcier non pas la corrlation des valeur des observations
en elles-mmes mais les rangs de ces observations.
En notant (X10 , X20 ) un couple de v.a indpendant de (X1 , X2 ) et identiquement distribu, il se dfinit par la probabilit de concordance des couples moins la probabilit de
discordance :
(X1 , X2 ) = P [(X1 X10 )(X2 X20 ) > 0] P [(X1 X10 )(X2 X20 ) < 0]
Cette mesure vrifie toutes les proprits souhaitables nonces plus haut : cest donc
une mesure de concordance. Elle jouit donc en particulier de la proprit dinvariance fonctionnelle et les valeurs 1 peuvent tre atteintes quelles que soient les marginales FX1 et
FX2 , cela tant synonyme de dpendance parfaite.

7.4.4

Le rho de Spearman

Comme le tau de Kendall, le rho de Spearman S est un coefficient de corrlation sur les
rangs des observations.
Il peut tre vu comme le coefficient de corrlation linaire entre les variables normalises U = FX1 (X1 ) et V = FX2 (X2 ), qui sont par dfinition de loi uniformes sur [0, 1].
Cela permet alors dliminer les effets de marge dont souffre le coefficient de corrlation
standard prsent prcdemment, ce qui en fait une mesure de concordance.
Le coefficient de corrlation linaire, le tau de Kendall et le rho de Spearman sont des
mesures de dpendance globales. Il est toutefois intressant dexaminer la dpendance sur
les queues de distributions. Ce point fait lobjet de la section suivante.

62

I.S.F.A.

7.4.5

Mmoire dactuariat

A. R ENAUDIN

Notion de dpendance de queue

Le concept de dpendance de queue fournit une description de la dpendance au niveau des queues de distribution, ce qui permet tudier la survenance simultane de valeurs
extrmes, utile dans le cadre du risque oprationnel. Contrairement aux mesures de dpendance prsentes prcdemment qui portent sur lensemble des distributions, cest une
mesure locale.
En dimension 2, la mesure de dpendance de queue droite (upper tail index) entre deux
risques X1 et X2 se dfinit dun point de vue probabiliste comme la limite de la probabilit
conditionnelle suivante :


1
1
U (X1 , X2 ) = lim P X1 > FX
() | X2 > FX
()
1
2
1

Cest donc la probabilit que X1 soit un vnement extrme sachant que est X2 est extrme.
Si cette probabilit est nulle, lapparition dun vnement extrme na pas dinfluence sur
lapparition dun autre extrme et nous pouvons dire que les extrmes ne sont pas corrls.
A linverse, si U est gal 1 les extrmes sont parfaitement dpendants.
Nous pouvons de la mme manire dfinir la dpendance de queue gauche (lower tail
index), bien quelle ne soit pas pertinente dans le cadre du risque oprationnel :


1
1
L (X1 , X2 ) = lim+ P X2 < FX
() | X1 < FX
()
2
1
0

7.5

Thorie des copules

Les mesures introduites prcdemment permettent de ne mesurer une dpendance quentre


deux variables alatoires. Un outil beaucoup plus puissant pour spcifier ou tudier une dpendance, dite stochastique, entre plusieurs variables alatoires est prsente dans cette
section.
Le concept de copule a t originellement introduit par Sklar en 1959. Il sagit une fonction mathmatique permettant dintroduire une forme de dpendance entre des variables
alatoires. Dabord tudies en mathmatiques, elles ont ensuite commenc tre utilises
en statistique pour lanalyse de donnes multivaries. Elles ont ensuite fait leur apparition
en actuariat dans les annes 1990, notamment pour modliser la dpendance en assurance
dommages. Mais ce nest quau dbut des annes 2000 que les copules ont connu un essor
notoire avec leurs applications en finance de march, notamment pour modliser les rendements de plusieurs titres financiers ainsi que les temps de dfaut en risque de crdit. Leur
utilisation sur les places boursires est devenue trs large, mme si la manire de les utiliser
dans ce cadre a t remise en cause aprs la crise financire mondiale de 2007.
La notion de copule permet de dcomposer la loi jointe dun vecteur alatoire de dimension n en n fonctions dcrivant les lois marginales seules, et une fonction dcrivant la
dpendance entre les composantes de ce vecteur indpendamment des lois marginales : la
copule associe au vecteur. Cela permet ainsi de dissocier la structure de dpendance, qui
est contenue dans la fonction copule, des lois marginales. Nous ne rentrons pas ici dans des
dtails trop pousss sur cette thorie, le lecteur pouvant se reporter pour cela la littrature
trs riche sur le sujet, par exemple louvrage rfrence de Nelsen (1999) [23]. Lobjet est
simplement de prsenter cet outil mathmatique et de comprendre son utilit pour modliser la dpendance entre plusieurs risques en vue de les agrger, ce qui sera lobjet de la suite
du mmoire.

7.5.1

Dfinition

Le moyen le plus simple de dfinir une fonction copule C de dimension n est de la


prsenter comme la restriction [0, 1]n dune fonction de rpartition multivarie dont les
lois marginales sont uniformes sur [0, 1] :
63

I.S.F.A.

Mmoire dactuariat

A. R ENAUDIN

C(u1 , ..., un ) = P(U1 6 u1 , ..., Un 6 un ), pour tout (u1 , ..., un ) [0, 1]n

7.5.2

Thorme de Sklar (1959)

Cest un thorme fondamental qui permet de lier la loi multidimensionnelle


F = FX1 ,...,Xn aux lois marginales FX1 , ..., FXn grce une fonction copule
C : [0, 1]n [0, 1]. Pour tout (x1 , ..., xn ) Rn , nous avons ainsi la relation suivante :
F (x1 , ..., xn ) = C (FX1 (x1 ), .., FXn (xn ))

(7.1)

Dans le cas o les lois marginales sont toutes continues, alors la copule C est unique.
Il est possible dcrire dans ce cas la relation prcdente (7.1) en terme de densits :
f (x1 , ..., xn ) = fX1 (x1 )...fXn (xn ).c (FX1 (x1 ), .., FX2 (x2 ))
o c dsigne la densit associe la copule C : c(u1 , .., un ) =

(7.2)

C
u1 ..un (u1 , .., un ).

Corollaire Un corollaire de ce thorme permet disoler la fonction copule (unique)


partir de la fonction de rpartition jointe et des lois marginales supposes continues. Nous
pouvons alors crire pour tout (u1 , ..., un ) [0, 1]n :

1
1
C(u1 , .., un ) = F FX
(u1 ), .., FX
(un )
1
n

7.5.3

(7.3)

Quelques proprits remarquables

Nous prsentons ici quelques proprits importantes de la thorie des copules. Pour la
dmonstration de ces rsultats, se reporter Nelsen (1999).
Invariance par transformations croissantes
Avec les notations prcdentes et en considrant des marginales continues, alors C<X1 ,...,Xn >
est lunique copule associe la distribution F du vecteur alatoire X = (X1 , ..., Xn ).
Si h1 , ..., hn sont des fonctions strictement croissantes sur respectivement Im(X1 ),...,
Im(Xn ), alors :
C<h1 (X1 ),...,hn (Xn )> = C<X1 ,...,Xn >
Ce thorme rvle donc une proprit importante de loutil copule : elle reste invariante sous des transformations strictement croissantes des marginales. Ainsi la copule de la
distribution lognormale est la mme que celle associe la distribution normale, lune tant
obtenue par transformation strictement croissante de la seconde (y = lnx).
Bornes de Frchet
Pn
En dfinissant les fonctions C + (u1 , .., un ) = min(u, .., un ) et C (u1 , .., un ) = max ( i=1 ui 1, 0)
alors pour toute copule C nous avons pour tout (u1 , ..., un ) [0, 1]n :
C (u1 , .., un ) 6 C(u1 , ..., un ) 6 C + (u1 , .., un )
La fonction C + est une copule est appele copule comonotone (ou borne suprieure de
Frchet), car associe un vecteur (X1 , .., Xn ) dont les composantes sont comonotones. De
manire similaire, la fonction C est elle associe au cas antimonotone, mais nest plus une
copule en dimension suprieure 2.

64

I.S.F.A.

7.5.4

Mmoire dactuariat

A. R ENAUDIN

Expression de la dpendance de queue

Lexpression de la dpendance de queue donne en 7.4.5 peut facilement sexprimer en


fonction de la fonction copule :
U (X1 , X2 ) = lim
u1

1 2u + C(u, u)
1u

et
L (X1 , X2 ) = lim

u0+

C(u, u)
u

A chaque type de fonction copule est donc associe une mesure de dpendance des extrmes.

7.5.5

Exemples classiques de copules multivaries

Nous prsentons dans ce paragraphe les familles de copules les plus utilises en gestion
des risques et science actuarielle.
Copule indpendante
Cette copule est associe des variables indpendantes X1 , ..., Xn est immdiatement
dduite de lquation (7.1) :
C (u1 , ..., un ) = u1 ...un
et a pour densit
c (u1 , ..., un ) = 1
Cette copule ne possde logiquement aucune dpendance de queue : U = L = 0.
Copule normale
Cest la copule associe un vecteur gaussien, dont la fonction de rpartition multivarie
est en fait compose de marginales normales couples au moyen dune copule normale. Elle
fait partie de la famille des copules elliptiques (copules associes des lois elliptiques, dont
la dfinition est rappele en bas de page 59).
Soient la fonction de rpartition de la loi normale standard et la fonction de
rpartition de la loi normale multidimensionnelle de matrice de corrlation . La copule
normale scrit alors :
C (u1 , ..., un ) = 1 (u1 ), ..., 1 (un )

Une reprsentation de sa densit en dimension 2 est donne figure 7.1. Nous pouvons
alors remarquer quelle comporte deux pics symtriques : cela implique que les probabilits
sont plus fortes pour la survenance de deux vnements en queues de distribution (indiffremment droite ou gauche) ; nous pouvons alors parler de dpendance faible des extrmes.
En revanche, cette copule ne possde pas de dpendance de queue forte (au sens de la
dfinition en 7.4.5) quand les valeurs du coefficient de corrlation linaire sont diffrents
de 1 : elle ne permet donc pas en thorie de corrler les valeurs extrmes. Lutilisation de
cette copule est cohrente lorsque la corrlation entre risques est mesure par le coefficient
de corrlation linaire.

65

I.S.F.A.

Mmoire dactuariat

A. R ENAUDIN

Densit ( =0.6)

0
0.8
0.8

0.6
0.6

0.4

0.4

0.2

0.2

u2

u1

F IGURE 7.1 Densit bivarie de la copule normale ( = 0.6)


Copule de Student
Cette copule est cette fois associe un vecteur alatoire de loi de Student multivarie,
qui est compos de marginales de loi Student couples avec une copule de Student. Elle fait
galement partie de la famille des copules elliptiques.
Soit T, la fonction de rpartition multivarie dune loi de Student, de matrice de corrlation et de degr de libert . La copule de Student a pour expression :
C, (u1 , . . . , un ) = T, T1 (u1 ), . . . , T1 (un )

Sa densit bivarie est dessine en figure 7.2. L encore, nous reconnaissons les deux
pics symtriques caractristiques dune copule elliptique.

10

Densit ( =1)

8
6
4
2
0
0.8
0.8

0.6
0.6

0.4

0.4

0.2

0.2

u2

F IGURE 7.2 Densit bivarie de la copule de Student ( = 1, = 0.6)


Lorsque nous considrons des corrlations diffrentes de1 (ce qui est le cas dans cette
tude o les corrlations sont considres positives), alors cette copule prsente des dpendances de queue droite et gauche.
En dimension 2, il est possible de reprsenter cette mesure de dpendance de queue
droite U selon le niveau de corrlation figurant dans la matrice de corrlation de la
copule de Student associe, ce qui est lobjet de la figure 7.3, o nous remarquons que cette
66

I.S.F.A.

Mmoire dactuariat

A. R ENAUDIN

mesure est dautant plus forte que le degr de libert de la copule est important.
N.B. : La copule de Student tend vers la copule normale pour +.

F IGURE 7.3 Mesure de dpendance des extrmes en fonction du niveau de corrlation pour
une copule de Student de dimension 2

Copules Archimdiennes
Cette famille de copules est dfinie partir dun gnrateur dont le choix donne lieu
diffrents types de copules, les plus connues tant celles de Clayton, Gumbel et Frank.
Ce gnrateur doit vrifier pour tout u [0, 1] : (1) = 0, 0 (u) < 0 et 00 (u) > 0. Les
copules Archimdiennes sont alors dfinies de la manire suivante :
C (u1 , . . . , un ) = 1 ((u1 ) + ... + (un ))

(7.4)

Les gnrateurs correspondants aux copules Archimdiennes usuelles en dimension 2


sont donns dans le tableau 7.3, avec lexpression de la copule rsultante.
Type de copule

Gnrateur (u) associ

Clayton ( > 0)
Gumbel ( > 1)

u 1

Frank ( 6= 0)

(lnu)
 u 
1
ln ee 1

Copule C(u1 , u2 ) rsultante


1/

u1 + u2 1

exp (lnu1 ) + (lnu2 )
(eu1 1)(eu2 1)
1 ln 1 +
e 1

TABLE 7.3 Expressions des gnrateurs et des copules Archimdiennes associes en dimension 2

Cette famille est paramtre par un rel , quelque soit la dimension de la copule. La
mesure de dpendance a le mme signe que et crot avec ce paramtre.
La prsence de cet unique paramtre rend problmatique lutilisation de cette famille
de copules en dimension suprieure 2 dans le cadre de la modlisation des dpendances
entre risques. En effet, cela suppose que ces risques sont tous dpendants de la mme faon
entre eux, ce qui apparait assez rducteur.
Ce type de copule reste cependant intressant tudier car comme nous le voyons sur leurs
densits bivaries reprsentes figure 7.4 les copules de Clayton et de Gumbel sont asymtriques et prsentent de la dpendance de queue (respectivement gauche et droite).
67

I.S.F.A.

Mmoire dactuariat

A. R ENAUDIN

F IGURE 7.4 Densits bivaries de copules Archimdiennes usuelles, de paramtre = 3


Dans le cadre du risque oprationnel il est donc logique de considrer soit la copule de
Gumbel, soit la copule de Clayton qui couple les fonctions de survie marginales, dite copule
de survie 3 . Ces deux copules napprhendent alors que des dpendances positives, ce qui
est adapt notre tude o les dpendances ngatives sont exclues.

7.5.6

Simulation

Nous prsentons les deux mthodes de base ncessaires pour simuler des ralisations
dune copule, que nous noterons (u1 , ..., un ).
Mthode des distributions
Cest la mthode la plus naturelle, qui sappuie sur la relation (7.3) dcoulant du thorme de Sklar.
Ainsi pour simuler U = (U1 , ..., Un ) elle consiste simuler pralablement le vecteur
X = (X1 , ..., Xn ) de distribution multivarie F et dappliquer la transformation
U = (FX1 (X1 ), ..., FXn (Xn )) .
Cette mthode est donc approprie quand la distribution multivarie gnre par la
copule C est facilement simulable. Cest par exemple le cas des lois normales et Student
multivaries : cette mthode sera donc retenue par la suite pour la simulation des copules
de la famille elliptique.
Mthode des distributions conditionnelles
Lorsque la copule nest pas issue dune distribution multivarie connue, la mthode prcdente est alors inapplicable et il faut passer par cette mthode des distributions conditionnelles. Nous la prsentons dans le cas bivari afin de ne pas complexifier les notations mais
dun point de vue mathmatique elle stend commodment au cas multivari.
Pour simuler des ralisations (u1 , u2 ) dune copule C en dimension 2, le principe est
donc le suivant :
1. Simuler deux ralisations de variables alatoires uniformes v1 et v2
2. Poser u1 := v1
3. Plus formellement en notant C la copule de survie associe la copule C alors la relation de
 Sklar
F (x1 , ..., xn ) = C FX1 (x1 ), ..., FXn (xn ) peut se rcrire F (x1 , ..., xn ) = C F X1 (x1 ), ..., F Xn (xn ) .

68

I.S.F.A.

Mmoire dactuariat

A. R ENAUDIN

3. Pour obtenir u2 , il faut passer par la distribution conditionnelle de la copule C sachant


u1 , qui se dfinit naturellement de la manire suivante :
C2|1 (u1 , u2 ) = P (U2 6 u2 | U1 = u1 ) = lim

C(u1 + , u2 ) C(u1 , u2 )

1
Nous prenons alors u2 = C2|1
(v2 , u1 ).

La difficult de cette mthode consiste calculer les copules conditionnelles quand la dimension est importante, ainsi que de les inverser. Elle est nanmoins adapte au cas des
copules Archimdiennes (voir Genest et McKay (1986) pour le dtail des calculs).

7.5.7

Utilisation dans le contexte de lagrgation de risques

A ce stade, il est utile de se poser la question suivante : comment utiliser la thorie des
copules dans le calculer la charge en capital dun ensemble de risques (X1 , ..., Xn ) supposs
dpendants ?
En fait lobjectif est de pouvoir exprimer la distribution multivarie F des n risques
considrs, partir de quoi il sera possible de simuler des valeurs du vecteur (X1 , ..., Xn )
dont les composantes sont dpendantes. Il suffit ensuite de sommer les ralisations des
composantes du vecteur pour obtenir une valeur de la somme des risques agrgs, et de
rpter cette opration un grand nombre de fois afin de reconstituer cette distribution par
simulations.
Pour cela, connaissant les lois de chaque risque que nous voulons agrger (qui constituent les marginales de la distribution multivarie F ), la donne dune copule matrialisant
la structure de dpendance entre ces risques permet alors trs simplement dexprimer la
distribution multivarie F avec le thorme de Sklar (quation 7.1 page 64). En dautres
termes, la donne de lois marginales et dune structure de dpendance sous la forme dune
fonction copule spcifie entirement la distribution multivarie des risques.
Dmarche gnrale
La simulation dun vecteur X = (X1 , ..., Xn ) de lois marginales FX1 , ..., FXn et de copule
C se fait en deux tapes :
1. Simulation dune ralisation u = (u1 , ..., un ) de la copule C de taille n (voir 7.5.6
page 68)
2. Nous obtenons alors une ralisation x de X = (X1 , ..., Xn ) par la transformation

1
1
x = (x1 , ..., xn ) = FX
(u1 ), ..., FX
(un )
1
n
Pn
En notant Lagreg = X1 + ... + Xn la somme de ces n risques dpendants, alors i=1 xi
fournit une ralisation de cette variable alatoire. En rptant un grand nombre de fois les
tapes 1 et 2 ci-dessus, il est donc possible de recrer la distribution de Lagreg : il ne reste
plus qu en calculer la mesure de risque choisie (en loccurrence la VaR) qui est prcisment
la charge en capital recherche.
Exemples
Nous donnons quelques exemples en dimension 2 . Lobjet est alors de calculer la distribution bivarie de deux risques X1 et X2 de marginales FX1 et FX2 donnes, lies par une
copule C spcifie.
Ainsi si nous considrons des risques de lois normales X1 N (8, 2) et X2 N (10, 1), et
une copule normale C de coefficient de corrlation = 0.4 alors le vecteur X = (X1 , X2 ) a
pour fonction de rpartition bivarie FX (x1 , x2 ) = C (8,2 (x1 ), 10,1 (x2 )), avec la fonction
C dfinie prcdemment et , la fonction de rpartition de la loi normale. Cette criture
69

I.S.F.A.

Mmoire dactuariat

A. R ENAUDIN

est utile afin de comprendre lassemblage des marginales effectu au moyen de la copule
pour obtenir la distribution bivarie de la figure 7.5 (cest alors une densit de vecteur
gaussien, les marges et la structure de dpendance tant normales).

x 10

densit bivarie ( =0.4)

1
0.8
0.6
0.4
0.2
0
6

5.5

4
2

4.5

marginale 2 : N(10,1)

marginale 1 : N(8,2)

F IGURE 7.5 Densit bivarie de deux risques gaussiens corrls par une copule normale ( =
0.4)
La grande souplesse de cette mthode dagrgation par copules est quil est possible
de spcifier la copule indpendamment des marginales. Il est donc par exemple possible
de choisir une structure de dpendance archimdienne entre deux risques normaux : la
densit correspondante est alors reprsente en figure 7.6. Cela permet de bien percevoir la
structure de dpendance induite par ce couplage.

x 10

densit (= 5)

1.5

0.5

0
6

5.5

4
2

0
4.5

N(10,1)

N(8,2)

F IGURE 7.6 Densit bivarie de deux risques gaussiens corrls par une copule de Gumbel
( = 5)

70

Chapitre 8

Une premire approche pour


diversifier les charges en capital :
lapproximation gaussienne
Cette mthode dagrgation, qui tient compte des effets de diversification entre les
risques, se base sur une formule ferme dagrgation dcoulant dune hypothse gaussienne
sur les distributions annuelles de pertes. Nous prsentons auparavant les enjeux et les proprits souhaitables en terme de mthodes dagrgation et dallocation.

8.1

Hypothses et mthodologie

Lhypothse centrale du modle est de considrer que le vecteur des pertes annuelles
` = (`1 , ..., `J )0 pour les J catgories de risque dune entit est un vecteur gaussien. En
notant j,j 0 la corrlation entre les pertes annuelles des lignes mtiers j et j 0 de
 lentit
considre, nous rappelons que nous avons alors la relation : j,j 0 = cov(`j , `j 0 ) sj sj 0 , o
sj =var(`j ).
Cette hypothse se rsume donc comme suit :
2

s1
.. . .

. j,j 0 sj sj 0
0

` N (m, ) avec m = (m1 , ..., mJ ) et = .

.
..
..

2
sJ
Cela implique donc que pour tout j appartenant [[1, J]], la perte annuelle de la j e`me
catgorie de risque dune entit fixe suit une loi normale :

`j mj
N (0, 1)
`j N mj , s2j
sj
Daprs la dfinition de la CaR au seuil de confiance , nous pouvons crire avec la
rpartition de la loi normale standard :

P (`j > CaRj ) = 1 = P
Do


=

`j mj
CaRj mj
>
sj
sj

CaRj mj
sj


=1

CaRj = mj + 1 () sj

71

CaRj mj
sj

(8.1)

I.S.F.A.

8.2

Mmoire dactuariat

A. R ENAUDIN

Formule dagrgation

Lobjectif est de pouvoir calculer 


la chargeen capital de la somme des pertes annuelles
PJ
des J catgories de risque, soit CaR
j=1 `j = CaRtotale . Or nous connaissons la distribution de cette somme, en tant que transformation linaire dun vecteur gaussien :

`1
J
X


`j =t 1.` = (1, , 1) ... N t 1.m, t 1..1


j=1
`J
Soit
L=

J
X

`j N

j=1

J
X

mj ,

j=1

J X
J
X
j=1

j,j 0 sj sj 0

(8.2)

j 0 =1

La relation (8.1) trouve prcdemment permet daboutir la formule dagrgation entre


les j charges en capital des catgories de risque dune entit :
v
u J J
J
X
uX X
1
j,j 0 sj sj 0
CaRtotale =
mj + () t
j=1 j 0 =1

j=1

CaR m

Cette relation (8.1) indiquant galement que sj = 1j () j , la formule prcdente peut


finalement sexprimer en fonction des diffrentes charges en capital agrger :
v
u J J
J
X
uX X
mj + t
j,j 0 (CaRj mj ) (CaRj mj 0 )
CaRtotale =
(8.3)
j=1

j=1 j 0 =1

Dans le cadre usuel dune svrit log-normale et dune loi de Poisson pour la frquence
suppose indpendante de la svrit, `j suit une loi Poisson-compose. Le paramtre mj
sexprime alors simplement comme le produit des moyennes des deux distributions :

mj = j exp j + j2 /2 .
Le paramtre s2j = var(`j ) sobtient pour sa part avec la formule de dcomposition de la
variance (voir quation (3.1) p.16 dans la prsentation du modle LDA) et vaut


 
2

s2j = j expj2 1 exp 2j + j2 + exp j + j2 /2


{z
} |
{z
}
|
[E()]2

var()

Cas dindpendance
Dans le cas particulier o j,j 0 = 0 pour j 6= j 0 alors la formule (8.3) prcdente devient :
v
u J
J
X
uX
2
ind
CaRtotale =
mj + t
(CaRj mj )
j=1

j=1

72

I.S.F.A.

Mmoire dactuariat

A. R ENAUDIN

Cas de dpendance totale


Avec j,j 0 = 1, la formule se simplifie alors en :
v
2
u
u X
J
J
J
X
X
u

t
CaRdep
=
(CaR

m
)
=
m
+
CaRj
j
j
j
totale
j=1

j=1

j=1

ce qui est bien le rsultat attendu, et fournit une borne suprieure sur le niveau de capital
agrg.

8.3

Allocation

Dans le cadre de lapproximation gaussienne du vecteur des pertes annuelles, il est galement possible dobtenir une formule ferme pour lallocation du capital associe la mesure de risque VaR (cf. 7.3.3 p.60). Nous rappelons que dans ce cas la contribution du j e`me
risque vaut :
Kj = E [`j | L = V aR (L)]
Or, dans le cas gaussien, il est possible de voir cette lesprance conditionnelle comme la
projection orthogonale `
j de `j sur lespace vectoriel engendr par (1, L), ce qui implique :
cov(`j , L)
(L m)
s2
Nous obtenons ainsi, avec les notations utilises prcdemment, la formule explicite
suivante :
P
s2j + i6=j i,j sj si
Kj = mj +
(V aR (L) m)
(8.4)
s2
PJ
o m et s2 sont les paramtres de la loi normale suivie par L = j=1 `j , qui ont t calculs
auparavant dans lquation (8.2) .
E [`j | L] = `
j = mj +

8.4
8.4.1

Exemple simple en dimension 2


Agrgation

Supposons que nous voulons agrger deux catgories de risques dont les pertes annuelles
PN1 (1)
PN2 (2)
sont `1 = i=1
i et `2 = i=1
i , avec (i) LN (i , i ) et Ni P (i ). Nous les
supposons corrles linairement avec un coefficient . Le tableau suivant rpertorie les
paramtres des deux catgories en question ainsi que les CaR associes :
1
8

1
2

1
10

2
10

2
1

2
50

CaR199.9%
5.34 M C

CaR299.9%
3.60 M C

Dans le cadre de lapproximation gaussienne prsente prcdemment dans ce chapitre,


le vecteur ` = (`1 , `2 ) suit une loi gaussienne bivarie N (m, ) et donc `i N (mi , si )
pour i = 1, 2. Cela revient donc construire la distribution bidimensionnelle de la variable
` en supposant la normalit des marginales `i et de les agrger par une copule normale (cf.
7.5.5 page 65).
La formule (8.3) tablie prcdemment permet de calculer le montant de la charge en
capital agrge, en fonction du paramtre liant les deux catgories de risque.
La figure 8.1 permet de visualiser graphiquement ce montant, en fonction dun coefficient variant entre 0 et 1 (les corrlations ngatives tant exclues). Dans ce cadre gaussien,
nous vrifions alors la sous-additivit des CaRs (ce qui nest pas toujours le cas, voir 7.2.3).
73

I.S.F.A.

Mmoire dactuariat

A. R ENAUDIN

8.8

CaR agrge
Dpendance totale
Indpendance

CaR agrge (M)

8.6

8.4

8.2

7.8

7.6

7.4

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

F IGURE 8.1 Niveau du capital agrg (niveau 99.9%) entre deux catgories de risques en
fonction de leur coefficient de corrlation linaire

8.4.2

Allocation

Nous pouvons de mme tracer le capital allou aux deux risques selon leur contribution la charge en capital totale au moyen de la formule (8.4), en fonction de . Cest le
rsultat de la figure 8.2, o nous pouvons vrifier graphiquement la proprit dallocation
complte : la somme des deux allocations est toujours gale au niveau de capital agrg
calcul prcdemment.

Capital allou (Millions euros)

Allocation risque 1
Allocation risque 2
Somme des allocations
CaR agrge (cf. prcdemment)

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

F IGURE 8.2 Allocation du capital agrg selon la CaR99.9% entre deux catgories de risques
en fonction de leur coefficient de corrlation
De plus, nous pouvons constater que cette mthode dallocation a lavantage de prendre
en compte la corrlation entre les risques. En effet, au contraire dune allocation statique
au prorata de la valeur des CaR respectives (toujours suprieure pour le risque 1), le capital
allou chaque risque change dynamiquement en fonction de leur corrlation . Cest ainsi
qu partir dun certain niveau de corrlation 0 0.6 le risque 2 prend le pas sur le risque
74

I.S.F.A.

Mmoire dactuariat

A. R ENAUDIN

1 et ncessite une allocation plus importante, ce qui ne parait forcment vident premire
vue. Notamment, il est intressant de remarquer que bien que la CaR agrge soit la somme
des deux CaR individuelles dans le cas dune dpendance totale ( = 1), cette mthode
alloue K1 = 4.38 M C au risque 1 et K2 = 4.56 M C au risque 2. Ainsi nous avons bien
K1 + K2 = CaR1 + CaR2 mais K1 6= CaR1 et K2 6= CaR2 comme nous aurions pu nous y
attendre.

8.5

Avantages et inconvnients

Cette manire de procder a pour principal avantage dtre facilement applicable. Elle
requiert simplement davoir men les calculs de CaR pour chaque risque comme expliqu
prcdemment et spcifi une matrice de corrlation entre ces risques (gnralement fournie par des concertations dexperts mtiers dans le cadre du risque oprationnel). En outre,
elle ne ncessite aucune simulation et donc pas de temps de calcul. De plus, les paramtres
intervenant dans la formule dagrgation et dallocation sont facilement interprtables et
comprhensibles. La charge en capital agrge crot alors linairement avec le niveau de
corrlation ce qui est assez intuitif.
Cette mthode peut tout de mme apparaitre assez irraliste en pratique. En effet, lhypothse centrale du modle est trs forte. Cela revient supposer que les pertes annuelles des
diffrentes catgorie de risques forment un vecteur gaussien, ce qui implique que chaque
perte annuelle est suppose de loi normale. En dautre termes, cela revient approximer
toutes les marginales de loi Poisson-compose (gnralement Poisson-lognormale) par des
lois normales. Cela peut savrer incohrent surtout quand le paramtre de frquence est
lev, car lasymtrie de la densit de la perte annuelle est alors accentue et sa queue de
distribution paissie, ce qui rend lapproximation gaussienne caduque. De plus, nous avons
vu que cette mthodologie implique dutiliser une mesure de corrlation linaire, qui est peu
adapte aux cas rencontrs en pratique et peut parfois conduire de fausses interprtations.
Tout cela implique donc de chercher dautres moyens dagrger les charges en capital en
utilisant des hypothses plus ralistes et moins rductrices, refltant mieux lexposition au
risque oprationnel de ltablissement bancaire considr. Tout cela est lobjet du pilier 2 de
Ble II et nous proposons dans le chapitre suivant une mthodologie rentrant dans ce cadre
rglementaire, qui a t prsent au chapitre 2 (p.7).

75

Chapitre 9

Mise en place dune nouvelle


mthodologie : agrgation par
copules
En pratique, lintensit de la dpendance entre risques augmente dans les situations dfavorables, ce qui limite lefficacit des modles de diversification calibres avec des structures
gaussiennes ne prenant pas en compte cet effet. Lintroduction de structures de dpendance
non linaires intgrant de la dpendance de queue apparait ainsi comme un lment incontournable de lvolution des modles de capital conomique au titre du risque oprationnel
dans le cadre de lICAAP.

9.1

Principes de la mthode propose

Nous prsentons une mthodologie innovante en vue de lobtention dun capital conomique pour le risque oprationnel pour un groupe dans le cadre de ladquation des fonds
propres (pilier 2 de Ble II). Cette mthode prend en compte les interactions entre ses catgories de risques et diffrentes entits au moyen de fonction copules. Nous prsentons tout
dabord les fondements thoriques de la mthodologie, puis lappliquons dans la pratique
pour agrger les risques oprationnels des entits du Groupe Crdit Agricole. Nous discutons enfin des rsultats obtenus et les comparons avec la mthode dagrgation gaussienne
prsente prcdemment.

9.1.1

Objectifs

Nous prsentons dans ce paragraphe lide gnrale et les notations de la mthodologie


qui va suivre.
Lobjectif est dagrger les risques oprationnels au niveau dun groupe constitu de I
entits, chacune composes de J catgories de risque afin dobtenir un capital conomique
pour ce groupe, puis de rallouer ce capital entre ses entits de manire judicieuse. Pour
ce faire, nous nous proposons de raisonner selon une approche type bottom-up (plusieurs
tapes dagrgations, du niveau le plus lmentaire vers le niveau le plus global savoir
celui du groupe) en utilisant chaque tape loutil copule prsent prcdemment pour
modliser la dpendance entre risques et pouvoir les agrger.
Les risques considrs seront les pertes annuelles `k , appartenant soit une catgorie
de risque soit une entit : k [[1, J]] [[1, I]]. Nous nous intressons alors la distribution
conjointe du vecteur L de ces pertes annuelles, dont nous supposons la dpendance mod-

76

I.S.F.A.

Mmoire dactuariat

A. R ENAUDIN

lise par une copule C donne 1 . Le but est alors de simuler des ralisations de la somme
des composantes de ce vecteur de pertes afin den dduire la charge en capital rsultant de
lagrgation de ces risques.
Dans le chapitre o nous dtaillions les proprits et lutilit des copules dans un contexte
dagrgation de risques (7.5.7 page 69), L tait simule partir de la transformation suivante, crite en confondant intentionnellement variable alatoire et fonction de rpartition
associe :

1
`1 (U1 )

..
(9.1)
L=

.
`1
n (Un )

Ceci implique alors de connaitre les distributions analytiques des pertes annuelles `1 , ..., `n ,
de chaque catgorie de risque ou entit agrger. Or ce nest pas le cas dans le cadre du
modle LDA (voir chapitre 3) car ces distributions sont de type Poisson-composes. Mais
comme il est nanmoins possible de simuler ces distributions marginales (lalgorithme est
rappel en 6.1 p.53), nous pouvons utiliser ces marges empiriques en lieu et place des distributions thoriques : cest la mthode dite des quantiles empiriques, qui converge vers
la distribution thorique pour un nombre de simulations S suffisamment grand (voir la dmonstration formelle dans [2] p.320, base sur la convergence presque sre des quantiles
empiriques vers les quantiles thoriques).
Nous remarquons donc ds prsent lun des principaux avantages de la mthode :
aucune hypothse supplmentaire nest faite sur les marginales agrger, contrairement
lapproximation normale de ces marginales prsente dans le chapitre prcdent.

9.1.2

Etape 1 : agrgation des catgories de risque

Tout dabord, il est question de calculer une charge en capital pour lensemble des J
catgories de risques pour une entit i considre. Lintgration des scnarios stand alone
concernant lentit i est pris en compte en considrant ces scnarios comme des catgories
de risque part entire (de chaque scnario tant dduit un triplet (, , ) aboutissant
une distribution de perte annuelle et une CaR associe, voir 3.4 p.19).
Le principe est alors de recrer la distribution multidimensionnelle L partir des lois
marginales `1 , ..., `J (elles-mmes obtenues par simulations : ce sont donc des marginales
empiriques) et dune copule C1 choisie.
Simulation de la matrice des pertes annuelles
Pour chaque catgorie de risque j [[1, J]], nous simulons tout dabord les distributions
de chacune de leurs pertes annuelles, cest--dire la matrice
(1)

(1)
` = ( `1

...

`J ) =

`1
..
.
(S)
`1

...

...

`J
..
.
(S)
`J

(s)
Ni


P
(s)
(s)
(s)
bj et (s) est simul selon la loi
avec pour tout s [[1, S]], `j = k=1 j,k o Nj P
j,k

de svrit choisie et pralablement estime, ici LN
bj ,
bj .
Cette matrice matrialise donc les marges empiriques simules S fois, que nous allons
agrger selon la structure de dpendance dfinie par la copule C1 .
1. Nous supposons ici que le type de la copule C a t spcifi. Le problme du choix de la forme de cette
copule sera discut en 9.1.6 p.79.

77

I.S.F.A.

Mmoire dactuariat

A. R ENAUDIN

Simulation de la copule C1
Afin de pouvoir mettre en uvre lagrgation, il faut prsent simuler 2 des ralisations
de la copule C1 . Nous obtenons donc la matrice
(1)

(1)

C1 =

u1
..
.
(S)
u1

...

...

uJ
..
.
(S)
uJ

o chacune des S lignes est une ralisation des composantes de la copule C1 de dimension
J.
Obtention de la matrice des simulations de la perte agrge totale
En combinant la matrice des simulations des pertes annuelles ` et la matrice des simulations de la copule C1 , il est possible deP
simuler la distribution de perte multidimensionnelle
L ainsi que la perte agrge Lagreg = k `k , o lindice k parcourt les catgories de risque
considres.
Ainsi pour chaque ligne la matrice C1 , il est possible dobtenir une ralisation de L selon
la transformation (9.1) prsente plus haut : les diffrentes composantes de L sont obtenues comme les quantiles empiriques des colonnes de `, qui representent les distributions
marginales, pris aux niveaux contenus dans les lignes de la matrice C1 .
Cette matrice comportant S lignes, nous obtenons donc autant de simulations du vecteur
L de dimension J. Il suffit enfin de sommer les lignes de cette matrice pour obtenir un
vecteur reprsentant S simulations de la perte agrge Lagreg (de dimension 1) : la charge
en capital lie lagrgation des risques est alors obtenue en calculant le quantile empirique
de ce vecteur au niveau dsir.

9.1.3

Etape 2 : agrgation des entits

Lobjet est maintenant dagrger les pertes annuelles des I entits, dont les catgories de
risques ont t agrges ltape prcdente.
Il sagit donc de drouler la mme mthode quauparavant, avec cette fois en entre
les vecteurs pertes annuelles des entits : Lagreg
, ..., Lagreg
qui constituent les marginales
1
I
agrger, et une structure de dpendance modlise au moyen dune fonction copule C2
suppose spcifie, de dimension I.
Plus formellement, nous avons donc une matrice

agreg(1)
agreg(1)
...

L1

L=(

Lagreg
1

...

Lagreg
I

..
.

)=

LI

agreg(S)

L1

...

agreg(S)

LI

ainsi quune matrice

(1)

v1

C2 = ...
(S)
v1

...

...

(1)

vI
..
.
(S)
vI

partir desquelles P
nous dsirons simuler des valeurs de la perte totale agrge au niveau
agreg
groupe : Lagreg
=
.
groupe
k Lk
Comme auparavant nous utilisons la transformation (9.1) pour obtenir S simulations
de la perte multidimensionnelle Lgroupe = (Lagreg
, Lagreg
, ..., Lagreg
) dans une matrice
1
2
I
de dimension S I, puis il suffit de sommer les lignes de cette matrice pour aboutir S
simulations de la perte des entits agrges au niveau groupe Lagreg
groupe .
2. Les techniques de simulation des copules ont t abordes 7.5.6 p.68

78

I.S.F.A.

Mmoire dactuariat

A. R ENAUDIN


La charge en capital CaRgroupe = CaR Lagreg
groupe requise pour le risque oprationnel
au niveau du groupe se dduit alors simplement de ce vecteur en en calculant le quantile
empirique au niveau choisi.

9.1.4

Etape 3 : Allocation

Afin dallouer le capital calcul prcdemment entre les diffrentes entits du groupe
nous utilisons logiquement une allocation base sur la mesure de risque VaR, dont les fondements et les proprits thoriques ont t prsents pralablement (7.3.3 p. 60).
Cette mthode dallocation se fonde sur la contribution de la perte annuelle de chaque
entit la perte annuelle totale du groupe. En notant Ki le capital devant tre allou la
ie`me entit, nous avons formellement :


agreg
Ki = E Lagreg
| Lagreg
groupe = CaR Lgroupe
i
En pratique, nous dterminons cette esprance par simulations. Le calcul de CaRgroupe
prsent prcdemment est men p fois, et chaque valeur obtenue nous gardons en mmoire les diffrentes contributions des vecteurs Li la valeur de CaRgroupe . Il ne reste ensuite qu moyenner ces contributions pour obtenir lallocation du capital CaRgroupe entre
les diffrentes entits.

9.1.5

Exemple en dimension 2

Afin de bien comprendre la mthodologie dagrgation expose dans la section prcdente, nous lappliquons sur un exemple simple en dimension 2.
Lobjet est donc dagrger deux risques `1 et `2 (correspondants aux pertes annuelles de
deux catgories de risque, ou de deux entits) dont la dpendance est modlise par une
fonction copule note C1 . Les distributions `1 et `2 tant de type Poisson-compos, nous
procdons par simulations : S = 100 tirages de chaque variable alatoire sont effectus
dans cet exemple. La figure 9.1 illustre alors comment la distribution de Lagreg = `1 + `2
est reconstitue partir des tirages de `1 et `2 tris dans des vecteurs `01 et `02 , et de la
matrice des simulations de la copule C1 . Chaque composante du vecteur Lagreg est alors
obtenue en sommant les quantiles empiriques de `01 et `02 dont les niveaux sont donns par
les composantes des lignes de la matrice C1 .
Une simulation des contributions de `1 et `2 la CaR agrge est galement reprsente. Ces deux contributions sont obtenues en sur la composante du vecteur des simulations
de Lagreg correspondant sa CaR. Cette composante est constitue de la somme de deux
termes provenant respectivement de `01 et `02 et sont prcisment des ralisations des contributions recherches.
En ritrant Salloc fois cette tape dagrgation et en calculant chaque itration ces
deux contributions, nous avons donc bien en moyenne :
contribi

9.1.6

= E [`i | `1 + `2 = CaR (Lagreg )]

(9.2)

Discussion sur le choix de la copule

Dans les paragraphes prcdents de ce chapitre, nous avons raisonn en supposant que
la copule modlisant la dpendance entre les risques agrger tait prdtermin, car la
question point est dlicat traiter dans le cadre du risque oprationnel. En effet, les procdures dinfrence et destimation classiques pour les copules ne peuvent sappliquer : les
pertes annuelles tant collectes sur un historique de 5 ans, nous ne disposons donc que de
5 points pour chaque risque agrger. Or les mthodes de slection de copule optimale 3
3. Voir ce propos la dmarche propose par Armel, Planchet et Kamega (2010) dans : Quelle structure de
dpendance pour un gnrateur de scnarios conomiques en assurance ?

79

I.S.F.A.

Mmoire dactuariat

A. R ENAUDIN

F IGURE 9.1 Illustration de lagrgation de deux pertes annuelles par copule


sappuient gnralement sur des outils graphiques (en dimension 2) ou sur la mesure dune
distance entre la copule empirique (construite partir des donnes collectes) et une copule
paramtrique, ce qui ncessite de disposer de suffisamment dobservations. Nous sommes
donc obligs dintuiter la structure de dpendance au cas par cas, en se basant sur les proprits des principales copules prsentes auparavant. De mme, une fois le choix de la
copule effectu, lestimation de son ou ses paramtres est difficilement envisageable, faute
de donnes suffisantes.
La solution la plus naturelle pour apprhender la dpendance en dimension n quelconque est dutiliser une copule de la famille elliptique (Normale ou Student). En effet, ce
type de copule prend en paramtre une matrice de corrlation de dimension n, ce qui permet de diffrencier les dpendances entre chacune de ses composantes. De plus, par son
caractre intuitif, ce type de matrice peut facilement tre fourni par des experts mtiers
dont le rle est dapprcier les corrlations entre diffrentes branches dactivit ou entits
dun mme groupe. Ceci solutionne par la mme occasion ltape destimation du paramtre
matrice de corrlation de la copule.
Les autres types de copules, en particulier les copules archimdiennes, ont lavantage
de pouvoir modliser des dpendances plus diverses, notamment une asymtrie et une dpendance forte des valeurs extrmes. En revanche, toute la dpendance nest rsume que
dans un seul paramtre scalaire et les composantes sont alors toutes corrles de la mme
faon, ce qui ne parait donc pas raliste dans la pratique. Lestimation de ce paramtre par
des experts est en outre rendue complexe du fait que le domaine de dfinition du paramtre peut varier avec le type de copule envisag. Pour les copules archimdiennes, une
solution est denvisager une construction hirarchique mais cela pose un certain nombre de
complications et de contraintes que nous dtaillerons au chapitre suivant (chapitre 10, p.
88).
En consquence, nous nous centrerons dans la suite sur lutilisation de copules issues
de la famille elliptique pour modliser les dpendances entre pertes annuelles, savoir les
copules normale et de Student, dont la matrice de corrlation est estime dires dexperts.

80

I.S.F.A.

9.2
9.2.1

Mmoire dactuariat

A. R ENAUDIN

Lexemple du Groupe Crdit Agricole


Mise en uvre de la mthodologie dagrgation prcdente dans
le cadre de lICAAP

Nous prsentons ici une application pratique de la mthode dagrgation prsente dans
la section prcdente pour le groupe Crdit Agricole, en utilisant les donnes de pertes
collectes par ses entits valides en approche avance AMA. Pour des raisons de confidentialit, certains rsultats prsents dans la suite ont t transforms, sans que cela ne nuise
lanalyse et linterprtation des calculs.
Etape prliminaire
Lobjectif est de mutualiser les donnes de plusieurs entits selon une nouvelle dfinition
des lignes mtiers afin dtre plus en phase avec la dfinition des lignes mtiers prsente
dans le texte Ble II. Pour le Groupe Crdit Agricole, les quatre ples mtiers suivants ont
t dfinis :
1. Banque de financement et dinvestissement (BFI) : CA-CIB
2. Gestion dactifs : Amundi
3. Crdit la consommation : CA-CF (rsultat de la fusion entre Finaref et Sofinco), Agos
4. Banque de dtail : LCL, Caisses rgionales
Les donnes de pertes ont donc t regroupes par catgories de risques au sein de chaque
ple mtier, et de nouveaux scnarios stand alone concernant ces diffrents ples ont t
labors par des experts mtiers. Comme rappel au paragraphe 9.1.2 (p.77), les scnarios stand alone mutualiss sont ensuite considrs comme autant de catgories de risques
supplmentaires aux ples mtiers.

F IGURE 9.2 Principe dagrgation des risques oprationnels propos (bottom-up en 2 tapes)

Etape 1 : agrgation des catgories de risques au sein des ples mtiers


Dans cette premire tape, il est question dagrger les diffrentes catgories de risques
(ainsi que les scnarios) de chaque ple mtier, en tenant compte de leur dpendance. Cela

81

I.S.F.A.

Mmoire dactuariat

A. R ENAUDIN

aboutit alors la construction dune distribution annuelle de perte pour chaque ple mtier,
par simulation.
Plaons nous au sein dun ple mtier la dmarche tant la mme pour tous et
appliquons la mthodologie de la section 9.1 prcdente. Lajustement dune loi de frquence (Poisson) et de svrit (ici lognormale) pour chacune des catgories aboutit 7
triplets (, , ), qui viennent sajouter aux nS triplets rsultants des nS scnarios stand
alone concernant le ple en question.
Pour reprendre les notations prcdentes, ces paramtres permettent alors de simuler les pertes annuelles de chaque catgorie de risque, regroups dans la matrice ` =
( `1 . . . `7+nS ). Il est ensuite possible de simuler la copule choisie pour reprsenter la
dpendance entre catgories de risques/scnarios dans la matrice C1 de dimension 7+nS , et
dobtenir par simulations le vecteur Lagreg , reprsentant la distribution de la perte annuelle
du ple mtier considr.
Etape 2 : agrgation des ples mtiers
Une fois obtenus les vecteurs des distributions de la perte annuelle pour chaque ple
mtier, il est question de les agrger en tenant compte de leur dpendance, afin dobtenir la
distribution de la perte annuelle pour lensemble du groupe. Cela permet alors den extraire
la charge en capital diversifie, ou capital conomique au titre des risques oprationnels.

agreg
. . . Lagreg
Avec les notations prcdentes, cela revient utiliser la matrice L = L1
4
et la matrice C2 de dimension 4 modlisant la dpendance entre les ples pour obtenir le
vecteur Lagreg
groupe .
Ces diffrentes tapes de la mthodologie dagrgation sont reprsentes en figure 9.2.

9.2.2

Parallle avec la formule standard de Solvabilit II

Le Capital de Solvabilit Requis (SCR, Solvency Capital Requirement) dans Solvabilit


II est lanalogue du capital rglementaire requis dans Ble II, mais calcul au niveau de
confiance 99.5%. Au niveau dun groupe dassurance, le calcul rglementaire du SCR global
se fait de la manire suivante :
SCRglobal = BSCR Adj + SCRop
Avec :
BSCR : capital de solvabilit requis de base
Adj : terme dajustement d aux effets dabsorption des provisions techniques et des impts
diffrs
SCRop : capital requis pour le risque oprationnel (voir 2.4.2 p.12 pour les prconisations
de calcul dans le cadre de Solvabilit II).
Le terme rsultant de lagrgation des modules de risques est le BSCR : un SCR doit tre ainsi
tre calcul pour chacun de ces modules de risque. Ces SCR peuvent tre calculs par une
formule standard, cest--dire fournie par les autorits de rgulation europennes. Celleci dfinit pour chaque classe des facteurs de risques spcifiques et une mthode standard
dvaluation.
Selon les spcifications de la cinquime tude quantitative dimpact (QIS 5), lagrgation
des risques se fait donc en 2 tapes (voir figure 9.3).
Etape 1 : agrgation entre risques dun mme module
Au sein du module de risque i, il est question dagrger les J sous-modules de risque. La
formule standard indique alors que :

82

I.S.F.A.

Mmoire dactuariat

A. R ENAUDIN

F IGURE 9.3 Structure gnrale dagrgation bottom-up des risques dans Solvabilit II (QIS 5)

(module)

SCRi

sX

p,q SCRp SCRq

p,qJ

O p,q est le coefficient de corrlation (linaire) entre les sous-modules p et q, et SCRp


et SCRq les capitaux correspondants.
La formule standard fournit les valeurs des matrices de corrlation, et donc des coefficients p,q .
Etape 2 : agrgation entre modules de risque
Les SCR des modules de risque ainsi obtenus sont alors agrgs pour obtenir le BSCR,
selon la mme formule (en ajoutant un terme provenant du capital requis au titre du risque
li aux actifs incorporels). L encore, les coefficients de corrlations sont fournis par le
rgulateur. Ils sont actuellement soumis discussion, mais le QIS 5 a abouti la matrice
rpertorie dans le tableau 9.1.

March
Contrepartie
Vie
Sant
Non-vie

March
1
0.25
0.25
0.25
0.25

Contrepartie

Vie

Sant

Non-vie

1
0.25
0.25
0.5

1
0.25
0

1
0

TABLE 9.1 Matrice de corrlation fournie par le QIS 5 entre les modules de risques de la
formule standard de Solvabilit II

83

I.S.F.A.

Mmoire dactuariat

A. R ENAUDIN

Interprtation
Il apparait clairement que les formules dagrgation fournies par la formule standard
pour les diffrentes tapes sont en fait quivalentes celles obtenues au chapitre prcdent (voir lquation (8.3) p.72). Lagrgation des risques par la formule standard, telle que
propose actuellement, fait donc lhypothse dun univers Gaussien avec toutes les simplifications que cela implique (hypothse de dpendance linaire entre les risques).

9.3

Rsultats obtenus

Nous mettons ici en application la mthodologie dagrgation des risques oprationnels


prcdente base sur les copules au Groupe Crdit Agricole et ses diffrents ples mtier,
afin dobtenir un capital conomique au niveau groupe au titre des risques oprationnels,
dans le cadre de lICAAP.

9.3.1

Capitaux non diversifis

Afin davoir un aperu du bnfice de diversification engendr par cette mthode dagrgation, le tableau 9.2 recense les CaR non diversifies pour chaque ple mtier du Groupe,
au niveau 99.97%. Ces CaR sont simplement obtenues en sommant les CaR de chaque catgorie de risque les composant. De mme, la CaR groupe non diversifie est obtenue comme
la somme des CaR non diversifies des diffrents ples du Groupe Crdit Agricole.
CaR (MC)
= 99.97%

Banque de dtail
1839

Crdit conso.
85.6

Asset management
389

BFI
1301

Groupe
3615

Rpartition


D
&/

TABLE 9.2 Valeur et rpartition des capitaux non diversifis pour chaque ple du Groupe
Crdit Agricole
Nous notons que la charge en capital la plus importante est celle du ple Banque de
dtail, et reprsente plus de la moiti du capital total non diversifi au niveau du Groupe.

9.3.2

Un mot sur les matrices de corrlation

Corrlations dires dexperts


Dans la suite, nous calculons les valeurs des capitaux obtenus en prenant en compte
les effets de diversification dus la dpendance entre catgories de risques, et entre ples
mtiers. Comme rappel au paragraphe 9.1.6 (p.79), nous privilgions les mthodologies
faisant directement intervenir des matrices de corrlation pour effectuer lagrgation et lallocation. Parmi elles, nous testons donc lagrgation par copules elliptiques (Normale et
Student), que nous comparons la formule dagrgation standard reposant sur une hypothse de normalit du vecteur des pertes annuelles agrger. Dans la suite, cette matrice de
corrlation est dtermine en interne, sur la base de rsultats de discussions entre experts
mtiers lors de divers ateliers.
84

I.S.F.A.

Mmoire dactuariat

A. R ENAUDIN

Pour la premire tape, les corrlations entre les diffrentes catgories de risques de
chaque ple mtier sont obtenues en pondrant les corrlations des catgories de risque des
entits qui font partie du regroupement. Afin de rester cohrent avec le contexte de lICAAP,
cette pondration sera choisie comme la CaR au niveau 99.97% de lentit considre.
La deuxime tape ncessite pour sa part de connaitre les corrlations entre les diffrents ples mtiers du groupe. Par mesure de conservatisme, chaque coefficient est alors
obtenu en prenant le maximum des coefficients apparaissant dans les matrices de corrlation disponibles pour chaque entit formant le ple.
Alternatives et justification
La matrice de corrlation constituant le paramtre de la copule utilise auquel nous
pouvons rajouter le degr de libert pour une copule de Student le cadre classique de
la statistique paramtrique impose alors de les estimer partir des donnes empiriques
notre disposition. Ces donnes tant les pertes annuelles sur un historique de 5 ans, elles ne
sont donc pas assez nombreuses pour permettre une estimation satisfaisante.
Une alternative serait nanmoins de travailler sur des donnes mensualises. La dmarche serait alors de calculer les tau de Kendall empiriques ij entre ces pertes mensuelles,
puis dutiliser la relation les liant au coefficient de corrlation linaire 4 pour obtenir les estimations ij des coefficients de la matrice de corrlation . Dans le cas de lutilisation
dune copule de Student, il reste estimer le degr de libert qui se fait classiquement par
maximum de vraisemblance sur ces mmes donnes 5 .
Pour autant cette dmarche, si elle est plus rigoureuse mathmatiquement, ne parait
pas acceptable dans sa logique. Elle utilise en effet des donnes de pertes mensuelles pour
estimer les paramtres dune copule cense modliser la dpendance entre pertes annuelles.
De plus, elle ninterdit pas dobtenir des corrlations ngatives entre risques, qui en plus
dtre peu ralistes sont difficilement justifiables auprs du rgulateur car sources dune
diversification trs importante.
Nous utiliserons donc dans la suite des matrices de corrlations construites par des experts mtiers, selon la mthodologie expose dans le paragraphe prcdent.

9.3.3

Considrations numriques et prcision des estimateurs

Dans la mthodologie dagrgation par copules, la premire tape est la plus consommatrice despace mmoire (lors de la seconde seuls 4 risques doivent tre agrgs). Il sagit
en effet dagrger 7 + nS risques, qui sont des vecteurs obtenus par simulations de longueur
NM C .
Pour cette tape le ple mtier le plus consommateur est la banque de dtail, o en
raison des nombreux scnarios standalone nous nous devons de travailler avec un total
de 26 risques, soit potentiellement effectuer des oprations sur une matrice de dimension
NM C 26.
Tous les calculs de charges en capital prcdents ont t effectus avec une valeur NM C
de 4 millions de simulations : cela constitue en effet la limite qui pouvant tre atteinte en
terme despace mmoire allou par M ATLAB sur les machines utilises. Nanmoins, nous
avons constat que cette valeur suffit garantir une prcision infrieure 1% pour les
calculs CaR diversifies (la prcision tant value par le coefficient de variation relatif,
dfini comme le ratio entre lcart-type des CaR obtenues et leur moyenne).
4. Avec ces notations nous avons la relation ij = sin (
ij /2)
5. En notant c la densit de la copule de Student, Fi les marginales empiriques, xi les donnes notre disposition et ui = Fi (xi ), alors le degr de libert est estim en maximisant la pseudo log-vraisemblance (mthode
CML) :
" n
#
X
i ; ; )

= argmax
ln c(u
>0

i=1

85

I.S.F.A.

Mmoire dactuariat

A. R ENAUDIN

En ce qui concerne le calcul des contributions la CaR agrge afin dobtenir les allocations (quation (9.2) p.79), nous le faisons avec Salloc = 1000 itrations. Ce choix est
contraint par le temps de calcul ncessaire, mais permet empiriquement dobtenir des allocations dont le coefficient de variation relatif est infrieur 5%. La prcision est donc
moindre que sur les charges en capital mais ceci est moins contrariant dans la mesure o
ces allocations sont des chiffres internes au groupe, et non des capitaux rglementaires qui
sont eux calculs avec la prcision suffisante (infrieure 1%).

9.3.4

Agrgation et capital conomique avec hypothse gaussienne

Nous appliquons ici la mthodologie dagrgation prsente au chapitre 8 (p.71), qui


nous lavons vu est similaire celle de la formule standard de Solvabilit II. Les capitaux
diversifis obtenus lissue des deux tapes sont prsents dans le tableau 9.3.
CaR (MC)
Banque de dtail
BFI
Asset management
Crdit conso.
Groupe

Etape 1
672
38
242
789
1742

Etape 2
.
.
.
.
1310

Diversification totale
-63%
-55%
-38%
-39%
-64%

TABLE 9.3 Capitaux obtenus via la formule dagrgation Gaussienne

9.3.5

Agrgation et capital conomique avec copule normale

Les rsultats sont regroups dans le tableau 9.4, au dessous duquel figure galement
lallocation du capital conomique obtenu selon la contribution de chaque ple mtier.
CaR (MC)
Banque de dtail
BFI
Asset management
Crdit conso.
Groupe

Valeur des capitaux


Etape 1 Etape 2 Diversification totale
413
.
-78%
31
.
-63%
214
.
-45%
751
.
-42%
1411
941
-74%
Allocation


D
&/

TABLE 9.4 Capitaux obtenus via une agrgation par copule Gaussienne, et allocation du
capital conomique du Groupe selon la contribution de chaque ple mtier
Le pourcentage de diversification total consquent obtenu au niveau groupe (74%) peut
sexpliquer par le fait que la copule normale ne prend pas en compte les dpendances entre
les risques extrmes (coefficient de dpendance de queue nul). Notons que lagrgation par
copule normale parait encore moins conservateur que
Lallocation induite par la contribution de chaque ple mtier la CaR fait quant
elle apparaitre une grande partie du capital allou la Banque de dtail. La banque de
86

I.S.F.A.

Mmoire dactuariat

A. R ENAUDIN

financement et dinvestissement (BFI), qui potentiellement comporte les risques les plus
extrmes, ne se voit allouer quant elle quune faible part du capital.
Cela apparait donc cohrent avec la remarque prcdente, savoir que la contribution de
ce ple la CaR est faible si nous ne prenons pas en compte les dpendances quil pourrait
y avoir dans les extrmes, do une allocation insuffisamment conservatrice.

9.3.6

Agrgation et capital conomique avec copule de Student

Comme lestimation du degr de libert de la copule est trs dlicat en pratique (voir
p.85) , nous avons ici choisi de travailler avec un degr de libert trs faible ( = 3) par
mesure de conservatisme. Nous constatons alors dans le tableau 9.5 un bnfice de diversification plus raliste que dans les deux cas prcdents.
CaR (MC)
Banque de dtail
BFI
Asset management
Crdit conso.
Groupe

Etape 1
1171
58
294
973
2499

Etape 2
.
.
.
.
2068

Diversification totale
-36%
-31%
-24%
-25%
-43%

Allocation


D
&/

TABLE 9.5 Capitaux obtenus via une agrgation par copule de Student ( = 3), et allocation
du capital conomique du Groupe selon la contribution de chaque ple mtier
Nous pouvons aussi noter quen plus de ce bnfice de diversification moindre attendu,
lallocation induite par ce choix de copule laisse apparaitre une part du capital bien plus
importante la Banque de Financement et dInvestissement (BFI), ce qui apparait plus
prudent. De plus, la rpartition propose est ici comparable au prorata des CaR de chaque
entit, ce qui dun point de vue mtier apparait plus logique.
Pour toutes ces raisons, cest la valeur du capital au niveau groupe obtenue par cette
mthode qui a t initialement valide par le Groupe comme capital conomique au titre de
lICAAP.

87

Chapitre 10

Approfondissements et
perspectives
Dans ce dernier chapitre, nous donnons quelques pistes qui pourraient tre envisages
pour modliser la dpendance entre risques oprationnels, lobjet tant de donner un aperu
des concepts mathmatiques en jeu et de leurs champs dapplication. Le dtail de leur utilisation pratique et de leur implmentation est un champ de recherche largement ouvert, et
qui reste explorer.

10.1

Les copules archimdiennes hirarchiques

10.1.1

Motivations

Nous avons prsent prcdemment les copules archimdiennes (7.5.5 p.67). Nous avons
galement vu que, bien quelles prsentent des caractristiques de dpendance adaptes au
risque oprationnel (notamment au niveau des dpendances de queue asymtriques), leur
utilisation en dimension suprieure 2 est limite par leur unique paramtre scalaire qui
a pour consquence de corrler tous les risques de la mme faon ce qui constitue une
hypothse trop peu raliste.
Un moyen de remdier cet cueil, et qui semble assez naturel, est denvisager une
construction hirarchique, ou imbrique, entre ces types de copule. Cela constitue alors un
moyen simple du moins en apparence de diffrencier et de caractriser plus prcisment
les dpendances entre risques.

10.1.2

Dfinition

Une copule C de dimension d est une copule archimdienne hirarchique (hierarchical


ou nested Archimedean copula) si cest une copule archimdienne, dont les arguments sont
ventuellement des copules archimdiennes hirarchiques. Cette dfinition rcursive sinitialise pour d = 2 avec la dfinition dune copule archimdienne classique (quation (7.4)
p.67).
Afin de mieux comprendre cette dfinition, considrons un exemple simple en dimension
d = 3 avec une structure faisant intervenir les gnrateurs archimdiens 0 et 1 et scrivant
comme suit :
C3 (u1 , u2 , u3 ) = C0 (u1 , C1 (u2 , u3 ))

(10.1)

La dfinition de copule archimdienne hirarchique est respecte pour C3 car cest bien
une copule archimdienne (de gnrateur 0 ) dont le deuxime argument est lui-mme
une copule archimdienne hirarchique (de dimension 2 donc concidant avec une copule
88

I.S.F.A.

Mmoire dactuariat

A. R ENAUDIN

archimdienne classique de gnrateur 1 ). Notons que cette structure peut facilement se


reprsenter sous forme darbre, ce qui est fait sur la figure 10.1.

F IGURE 10.1 Reprsentation sous forme darbre dune copule archimdienne hirarchique en
dimension 3
La copule intervenant au niveau le plus haut est gnralement appele racine (root copula). Plus gnralement, une copule est dite parent (parent copula) si au moins une de ses
composantes est une copule hirarchique, auquel cas cette copule est appele copule enfant
(child copula). Le niveau de hirarchie (nesting level) est dfinie comme la profondeur de
larbre, ici gale 2.

10.1.3

Contraintes

Pour que la structure dfinie au paragraphe prcdent vrifie toutes les proprits dune
fonction copule, il faut respecter certaines conditions sur les gnrateurs utiliss dans sa
construction.
McNeil (2008, [26]) prsente une condition suffisante pour que la structure hirarchique
construite soit effectivement une copule. Il faut que i1 j soit strictement monotone (ou
de manire quivalente : doit tre linverse dune transforme de Laplace) pour tous les
nuds de la structure, de parent i et enfant j.
En pratique, cette condition peut tre facilement vrifie si les gnrateurs utiliss font
tous partie dune seule et mme famille de copule archimdienne. Ainsi pour une copule hirarchique n niveau de hirarchie, avec des gnrateurs k de paramtre de dpendance k
issus dune mme famille, 0 tant le gnrateur de la copule racine et n celui de la copule
de niveau de hirarchie le plus lev, cela revient imposer ce que les k soient croissants.
Ceci est valable pour toutes les familles copules Archimdiennes classiques (Frank, Gumbel,
Clayton), et impose donc de coupler en premier lieu les risques les plus corrls.
Lorsque la structure hirarchique comporte des gnrateurs issus de diffrentes familles
archimdiennes, la condition nonce auparavant devient bien plus complexe, voir pour cela
les travaux de Marius Hofert (2010). En consquence, les combinaisons entre gnrateurs
de diffrentes familles seront exclus dans lexemple qui suit.

10.1.4

Exemple

Afin davoir un aperu de lutilit dune construction hirarchique en grande dimension,


nous considrons la copule de Clayton hirarchique C9 suivante :
C9 (u)

= C0 (u3 , u6 , u1 , C1 (u9 , u2 , u7 , u5 , C2 (u8 , u4 )))

(10.2)

avec 0 = 0.5, 1 = 2, 2 = 8
Cette structure de dimension 9 comporte trois niveaux de hirarchie et C9 dfinit bien
une copule car les gnrateurs tant tous issus de la famille de Clayton, nous vrifions bien :
0 6 0 6 1 6 2 . Une reprsentation de C9 et de ces diffrents paramtres de dpendance
sous forme darbre est donn figure 10.2.
89

I.S.F.A.

Mmoire dactuariat

A. R ENAUDIN

F IGURE 10.2 Reprsentation sous forme darbre de la copule hirarchique de Clayton C9


Afin de vrifier les proprits particulires de cette structure, il est possible de simuler
une telle copule et de tracer les dpendogrammes obtenus pour chaque composante, sous
forme de matrice. La figure 10.3 (obtenue avec le package nacopula de R) permet alors de
bien rsumer la structure de dpendance obtenue avec la copule de Clayton hirarchique
C9 , bien plus riche quavec une copule de Clayton classique.
En effet, nous observons alors que la dpendance entre les risques u4 et u8 est la plus
forte, ce qui est logique puisquils sont lis avec le paramtre de dpendance le plus grand,
2 = 8. Nous observons ensuite clairement les deux autres niveaux de dpendance : les
risques u9 , u2 ,u7 et u5 sont lis u4 et u8 avec une dpendance moins leve (4 = 2),
tandis que les risques u3 , u6 et u1 sont tous lis aux autres par le coefficient le plus faible,
proche de lindpendance (0 = 0.5).

F IGURE 10.3 Dpendogrammes obtenus entre les 9 risques coupls par la copule hirarchique
de Clayton C9

90

I.S.F.A.

10.1.5

Mmoire dactuariat

A. R ENAUDIN

Avantages et inconvnients

Lintrt dune telle structure par rapport une copule archimdienne classique est immdiat et a t montr au paragraphe prcdent. Cela permet de saffranchir des proprits
des copules elliptiques parfois peu ralistes pour modliser la dpendance entre risque (notamment la symtrie des dpendance de queue) tout en conservant leur principal intrt,
savoir la diffrenciation et la spcification des dpendance entre risque. De plus, la structure
sous forme darbre est assez souple et permet davoir une approche naturelle et comprhensible par tout le risk management de lentreprise.
Lutilisation dune telle copule dans le cadre de lexemple trait au chapitre prcdent
dans le cadre de lICAAP (9.2.1p.81) pourrait paraitre naturel car cela reviendrait utiliser une seule et mme structure hirarchique Archimdienne pour lagrgation, recrant
naturellement la hirarchie des tapes 1 et 2. Cependant, le nombre de risques coupler
serait trs important et les possibilits quasiment infinies (sans compter les diffrents choix
possibles des gnrateurs intervenant dans la structure), tout cela sans quaucune solution
soit mathmatiquement prfrable une autre faute de donnes suffisantes pour en valuer
ladquation. De plus, la rcursivit induite par une telle structure engendre des temps de
calcul trs importants en dimension leve.

10.2

Les vine copulas

10.2.1

Motivations

Afin de contourner les restrictions induites par lapproche prcdente, il est possible
dutiliser une technique assez intuitive base sur la dcomposition en copules bivaries : les
vine copulas. Elles ne constituent pas en toute rigueur une famille de copule telle quentendue prcdemment, et il sagit plutt dune manire de dcomposer la densit multivarie
des risques considrs au moyen de copule bivaries. Elles ont t originellement proposes
par Bedford et Cooke (2001, 2002). Cest une approche assez similaire la prcdente (les
structures de dpendances obtenues scrivent naturellement sous forme darbres, do leur
nom de vine, plante grimpante en anglais), qui bnficie dune souplesse plus grande dans
le choix des familles des copules et de leur paramtre de dpendance.

10.2.2

La dcomposition de Vine (Vine decomposition)

Rappel
Nous avons vu la section prcdente que les les structures hirarchiques archimdiennes sont obtenues directement depuis lcriture de la fonction de rpartition de la copule, ou des risques considrs. Ainsi pour la copule hirarchique de dimension 3 reprsente figure 10.1 p.89 cela revient considrer, avec des notations videntes, la fonction de
rpartition tri-varie suivante :

F (x1 , x2 , x3 ) = C0 (F (x1 ), C1 (F (x2 ), F (x3 )))


Principe
Pour obtenir une dcomposition en vines copulas, lide est dsormais de considrer la
dcomposition de la densit multivarie des risques considrs en nutilisant que des copules
bivaries conditionnelles. En dimension 3, il est ainsi possible dcrire :
f (x1 , x2 , x3 ) = f (x2 ) .f (x1 | x2 ) .f (x3 | x1 , x2 )

91

I.S.F.A.

Mmoire dactuariat

A. R ENAUDIN

o en utilisant la formule de Bayes


f (x1 | x2 ) = c12 (F (x1 ) , F (x2 )) .f (x1 )
avec c12 (F (x1 ) , F (x2 )) la densit de la copule liant les deux marginales F (x1 ) et
F (x2 ).
En gardant les mme notation, il vient donc :
f (x3 | x1 , x2 )

= c13|2 (F (x1 | x2 ) , F (x3 | x2 )) .f (x3 | x2 )


= c13|2 (F (x1 | x2 ) , F (x3 | x2 )) .c23 (F (x2 ) , F (x3 )) .f (x3 )

Et finalement :
f (x1 , x2 , x3 )

f (x1 ) .f (x2 ) .f (x3 )


c12 (F (x1 ) , F (x2 )) .c23 (F (x2 ) , F (x3 ))

(10.3)

c13|2 (F (x1 | x2 ) , F (x3 | x2 ))


Cette dcomposition est appele dcomposition de Vine, et est gnralisable en dimension
n (voir [27] pour les formules de dcompositions dordres suprieurs 3 et les algorithmes
pour les obtenir). Quelque soit la dimension, la dcomposition finale ne fait intervenir que
des copules bivaries (vine copulas), ce qui constitue lintrt de lapproche. Remarquons
enfin que cette dcomposition nest pas unique et quil est possible den obtenir dautres
en permutant les indices des variables. Ces diffrentes dcompositions sont alors appeles
C-Vine ou D-Vine (voir de nouveau [27] pour leurs dfinitions exactes et leurs proprits).
La dcomposition de Vine (10.3) aboutit alors naturellement une structure de dpendance par arbre, dessine en figure 10.4. Observons que les diffrents niveaux de larbre
correspondent aux diffrentes lignes de lquation de dcomposition (10.3).

F IGURE 10.4 Reprsentation de la dcomposition en vine copula de 3 risques selon lquation


(10.3)

10.2.3

Avantages et inconvnients

Lutilisation de structures de Vine permet de reprsenter des types de dpendances extrmement divers, sans pour autant tre limit au niveau des paramtres de dpendance et des
choix des copules. En effet, le choix des copules bivaries intervenant dans la dcomposition
est libre, ainsi que la valeur de leur paramtre de dpendance. Ce sont donc des structures
trs souples pouvant thoriquement sadapter tout type de modlisation de dpendance.
92

I.S.F.A.

Mmoire dactuariat

A. R ENAUDIN

Lunique limitation de cette mthode est le nombre de diffrentes dcompositions


considrer, qui en grande dimension savrent trs levs (n!/2 possibilits de dcomposition en dimension n > 4). Thoriquement, il faudrait pouvoir toutes les examiner et se
fixer un critre dadquation pour en choisir la meilleure, ce qui est impossible en pratique
cause du nombre limit de donnes et du temps de calcul ncessaire.
Toutefois cette approche reste un champ de recherche encore assez vaste et prometteur,
et peu utilis en pratique. Le lecteur pourra se rfrer [28] pour une premire application de ce type de structure des donnes issues de risques oprationnels bancaires, en
dimension 10.

93

Conclusion et perspectives
Dans ce mmoire, nous avons travaill sur la quantification des risques oprationnels
bancaires dans le contexte rglementaire actuel (Ble II). Les exemples applicatifs que nous
avons prsents concernent les donnes du Groupe Crdit Agricole. Nous avons essay dapporter des solutions aux problmes pratiques des risk managers et plus gnralement aux
difficults pouvant tre rencontrs par ceux travaillant dans le domaine de la gestion quantitative des risques. En particulier, nous avons proposs des solutions aux problmes destimation de la svrit (biais, non-convergence de lalgorithme lie aux donnes tronques...)
dans le cadre du calcul de charge en capital au titre du pilier 1, et nous avons ensuite propos un modle permettant de calculer le capital conomique au niveau Groupe en agrgeant les risques des diffrentes entits et permettant de modliser leur dpendances, dans
le cadre du pilier 2.
En effet, lajustement de la svrit est un paramtre dterminant dans le modle de calcul des fonds propres destins couvrir le risque oprationnel. Lors de la premire partie,
nous avons propos des mthodes bases sur la minimisation dune distance inter-quantiles,
qui fournit de bons rsultats par rapport aux mthodes classiques drives du maximum de
vraisemblance ou des tests dadquation. Ce sont, avec la MMG, les seules mthodes prsentant des rsultats destimation acceptables dans tous les cas de figure (donnes simules
selon un mlange de loi, ou donnes relles). De plus, contrairement aux autres mthodes
prsentes, leurs comportements est stable lorsque le nombre de donnes disponibles est
faible, ou quand le modle ajust est mal spcifi. Nous avons propos une calibration des
paramtres apparaissant naturellement dans la mthode QD fournissant de meilleurs rsultats sur les queues de distribution, dont limpact est dterminant pour le calcul de la charge
en capital. Cette mthode destimation permet alors dobtenir un montant de fonds propres
plus reprsentatif de lexposition de la banque au risque oprationnel pour chaque catgorie de risque, ce qui est lenjeu principal du modle. Alli une mthodologie dagrgation
par copules, dont les hypothses sont plus ralistes quune agrgation par formule ferme
avec hypothse gaussienne, cela nous a permis de calculer un capital conomique plus en
adquation avec les risques oprationnels encourus par la banque.
Le dernier chapitre de ce mmoire reste le plus ouvert. Abandonnant les structures de
dpendance bases sur des hypothses de lois elliptiques, nous avons donn dautres formes
de copules (hirarchiques, Vines...) qui pourraient mieux sadapter la modlisation des dpendances rencontres dans le domaine du risque oprationnel. Des travaux restent mener
dans cette voie, notamment lorsque lhistorique et la quantit de pertes collecte sera plus
importante, ce qui permettrait davoir une ide plus prcise de la forme de la dpendance
entre les diffrentes catgories de risque oprationnel et den estimer plus fidlement les
paramtres.
Terminons enfin en prcisant que des travaux ont aussi t mens dans le cadre de la
thorie des valeurs extrmes, mais quils ont t volontairement exclus de ce mmoire. En
effet, lutilisation dune telle approche dans le modle LDA pose encore un certain nombre
de problmes insurmontables en pratique. Citons entre autres le choix du seuil de modlisation des extrmes qui doit se faire de manire subjective (en arbitrant entre quantit
de donnes et biais des estimations) , la sensibilit du capital ce seuil, lobtention de
potentielles distributions de svrits moyennes infinies dont la convolution produit des
94

I.S.F.A.

Mmoire dactuariat

A. R ENAUDIN

capitaux totalement irralistes. Dans ce cadre, la question de la mthode destimation des


paramtres de la loi GPD (Generalized Pareto Distribution) reste tout autant cruciale, notamment en raison des mauvaises proprits des mthodes usuelles (Maximum likelihood
et Probability Weighted Moments). Nous avons alors constat des amliorations en utilisant
la mthode QD, dont la dfinition peut aisment se transposer tous les types de lois.

95

Bibliographie
[1]

F RACHOT A, M OUDOULAUD O, R ONCALLI T (2003), Loss Distribution Approach in Practice, The Basel Handbook : A Guide for Financial Practitioners

[2]

R ONCALLI T (2009), La gestion des risques financiers, 2me dition, Economica

[3]

H ANSEN LP (1982), "Large Sample Properties of Generalized Method of


Moments Estimators", Econometrica, 50, 1029-1054

[4]

H ANSEN LP, H EATON J, YARON A (1996), Finit-Sample Properties of Some


Alternative MMG Estimators." Journal of Business and Economic Statistics,
14, 262-280.

[5]

C HAUSSE P (2010), Computing Generalized Method of Moments and


Generalized Empirical Likelihood with R." Journal of Statistical Software,
34(11), 1-35.

[6]

F RACHOT A , G EORGES P, R ONCALLI T (2001), Loss Distribution Approach


for operational risk, Groupe de Recherche Oprationnelle, Crdit Lyonnais,
France

[7]

RANNEBY B (1984), The Maximum Spacing Method. An Estimation


Method Related to the Maximum Likelihood Method, Swedish University
of Agricultural Sciences

[8]

COX D. R, HINKLEY D. V (1974), Theoretical statistics. Chapman & Hall,


London

[9]

LA R ICCIA V, WEHRLY T (1985), Asymptotic Properties of a Family of Minimum Quantile Distance Estimators Journal of the American Statistical Assocation, Vol.80, No.391

[10]

CHENG R.C.H, TRAYLOR L (1995), Non-regular maximum likelihood problems (with discussions). J. Roy. Statist. Soc. Ser. B 57, 3-44

[11]

CHENG R.C.H, AMIN N.A.K (1983), Estimating parameters in continuous


univariate distribution with a shifted origin J. Roy. Statist. Soc. Ser. B 45,
394-403

[12]

WHITE H (1982),Maximum Likelihood Estimation of Misspecified Models,


Econometrica, Vol.50, No.1

[13]

CHERNOBAI A, RACHEV S, FABOZZI F (2005), Composite Goodness-of-Fit


Tests for Left-Truncated Loss Samples, Departement of Statistics and Applied
Probability, University of California, USA

[14]

ERGASHEV B (2008), Should Risk Managers Rely on Maximum Likelihood


Estimation Method While Quantifying Operational Risk?, The Journal Of
Operational Risk, Vol. 3, No.2

[15]

WOLFOWITZ J (1953) Estimation by the Minimum Distance Method, Annals of the institute of Statistical Mathematics, Springer

96

I.S.F.A.

Mmoire dactuariat

A. R ENAUDIN

[16]

PARR W.C. (1981) Minimum distance estimation: a bibliography, Commun. Stat. Theory Meth.

[17]

M ARCEAU E (2010), Modles et mthodes actuariels pour lvaluation


quantitative des risques (polycopi ISFA)

[18]

D ENUIT M, C HARPENTIER A (2004), Mathmatiques de lassurance non-vie,


Tomes I et II, Economica

[19]

D ENAULT M (2001), Coherent allocation of risk capital, Ecole des H.E.C.


(Montral)

[20]

PANJER H (2001), Measurement of risk, solvency requirement and allocation of capital within financial conglomerates, Departement of Statistics
and Actuarial Science, University of Waterloo

[21]

E-convergence (2004), Allocation du capital conomique li aux risques


oprationnels dans un groupe

[22]

C LAUSS P (2011) Thorie des copules, Cours ENSAI

[23]

N ELSEN RB (1999) An introduction to Copulas, Lectures Notes in Statistics,


Springer

[24]

L EHERISSE V (2011), Gestion des risques bancaires, Cours ENSAI

[25]

PANJER H (1981), Recursive Evaluation Of A Family Of Compound Distributions, Astin Bulletin 12, pp. 22-26

[26]

M C N EIL A J (2008), Sampling Nested Archimedean Copulas", Journal of


Statistical Computation and Simulation, 78, 567-581.

[27]

A AS K, C ZADO C, F RIGESSI A, B AKKEN H (2009), Pair copula constructions


of multiple dependence, Insur. Math. Econ., 44, 182198

[28]

G UEGUAN D, H ASSANI B (2011), Multivariate VaR for Operationnal Risk


Computation : A Vine Structure Approach, Universit Paris 1 PanthonSorbonne, Working Paper

[29]

G AMONET J (2009), Modlisation du risque oprationnel dans lassurance, mmoire dactuariat , Centre dEtudes Actuarielles

97

Table des figures


1.1 Boxplot pour diffrentes catgories de pertes oprationnelles .

2.1 Les trois piliers Ble II . . . . . . . . . . . . . . . . . . . . .


2.2 Illustration de la rpartition du capital entre risque de crdit,
oprationnel et risque de march dans une grande banque . .

3.1 Les diffrentes tapes de la mthode LDA pour lestimation de


la charge en capital . . . . . . . . . . . . . . . . . . . . . . .
3.2 Comparaison des distributions issues du modle LDA avec la
prise en compte de polices dassurance (courbes rouges) et sans
(en bleu) . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.1 Biais des estimateurs de et obtenus avec le choix W = I .
4.2 Biais des estimateurs de et obtenus avec le choix W = Wopt
4.3 Comportement du terme au dnominateur de la vraisemblance
pour H = 1000 . . . . . . . . . . . . . . . . . . . . . . . . .
4.4 Oppos de la log-vraisemblance dun chantillon rel de la catgorie dommages (banque de dtail) en fonction de , pour
= 2. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.5 Densit empirique de pertes relles de la catgorie dommage
4.6 Valeur absolue de lcart relatif sur lestimation des paramtres
et par MMG . . . . . . . . . . . . . . . . . . . . . . . .
5.1 Distances K-L entre deux distributions normales pour diffrents paramtres (source : prsentation de Rudolf Kulhavy,
A Kullback-Leibler Distance Approach to System Identification, Academy of Sciences of the Czech Republic) . . . . .
5.2 Principe de lestimation par Maximum Spacing (source : Wikipedia) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.3 QQ-plots log-normaux avec les paramtres estims par MS et
MMG, pour la fraude externe de la banque dinvestissement .
5.4 Fonctions quantiles empiriques (en bleu) et quantiles empiriques interpols (en rouge) ; illustration sur un chantillon de
fraude montique . . . . . . . . . . . . . . . . . . . . . . . .
5.5 Quantiles choisis uniformment (en rouge) dans un chantillon
rel (montants de pertes en chelle logarithmique) . . . . . .
5.6 Estimations de (bleu) et (vert) sur donnes simules
LN (8, 2) et LN (12, 1.5) de tailles n = 100 (en haut) et
n = 1000 (en bas) en fonction du nombre de quantiles utiliss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
98

13

17

19
29
29
31

32
33
34

36
37
39

42
44

44

I.S.F.A.

Mmoire dactuariat

A. R ENAUDIN

5.7 Quantiles exponentiellement rpartis (en rouge) dans un


chantillon tri de la catgorie excution avec m = 5 (montants en chelle logarithmique) . . . . . . . . . . . . . . . .
5.8 Influence du paramtre m sur lestimation des paramtres de
svrit ( en bleu, en vert) . . . . . . . . . . . . . . . . .
6.1 Biais relatifs des estimateurs de (en haut) et (en bas) pour
les 12 modles simuls, avec N=1000 simulations . . . . . .
6.2 Indicateurs de prcision pour ( gauche) et ( droite) sur
les 12 modles simuls, avec N=1000 simulations . . . . . .
6.3 Coefficients de variation obtenus pour les 12 modles pour
( gauche) et ( droite), avec N=1000 simulations . . . .
7.1 Densit bivarie de la copule normale ( = 0.6) . . . . . . .
7.2 Densit bivarie de la copule de Student ( = 1, = 0.6) . .
7.3 Mesure de dpendance des extrmes en fonction du niveau de
corrlation pour une copule de Student de dimension 2 . . . .
7.4 Densits bivaries de copules Archimdiennes usuelles, de paramtre = 3 . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.5 Densit bivarie de deux risques gaussiens corrls par une copule normale ( = 0.4) . . . . . . . . . . . . . . . . . . . . .
7.6 Densit bivarie de deux risques gaussiens corrls par une copule de Gumbel ( = 5) . . . . . . . . . . . . . . . . . . . .
8.1 Niveau du capital agrg (niveau 99.9%) entre deux catgories
de risques en fonction de leur coefficient de corrlation linaire
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.2 Allocation du capital agrg selon la CaR99.9% entre deux catgories de risques en fonction de leur coefficient de corrlation
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9.1 Illustration de lagrgation de deux pertes annuelles par copule
9.2 Principe dagrgation des risques oprationnels propos
(bottom-up en 2 tapes) . . . . . . . . . . . . . . . . . . . .
9.3 Structure gnrale dagrgation bottom-up des risques dans
Solvabilit II (QIS 5) . . . . . . . . . . . . . . . . . . . . . .
10.1 Reprsentation sous forme darbre dune copule archimdienne
hirarchique en dimension 3 . . . . . . . . . . . . . . . . . .
10.2 Reprsentation sous forme darbre de la copule hirarchique de
Clayton C9 . . . . . . . . . . . . . . . . . . . . . . . . . . .
10.3 Dpendogrammes obtenus entre les 9 risques coupls par la copule hirarchique de Clayton C9 . . . . . . . . . . . . . . . .
10.4 Reprsentation de la dcomposition en vine copula de 3 risques
selon lquation (10.3) . . . . . . . . . . . . . . . . . . . . .

99

45
46

50
51
52
66
66
67
68
70
70

74

74
80
81
83

89
90
90
92

Liste des tableaux


1.1 Classification des catgories de risque (ELs) pour le risque oprationnel selon
Ble II . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2 Classification lignes mtier (BLs) pour le risque oprationnel selon Ble II . . . .

4
4

4.1 Rsultat des diffrentes mthodes doptimisation de la log-vraisemblance sur


donnes relles (catgorie dommages de la banque de dtail) . . . . . . . . . . 33
5.1 Rsultats destimation sur la catgorie Fraude Interne de la banque dinvestissement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
5.2 Caractristiques des chantillons de pertes mis en vidence dans le backtesting
2009 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
5.3 Cohrence et convergence des diffrentes mthodes destimation sur les 12 chantillons issus du backtesting 2009 . . . . . . . . . . . . . . . . . . . . . . . . . . 48
6.1 Valeurs des CaRs (MC) calcules sur modles hybrides et cart relatif par rapport
la CaR relle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
7.1 Allocation entre les 3 entits considres au prorata de leur CaR . . . . . . . . . 57
7.2 Allocation entre les 3 entits considres selon une mthode cohrente . . . . . . 57
7.3 Expressions des gnrateurs et des copules Archimdiennes associes en dimension 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
9.1 Matrice de corrlation fournie par le QIS 5 entre les modules de risques de la
formule standard de Solvabilit II . . . . . . . . . . . . . . . . . . . . . . . .
9.2 Valeur et rpartition des capitaux non diversifis pour chaque ple du Groupe
Crdit Agricole . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9.3 Capitaux obtenus via la formule dagrgation Gaussienne . . . . . . . . . . .
9.4 Capitaux obtenus via une agrgation par copule Gaussienne, et allocation du
capital conomique du Groupe selon la contribution de chaque ple mtier . . .
9.5 Capitaux obtenus via une agrgation par copule de Student ( = 3), et allocation du capital conomique du Groupe selon la contribution de chaque ple
mtier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

100

. 83
. 84
. 86
. 86

. 87