Académique Documents
Professionnel Documents
Culture Documents
Signature :
Bibliotheque : Secretariat :
ENSAE ParisTech - Ecole Nationale 3, avenue Pierre Larousse T +33 (0)1 41 17 58 09
de la Statistique et Timbre J101 F +33 (0)1 41 17 38 52
de lAdministration Economique 92245, Malakoff cedex info@ensae.fr
ENSAE Crdit Agricole
Mmoire dactuariat 2013 (Montrouge)
Mmoire dactuariat
ENSAE :
Xavier MILHAUD
Entreprise :
Vincent LEHERISSE Sophie LAVAUD
Modlisation baysienne du risque oprationnel
Abstract. Operational risks include the risks of losses resulting from in-
adequate or failed processes, people, internal systems or from external
events (disaster, fire, fraud, etc.). They are quantified for regulatory pur-
poses via internal frequency-severity models within predefined risk cells
in order to build a loss distribution (via the Monte Carlo method) at
one year and so as to determine the Value-at-Risk at 99.9%. Distribu-
tions can be based either on historical data collected by the bank, either
scenario analysis relied on expert opinions. Therefore, in order to fully
characterize a risk type, it is interesting for the bank to be able to build
loss distributions incorporating both internal data and scenario analysis,
which allows to determine a unique calculation of the capital. Currently,
The Crdit Agricole takes a calculation methodology which does not
combine these data. This thesis deals with different bayesian methods
that could be applied to the context of operational risk. Four kinds of
methods are considered : a pure bayesian approach based on the determi-
nation of a prior distribution and a posterior distribution via combined
distributions by developing and adapting the Bayes theory. The second
method is based on credibility theory. The third method called "cas-
cade bayesian" relies on a recent theory which combines the pure baye-
sian approach with the Extreme Value Theory (EVT).The last method
overcomes the combined distributions using the properties of Markov
chains. Finally, a summary of the methods is presented to identify the
advantages and drawbacks of each one, to suggest alternatives and give
potential improvements.
Remerciements
Introduction 10
Conclusion 110
2.1 Prsentation des donnes par entit et type de risque selon que la cellule de risque
dispose de donnes internes () ou de scnarios () . . . . . . . . . . . . . . . . . 33
2.2 Cellules de risques choisies pour notre premire tude . . . . . . . . . . . . . . . 34
2.3 Prsentation des donnes traites . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.4 Statistiques descriptives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.5 Estimation des paramtres de loi partir des donnes internes . . . . . . . . . . 35
2.6 Charges en capital obtenues partir des donnes internes . . . . . . . . . . . . . 36
2.7 Couples (x, d) fournis par les experts mtiers . . . . . . . . . . . . . . . . . . . . 36
2.8 Estimation des paramtres de loi partir des scnarios . . . . . . . . . . . . . . . 37
2.9 Charges en capital obtenues partir des scnarios . . . . . . . . . . . . . . . . . 37
2.10 Mta-matrice de corrlation pour les entits AMUNDI, CACF et CACIB . . . . 37
2.11 Charges en capital agrges . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
5.1 Rcapitulatif des donnes internes et externes utilises pour la cascade baysienne 89
5.2 Paramtres structuraux des lois a posteriori 1 . . . . . . . . . . . . . . . . . . . . 90
5.3 Paramtres structuraux des lois a posteriori 2 . . . . . . . . . . . . . . . . . . . . 91
5.4 Paramtres de la loi de svrit obtenus avec la cascade baysienne . . . . . . . . 91
5.5 Charges en capital obtenues avec la cascade baysienne . . . . . . . . . . . . . . . 91
6.1 Rcapitulatif des montants de charges en capital obtenus avec les diffrentes ap-
proches . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
Introduction
Lindustrie financire, en particulier les banques et les assurances, subit aujourdhui des
changements majeurs. Linstabilit chronique des marchs financiers de ces dernires annes en
atteste. La chute dsormais clbre de la banque daffaires Lehman Brothers en 2008, qui tait
pourtant juge "too big to fail" a mis en vidence la fragilit du systme financier. Le besoin
dune meilleure couverture des risques bancaires sest donc fait sentir. Lobjectif vis tait de
limiter les faillites des banques qui peuvent avoir un effet de contagion et menacer la stabilit
du systme financier dans son ensemble.
Suite cette proccupation grandissante pour la gestion des risques, une rglementation
spcifique a t mise en place, qui est reprsente aujourdhui par laccord de Ble II en ce
qui concerne les banques. Celles-ci ont t contraintes de mettre en place des mesures visant
quantifier de manire approprie leur exposition au risque et assurer son pilotage. Cest dans
ce contexte que le risque oprationnel a commenc tre considr comme un risque majeur. En
effet, le risque oprationnel a pris une importance croissante ces dernires annes, principalement
en raison des modifications du cadre dexercice et de la conduite des activits bancaires. Cet
essor est notamment li la banalisation de la gestion en temps rel des oprations, engendrant
un risque de rglement, dans un contexte de globalisation et dinternationalisation des activits.
Il est par ailleurs le rsultat de la sophistication de ces activits, tant dans la conception de
nouveaux produits auxquels sont associs des risques juridiques, que dans la mise en place de
systmes dinformation de plus en plus complexes.
Cette importance croissante sest largement concrtise ces dernires annes. Les pertes su-
bies par les tablissements au titre du risque oprationnel sont en effet gnralement values
plus de 200 milliards deuros sur la priode 1980-2000. Plus rcemment, lexercice de collecte de
pertes ralis en 2002 par le groupe Risk Management du Comit de Ble rvle que 89 banques
ont connu sur le seul exercice 2001 plus de 47 000 vnements de pertes pour un montant cumul
de pertes oprationnelles slevant prs de 7,8 milliards deuros. Bien que des mesures aient
t instaures partir de 2001, lexemple le plus clbre de perte oprationnelle est intervenu
en janvier 2008. Un trader de la Socit Gnrale, Jrme Kerviel, a t lauteur doprations
frauduleuses sur les marchs qui ont engendr une perte dun montant total de 4,9 milliards
deuros.
Comme lillustre cet exemple, la grande difficult qui rside dans la gestion des risques est
la capacit anticiper des vnements rares ayant des consquences extrmement lourdes pour
les banques. Cest dans lobjectif de couvrir ces pertes caractre imprvisible quelles ont
dvelopp de nombreuses mthodologies et modles statistiques dans leurs modles internes.
Les banques veulent adopter une approche plus pragmatique en terme de risque oprationnel
en rquilibrant le dispositif vers la gestion des risques plutt que vers leur seule mesure. Cest
pourquoi les banques exploitent non seulement leurs donnes historiques mais elles prennent en
compte galement des jugements dexperts qui induisent des critres qualitatifs. Les deux sources
de modlisation (quantitative et qualitative) permettent alors doffrir une vision complte dun
type de risque et gagnent donc tre combines pour former une distribution de pertes unique. La
traduction quantitative des jugements dexperts est cependant trs ardue car ils ne sinscrivent
pas dans une dmarche bien structure et homogne. Ces donnes sont prsentes actuellement
sous la forme de scnarios.
Ce rapport est organis en six parties. La partie 1 est entirement consacre la dfinition
du contexte en prsentant de manire dtaille le risque oprationnel et les diffrentes approches
pour le modliser. On fait galement le rapprochement dans cette partie avec le risque opra-
tionnel en assurance avec en particulier lintroduction de la rforme europenne Solvabilit II.
La partie 2 traite de la mthode actuelle employe au sein du Crdit Agricole pour calculer le
capital ncessaire couvrir le risque oprationnel ; dans cette partie sont par ailleurs prsentes
les donnes sur lesquelles on travaillera par la suite. Une fois ces contextes bien prsents, on
redfinira prcisment les objectifs de notre tude. La partie 3 expose notre tude complte sur
la thorie de Bayes quon appellera approche baysienne pure. La partie 4 regroupe notre travail
sur ladaptation de la thorie de la crdibilit. Dans la partie 5, on approfondit les mthodes
mentionnes prcdemment sous la forme de deux autres mthodes : dune part la "cascade
baysienne" qui se base essentiellement sur lapproche baysienne pure et utilise la thorie des
valeurs extrmes ; dautre part une mthode qui permet de saffranchir de certaines hypothses
faites dans lapproche baysienne pure. Enfin, la dernire partie dresse un bilan de ltude ainsi
que des prconisations.
Partie 1
A ce titre, le Comit de Ble a dfini le risque oprationnel pour traiter ces pratiques.
1.1 Dfinition
Le risque juridique inclut, entre autres, lexposition des amendes, pnalits et dommages
pour faute rsultant de lexercice de surveillance prudentielle ainsi que des transactions prives.
Parmi les types dincidents de nature oprationnelle susceptibles doccasionner de lourdes pertes,
le Comit a identifi sept typologies de risques :
Fraude interne : cela regroupe par exemple les informations inexactes sur les positions,
les vols commis par un employ et dlits diniti dun employ oprant pour son propre
compte ;
Fraude externe : par exemple, un hold-up, un faux en criture, des dommages dus au
piratage informatique ;
Pratiques en matire demploi et scurit sur le lieu de travail : on distingue ici les de-
mandes dindemnisation des travailleurs, les violations des rgles de sant et de scurit
des employs, les activits syndicales, ou encore les plaintes pour discrimination et respon-
sabilit civile en gnral ;
Pratiques concernant les clients, les produits et lactivit commerciale : tout ce qui relve
de lutilisation frauduleuse dinformations confidentielles sur la clientle, les oprations
boursires malhonntes pour le compte de la banque, le blanchiment dargent ou la vente
de produits non autoriss ;
Dommage aux biens physiques : par exemple, les actes de terrorisme, de vandalisme, ou
les sismes, incendies et inondations ;
Interruption dactivit et pannes de systmes : cette catgorie rassemble toutes les pannes
de matriel et de logiciel informatiques ainsi que tous les problmes dus aux tlcommu-
nications et aux pannes dlectricit ;
Excution des oprations, livraisons et processus : enfin, on distingue ici les erreurs den-
registrement des donnes, les dfaillances dans la gestion des srets, les lacunes dans la
documentation juridique, les erreurs daccs aux comptes de la clientle et les dfaillances
des fournisseurs ou conflits avec eux.
Les dernires rglementations suivre par les banques concernant le risque oprationnel sont
dans les textes de la rglementation Ble II mise en service en 2004 (voir Comit de Ble [10]).
Les rgulateurs exigent des banques dallouer un certain montant de fonds propres pour
prendre connaissance des pertes potentielles et celles non attendues en particulier. Les diffrents
risques considrer sont le risque de crdit, le risque oprationnel ainsi que le risque de march,
comme le montre le graphique suivant (illustration provenant de ONB [23]) :
Figure 1.1 Rpartition des fonds propres allouer dans une banque
Le risque oprationnel est significatif dans la plupart des institutions financires : il repr-
sente environ une part de 15 25 % du capital total dans la plupart des grosses banques. Cest
le deuxime risque le plus important aprs le risque de crdit. Lenvironnement dfini par Ble
II repose sur trois piliers :
Pilier I. Cest un pilier quantitatif qui exige le calcul explicite dun niveau de fonds propres
minimum pour couvrir lensemble du risque oprationnel. Les diffrentes mthodes pos-
sibles pour le calculer sont prsentes dans la section suivante ;
Pilier II. Cest un pilier qualitatif qui se concentre sur la supervision des systmes ban-
caires et sur la validation des fonds propres par les autorits rglementaires ;
Pilier III. Il sagit dun pilier qualitatif dont lobjectif est dtablir une certaine discipline
par le biais de dfinition de mesures de risques et de diffusion darticles sur la gestion du
risque oprationnel.
Une banque doit disposer dune fonction de gestion de risque oprationnel bien identifie,
responsable de la conception et de la mise en uvre du dispositif de mesure et de gestion de ce
risque. Ce dispositif doit tre intgr la gestion quotidienne des risques de ltablissement et
le risque encouru doit faire lobjet de comptes rendus adquats. Il doit aussi faire lobjet dun
examen priodique des auditeurs. Par ailleurs, Ble II reprend la cartographie des risques pr-
sents dans la section prcdente, rappelant ainsi limportance tant de limplication de lorgane
excutif dans la mise en place dun tel dispositif que de lidentification des risques.
Dans la suite de notre mmoire, nous nous concentrerons uniquement sur laspect quantitatif du
risque oprationnel, savoir le pilier I.
Le dispositif dadquation des fonds propres offre aux banques la possibilit de mesurer leur
exposition au risque oprationnel selon trois approches, par ordre croissant de complexit et de
sensibilit au risque : lapproche de lindicateur de base (Basic Indicator Approach ou BIA),
lapproche standard (The Standardised Approach ou TSA) et lapproche des mesures avances
(Advanced Measurement Approach ou AMA). Le dispositif incite par ailleurs les banques passer
des approches les plus simples (BIA et TSA) aux plus avances (AMA) et dvelopper ainsi
des systmes et des pratiques plus sensibles aux risques, adapts leur profil de risque et la
complexit de leurs activits. Banque de France [3] dtaille ces diffrentes approches tout en
faisant un bilan de la situation actuelle.
Les banques utilisant lapproche BIA doivent dtenir des fonds propres correspondant un
pourcentage fixe de leur produit brut bancaire moyen P B sur les trois dernires annes :
F PBIA = P B
Le produit net bancaire correspond aux produits dintrts nets et autres produits dexploitation.
Il doit tre positif ; sil savrait tre nul ou ngatif une anne, on fait la moyenne des produits
bancaires sur lensemble des annes o il est strictement positif.
Les banques utilisant lapproche standard doivent dtenir des fonds propres correspondant
pour chacune de leurs huit lignes de mtier un pourcentage fixe (i ) de leur produit brut
N Lignes de mtiers
1 Financement des entreprises 18%
2 Ngociation et vente 18%
3 Banque de dtail 12%
4 Banque commerciale 15%
5 Paiement et rglement 18%
6 Fonctions dagent 15%
7 Gestion dactifs 12%
8 Courtage de dtail 12%
De la mme manire quavec lapproche basique, P B > 0. Cependant, les exigences de fonds
propres ngatives dans une ligne de mtier peuvent compenser les exigences de fonds positives
sur dautres lignes. Ainsi si la somme annuelle des P Bi est ngative, le montant ne sera pas pas
pris en compte dans le calcul final du capital.
La banque calcule lexigence en fonds propres ncessaire en utilisant son propre modle in-
terne qui doit tre approuv par lautorit de rgulation. Le modle interne doit inclure la
fois des donnes historiques (donnes de pertes internes et externes) et des donnes prospectives
(analyse de scnarios dvnements potentiels, facteurs denvironnement et de contrle interne).
Quel que soit le modle dvelopp, la mesure du risque oprationnel doit tre dune fiabilit
comparable celle du risque de crdit (priode de dtention dun an et intervalle de confiance
de 99,9%).
Ces trois approches ont pour but de quantifier le risque oprationnel avec une sensibilit
variable et donc de contribuer une meilleure surveillance de ce dernier. En effet, un risque
ne peut tre correctement matris que sil est identifi, mesur, valu et gr. Cest pourquoi,
le Comit de Ble a dvelopp deux autres piliers qui permettent de dvelopper les principes
ncessaires une bonne matrise des risques oprationnels, en soumettant lutilisation des ap-
proches de calcul des fonds propres au respect de critres qualitatifs, notamment en matire de
gouvernance, daudit et de contrle interne. Dailleurs, les fonds propres rservs pour le risque
oprationnel doivent respecter le ratio de MacDonough :
F Prglementaires
8%
Risquecrdit + Risquemarch + Risqueoprationnel
Ici, on ne sintresse qu lapproche AMA. Pour cela, les informations ncessaires llabora-
tion dun modle interne sont les donnes internes, les donnes externes pertinentes, les analyses
de scnarios et les facteurs refltant lactivit qui doivent tre adapts aux systmes internes
de contrle. La mesure de risque utilise dans le capital rglementaire doit correspondre un
niveau de confiance de 99.9% pour une anne. Les bnfices induits par la diversification sont
accepts condition que le modle de dpendance soit approuv par le rgulateur. La rduction
de capital grce aux assurances ne peut dpasser 20%.
Figure 1.2 Rpartition du capital allou au risque oprationnel sous AMA [29]
Des tudes quantitatives dimpact (QIS) ont t fournies aux banques pour que les autorits
de contrle aient pu dfinir les diffrentes directives de Ble II et estimer les tendances gnrales
au sein des lignes dactivits.
La rglementation Solvabilit II, initialise par le CEIOPS (Comit Europen des Contr-
leurs dAssurance et des Pensions Professionnelles) sapparente celui mis en place dans les
banques avec la rforme Ble II. De la mme manire, Solvabilit II est un dispositif trois
piliers :
Le Pilier I dfinit des rgles quantitatives avec principalement une valuation prospective
des provisions techniques, deux niveaux de besoin en capital (le minimum de capital requis
MCR (Minimum Capital Requirement) et le capital de solvabilit requis SCR (Solvency
Capital Requirement)) et des rgles de couverture des engagements ;
Le Pilier III a vocation rendre la communication externe des socits plus transparente
et plus harmonise au niveau europen en fixant les exigences en matire dinformation
publique, dinformation aux assurs et dinformation prudentielle.
De la mme manire que Ble II, Solvabilit II introduit le risque oprationnel qui intervient
dans le pilier I avec la quantification du besoin en fonds propres et dans le pilier II avec la mise
en place de leur gestion. Actuellement, le rgulateur propose aux compagnies dassurance deux
approches pour quantifier leur risque oprationnel : une approche standard et une approche
avance. Lapproche standard est une approche simplifie calcule comme un pourcentage des
primes ou des provisions. Lapproche avance est un modle interne o les risques correspondent
rellement la situation de lentreprise. Le rgulateur incite galement les compagnies opter
pour le modle interne en rendant lapproche standard beaucoup plus consommatrice en fonds
propres. Ces spcifications sont dtailles dans CEIOPS [8] et EIOPA [14].
Pour les grosses assurances, le risque oprationnel reprsente beaucoup de poids dans le
calcul du capital rglementaire : cest lun des trois plus gros risques. Dans Solvabilit II, les
lignes de mtier et la typologie des risques nest pas prcise.
Le SCRoprationnel est calcul sur un intervalle de confiance de 99.5%, horizon dun an. La
possibilit de prendre en compte des couvertures dassurance nest pas prcise. Pour une tude
approfondie des modles internes du SCRoprationnel , de nombreux articles ont t publis, dont
Metametris [21] et J. Gamonet [17].
LAMA propose par le Comit de Ble suppose lutilisation par les tablissements bancaires
de quatre types de donnes : des donnes de pertes internes, de pertes externes, des analyses
On suppose quil existe une relation (linaire ou non) entre la mesure de risque et la perte
espre. Pour une catgorie dactivit i et un type de risque j, la charge en capital est dfinie
par exemple de la faon suivante :
o EL(i, j) reprsente la perte moyenne et est un facteur dchelle. Notons que lon peut
calculer la perte moyenne comme le produit de trois termes :
o IE(i, j) est lindicateur dexposition, P E(i, j) est la probabilit doccurence dune perte
unitaire et LGE(i, j) est le montant de la perte unitaire. La grande difficult est lestimation du
paramtre .
Lapproche Scorecard
Cette mthode consiste se donner pour un type de risque ou pour une ligne de mtier une
valeur initiale de lexigence en capital pour couvrir le risque oprationnel, puis de modifier cette
valeur laide de mthodes de notations (dites de scoring). Ces notations anticipent lvolution
de la gestion des risques au sein des lignes de mtier (par exemple), et donc de pouvoir donner une
meilleure exigence en capital pour les annes futures. Le Comit de Ble na aucune formulation
mathmatique pour cette approche. Nanmoins, des formules circulaient lpoque lintrieur
des banques. Elles taient de la forme :
La dernire mthode est celle qui a t retenue par le Crdit Agricole et dveloppe par
le GRO ainsi que par la majorit des grands groupes bancaires. Elle permet une meilleure
apprciation du risque oprationnel et prsente lavantage de rduire lexigence en fonds propres
de la banque. Elle a t valide au sein de Crdit Agricole S.A. par la commission bancaire en
2008. Cette dmarche sappuie sur des modles statistiques appliqus aux donnes internes et
aux scnarios dexperts : elle sera dtaille par la suite.
Lutilisation de donnes de pertes internes comme source premire du modle interne re-
lve dune approche top-down, o les risques oprationnels sont identifis et mesurs sur une
base consolide partir des effets (les pertes) et o les fonds propres sont ensuite allous aux
diffrentes lignes de mtier. Lutilisation de donnes externes soulve de la part des tablisse-
ments des interrogations relatives la ncessaire correction de biais statistiques et aux modalits
dadaptation de ces donnes leur situation interne (problmes de scaling).
Dans ces modles, on nessaie pas de modliser les types de risque individuellement. On peut
citer comme modles employs :
Les modles multifacteurs de tarification de lequity. Cette approche fait lhypothse def-
ficience du march o le prix actuel de lactif reflte toute linformation pertinente. Le
processus qui permet davoir les prix est suppos dpendre de facteurs dus au march, au
crdit et autres risques non oprationnels. Le terme rsiduel de cette rgression est trait
comme du risque oprationnel. On peut alors tablir des dpendances entre les risques
oprationnels et les variables macroconomiques.
Les CAPMs (Capital Asset Pricing Models). Ici, on modlise la prime de risque associe
aux actifs. On peut alors traiter les contributions du risque de crdit et du risque et de
march, et on traite de la mme manire le risque oprationnel comme le rsidu.
Les modles indices de risque. Ces modles lient le risque oprationnel et des indices
dexposition comme le volume des transactions, le nombre de personnel, etc.
Dautres tablissements btissent leur modle de mesure en privilgiant davantage des don-
nes prospectives, de type analyse de scnarios et indicateur de risque. Dans ce cas, lapproche se
veut bottom-up, les risques tant cartographis au niveau de chaque ligne de mtier partir des
causes, puis mesurs sur la base de frquences et de svrits de pertes estimes par les experts
de chaque mtier et/ou dindicateurs de performance, de contrle et de risque. Certaines banques
recourent aux analyses de scnarios pour les seuls vnements faible probabilit et forte sinis-
tralit, dautres de manire plus systmatique pour tous les types dvnements identifis. Dans
tous les cas, la dmarche doit tre suffisamment structure et cohrente dans le groupe afin que
les quantifications subjectives des risques au niveau des mtiers puissent alimenter correctement
le modle de calcul des fonds propres. Lutilisation dindicateurs de risque est galement privil-
gie par certains tablissements soucieux de confrer leur modle un caractre aussi prdictif
que possible, dans une logique de prvention des risques. En pratique, lidentification des indi-
cateurs de risque seffectue partir de risques identifis lors de la cartographie et par rapport
des indicateurs existants (indicateurs de qualit, de performance,...). Parmi les difficults qui
pourraient merger de ce type de modlisation, on distingue entre autres la dfinition de niveaux
dalertes cohrents avec la politique de risques du groupe ainsi que les modalits dagrgation
des indicateurs.
La mise en oeuvre dune AMA par les banques combinant pleinement donnes historiques
(donnes de pertes internes et externes) et donnes prospectives (analyses de scnarios et indi-
cateurs de risque) semble sacclrer. Ceci rsulte de linsuffisance quantitative et conceptuelle
des seules donnes historiques ainsi que des progrs raliss dans la structuration des dmarches
plus qualitatives de type bottom-up.
Il existe deux types de modles existants pour ce type dapproche : les modles bass sur des
processus et les modles LDA (Loss Distribution Approach) qui sont les seuls modles auxquels
on sintressera le long de notre tude. Cest pourquoi on ne prsente que dans cette section le
premier type de modle qui se dcompose en plusieurs alternatives :
Les rseaux causaux. Ce sont des modles subjectifs, lis aux approches dites scorecard.
Pour chaque ligne dactivit de la banque, un arbre dvnements pouvant conduire une
perte oprationnelle est construit. La probabilit de chaque vnement est spcifie par
un expert. Typiquement, les rseaux baysiens sont utiliss pour quantifier la probabilit
future de la perte. Ces rseaux permettent galement dtablir le lien entre la probabilit
et la svrit des pertes.
Les modles causaux multifacteurs. Ils sappuient sur la rgression de la perte opration-
nelle sur un nombre de variables explicatives comme le nombre de personnel, le niveau de
comptence, etc. Ces facteurs sont utiliss pour prdire les pertes futures en supposant
quils sont connus durant la priode destimation.
Les modles de fiabilit. Ces modles permettent de quantifier la probabilit quun systme
oprera de manire satisfaisante pendant une certaine priode. Ce type de modlisation
est pertinent dans certains processus comme la modlisation de la fiabilit des systmes
de transactions.
A prsent, nous nous concentrerons uniquement sur le modle LDA du Crdit Agricole.
Partie 2
Lobjectif du modle LDA est de modliser la perte lie au risque oprationnel pour une
priode dune anne afin den dduire la valeur en risque. La particularit de cette perte est
quelle rsulte de plusieurs pertes individuelles. Beaucoup de banques utilisent ce modle qui
a t expos dans de nombreux articles : F. Aue, M. Kalkbrener [2], A. Frachot et al. [15], A.
Frachot et al. [16] et P.V. Shevchenko [32].
Pour modliser la perte totale lie un type de risque donn, on distingue deux dimensions :
la frquence des pertes, qui correspond au nombre de pertes individuelles, a priori inconnu
pour lanne venir, et que lon modlise par un processus de comptage ;
la svrit des pertes, qui modlise le montant de chacune de ces pertes individuelles.
La perte annuelle est donc la somme alatoire de ces pertes individuelles. Sa distribution est
construite partir des distributions de frquence et de svrit. La valeur en risque est ensuite
calcule par une mthode de Monte Carlo. Lobjectif est alors destimer avec prcision lexigence
de fonds propres rglementaires pour une priode de dtention fixe un an et un niveau de
confiance = 99.9%. Cela correspond la couverture dun risque millnaire.
La perte pour la ligne mtier i et le type de risque j sur une anne vaut donc :
Ni,j
"
Li,j = k
Xi,j
k=1
$ #
k=0 pi,j (k)Fi,j (x) si x > 0
k
FLi,j (x) = P(Li,j x) =
pi,j (0) si x = 0
O Fi,j
k est un produit de convolution dordre k qui correspond la fonction de rpartition de
1 + ... + X k .
Xi,j i,j
La charge en capital CaR, pour Capital-at-Risk, pour lactivit i et le type de risque j correspond
alors au quantile de FLi,j :
CaRi,j () = FL1
i,j
() = inf{x|FLi,j (x) }
Les CaRs calcules au sein des diffrentes cellules (i, j) sont ensuite agrges pour obtenir la
CaR totale.
En tant quapproche par distribution de pertes, la modlisation LDA sappuie sur lensemble
des pertes collectes dans les bases de donnes internes. Dun point de vue statistique, cette
approche a t adapte notamment pour tenir compte de deux contraintes lies au dispositif de
collecte des pertes internes du Groupe :
la dfinition dun seuil de collecte : seules les pertes suprieures un seuil H sont collectes
pour conserver une qualit correcte des donnes ;
la prsence dagrgats de pertes : pour certaines catgories de risque, les bases de don-
nes contiennent souvent des agrgats de pertes, cest dire quune perte individuelle de
montant Xi,j k peut tre compose de vnements distincts dont on ignore les montants
k
individuels (suprieurs H).
La troncature des donnes lie au seuil de collecte H affecte lestimation des paramtres
de svrit puisque la distribution empirique (pertes effectivement collectes) est diffrente de
la vraie distribution (celle que lon doit obtenir si aucune des pertes nest nglige). Il faut
donc relier la vraie distribution sa version empirique par le biais de la densit conditionnelle
suivante :
f (x)
f|H (x) = % + 1{xH}
H f (u)du
La mthode des moments gnralise consiste dterminer le vecteur de paramtres qui mi-
nimise lcart entre les moments thoriques et les moments empiriques. lordre p, les conditions
de moments sont dfinies par :
1" n
gp () = ((Xk )p k mp ())
n k=1
% + p
avec mp () = E[X p |X H] =
x f|H (x)dx
En posant g() = (g1 (), ..., gp ())% , lestimateur GMM est dfini par :
Une fois les paramtres estims par rsolution du systme prcdent, lajustement des distri-
butions de pertes via la loi log-normale est mesur au moyen de quatre tests dadquation. Les
statistiques de test utilises prennent en compte la troncature des donnes au seuil H. On note
zH = F (H) et zj = F (yj ) o yj la j me perte de lchantillon.
Le test de Kolmogorov mesure lcart maximal (en valeur absolue) entre la distribution
empirique et la distribution estime. Il sagit donc dun test local, et la statistique de test
a pour expression :
n j j1
KS = max{sup(zH zj + (1 zH )), sup(zj zH + (1 zH ))}
1 zH n n
n nzH 1 "n
1 "n
CVM = + + (1 2j)zj + (zj zH )2
3 1 zH n(1 zH ) j=1 (1 zH )2 j=1
Ce dernier test est bas sur le mme principe que le prcdent en considrant une pond-
ration gale (F! (x)) = (F! (x)(1 F! (x))2 , qui attribue un surcrot dimportance aux
queues droites des distributions correspondant la rgion des pertes les plus svres :
n
" 1 zH "
n
1 + 2(n j)
ADup = 2n ln(1 zH ) + 2 ln(1 zj ) + (1 2j)
j=1
n j=1 1 zj
La distribution de la frquence est modlise par une variable alatoire N suivant une loi de
Poisson P(), de fonction de probabilit :
k
P[N = k] = e
k!
Cette distribution prsente lavantage de ne ncessiter quun seul paramtre qui sestime
aisment comme la moyenne empirique du nombre annuel de pertes (estimateur du maximum
de vraisemblance). On calibre la distribution de la frquence aprs celle de la svrit afin de
prendre en compte la prsence du seuil de collecte. En effet, la probabilit quune perte soit
suprieure au seuil de collecte est gale au ratio du nombre de pertes collectes sur le nombre
total "rel" de pertes. On corrige donc lestimation du paramtre de frquence que lon note
!H
en le divisant par la proportion de pertes suprieures au seuil H :
!H
!H
!=
=
P[X > H] 1 F!(H)
En pratique, il suffit de calculer la moyenne empirique du nombre de pertes annuel (qui est
une estimation de H ) et dutiliser lestimateur de pour obtenir la vraie valeur du paramtre
de la distribution de la frquence.
N
"
L= Xk
k=1
Trois mthodes peuvent alors tre employes pour construire cette perte annuelle et sont
voques dans [27] et [32], il sagit de la mthode de Monte Carlo, la mthode de la transforme
de Fourier et lapproche rcursive de Panjer.
, + , +
1
F(f )(v) = g(v) = f (u)eivu du et F 1 (g)(u) = f (u) = g(v)eiuv dv
2
Ainsi, pour une variable alatoire Z, on peut relier la densit fZ et la fonction caractristique
Z via les transformes de Fourier :
, + , +
Z (u) = E[eiuZ ] = fZ (v)eiuv dv = fZ (v)eiuv dv = F(fZ )(u)
Or : , +
F(fZ )(u) = fZ (v)eiuv dv = F(fZ )(u)
+
" +
" n n
gN (t) = P[N = n]tn = e t = e(t1)
n=1 n=1
n!
La fonction caractristique de la distribution des pertes annuelles vaut donc (N tant indpen-
dante de X) :
La densit de la distribution des pertes annuelles se dduit par transforme de Fourier inverse :
fL = F 1 (L )
CaR = FL1 ()
Lalgorithme de Panjer est une relation rcursive qui permet lvaluation de la fonction de
distribution de la perte annuelle L dfinie selon la loi compose :
N
"
L= Xk
k=1
Les variables alatoires Xk sont aussi des variables indpendantes et identiquement distribues
et sont concentres sur le support {0, 1h, ..., rh} o h est le pas de discrtisation et r un nombre
arbitrairement choisi. On a alors L {0, 1h, 2h, ...}. Lide est dapproximer FX par FX . On
note les fonctions de masses de probabilit et de rpartition de X par
et
k
"
FX (kh) = fX (kh), k = 0, 1, ..., r
j=0
On applique alors lalgorithme de Panjer dans le cas o N suit une loi de Poisson de paramtre
.
Point de dpart
FL (0) = Pr(L = 0)
= MN {ln[fX (0)]}
= e(1fX (0))
Relation rcursive
min(k,r)
" j
fL (kh) = f (jh)fL (kh yh)
y=1
k X
pertes. On simule ensuite des pertes unitaires en simulant ns ralisations indpendantes issues
dune loi LN ( ! ) et notes xs1 , ..., xsns . La somme de ces ns pertes unitaires donne alors la
!,
ralisation ls de la perte annuelle :
ns
"
ls = xsk
k=1
En complment des calculs de charges en capital bass sur les pertes internes, le Crdit
Agricole intgre des informations, travers les analyses de scnario, qui sont lies certains
vnements extrmes ne figurant pas dans les bases de donnes car ils nont pas encore t
observs ou quils lont t mais ny figurent pas. Le fait dintgrer ces nouvelles informations
conduit un nouveau calcul de capital rglementaire.
1. Les scnario stand alone : leur but est de complter les historiques de pertes lorsque ceux-ci
sont jugs incomplets par les experts, ou bien de dterminer la distribution des pertes dans
les cas o il ny a pas de donnes internes.
2. Les scnarios internaliss : certains scnarios "stand alone" sont homognes au profil de
risque des pertes internes, ils peuvent par consquent tre intgrs aux historiques.
3. Les pertes internes externalises : les pertes internes de montant lv et trs atypiques
peuvent dans certains cas tre externalises sous forme de scnarios "stand alone".
Dans le cadre du mmoire, nous nous intresserons principalement aux scnarios "stand alone".
Les scnarios sont tablis par des experts mtiers afin de dcrire le risque induit par un type
dvnement donn. Plus prcisment, lexpert se prononce en formulant un scnario sous la
forme suivante :
Un scnario est par consquent constitu dun couple montant-temps de retour, not (x, d).
Lenjeu est alors de traduire ce scnario (x, d) en termes de restrictions sur les paramtres du
modle LDA, cest dire travers la frquence, modlise par une loi de Poisson P(), et la
svrit, par une variable alatoire continue de paramtre , de fonction de rpartition note F .
"
P( x t) = P[Ti t, X1 x, ..., Xi1 x, Xi x]
i1
"
= P[Ti t]F (x)i1 (1 F (x))
i1
" i1
" k tk
= (1 F (x))F (x)i1 et
i1 k=0
k!
"
tk "
k
= (1 F (x)) et F (x)i
k=0
k! i=k
" k tk
= e t
F (x)k
k=0
k!
(1F (x))t
= e
On en dduit que x suit une loi exponentielle E((1 F (x))). La dure moyenne entre deux
pertes suprieures x est donc la moyenne de x , soit (1F1 (x)) , et le nombre moyen vaut donc
(1 F (x)). Il en rsulte que, pour un scnario donn (x, d), les paramtres doivent satisfaire
la contrainte suivante :
1
d=
(1 F (x))
Cette relation est ensuite utilise pour estimer les paramtres du modle. Pour un scnario donn
et dans le cas log-normal, il suffit que lexpert tablisse 3 hypothses (xk , dk ) (basse, moyenne et
haute) du scnario pour estimer les trois paramtres , et . On obtient alors les estimateurs
en minimisant un critre quadratique :
3
. /2
" 1
(, , ) = arg min wk dk
,, k=1
(1 F, (xk ))
0 12
1
o les poids wk sont optimaux en prenant wk = dk .
Dans le cadre de lapproche AMA, une banque est autorise utiliser lassurance pour
se protger contre le risque oprationnel, dans la limite de 20% de lexigence totale de fonds
propres au regard du risque oprationnel. Ces polices dassurances sont contractes pour couvrir
des vnements faisant lobjet de scnarios.
Pour une police dassurance dfinie par une franchise F , un plafond par sinistre P , des taux
dassurabilit t1 (entre F et P ) et t2 (au-del de P ), et un taux de couverture c, leffet rducteur
li aux assurances est estim au sein des simulations Monte Carlo, en rcrivant la perte annuelle
N
"
L= Xk
k=1
en remplaant chaque perte individuelle Xk par une perte aprs "assurance" Xka = Xk 1{uc} +
Xk 1{u>c} , o u est un tirage dune loi uniforme U[0,1] , et
N
"
L =
a
Xka
k=1
Si la police comporte un plafond annuel , la perte annuelle avec assurance et plafond annuel
scrit :
La, = La + (L La )1{LLa }
Au final, leffet total de rduction ne doit pas excder 20% de la charge en capital aprs diver-
sification.
Le Comit de Ble aborde la prise en compte de la diversification des risques dans le cal-
cul de la charge en capital au titre du risque oprationnel. La banque est en effet autorise
appliquer des corrlations dtermines en interne condition de dmontrer que ses systmes de
dtermination des corrlations sont sains, mis en uvre avec intgrit et tiennent compte des
incertitudes inhrentes toute estimation de corrlations.
Lagrgation des charges en capital requiert donc de dfinir tout dabord les niveaux de corrla-
tion applicables puis la mthode de prise en compte de ces dpendances.
Niveaux de corrlation
Le modle LDA impose lhypothse dindpendance entre les pertes dun mme type de
risque mais il est difficile de supposer la fois cette indpendance et de supposer une corrlation
des pertes entre types de risque. On fait donc lhypothse que la corrlation entre les pertes
annuelles est une corrlation des frquences.
# 1 #N2
Pour deux pertes annuelles L1 = N k=1 X1,k et L2 = k=1 X2,k , en supposant que N1 et N2 sont
parfaitement corrls, cest--dire N1 = N2 = N P(), la covariance entre L1 et L2 vaut :
: ;
Cov[L1 , L2 ] = E N 2 E[X1 ]E[X2 ] 2 E[X1 ]E[X2 ]
0 1
= V[N ] + E2 [N ] 2 E[X1 ]E[X2 ]
= E[X1 ]E[X2 ]
E[X1 ]E[X2 ]
Cor[L1 , L2 ] <
E[X12 ]E[X22 ]
2 2
Avec Xi LN (i , i ), on a E[Xi ] = ei +i /2 et E[Xi2 ] = e2(i +i ) . Ainsi, pour dcrire la
corrlation entre deux pertes annuelles Lk et Lk" , on utilise le coefficient analytique suivant :
. /
2 + k2"
-ak,k" = Cor[Lk , Lk" ] = exp k
2
On peut alors dfinir une matrice dagrgation. On considre que la banque est compose
de I entits et lentit i [[1; I]] est compose de J (i) catgories de risque. Pour dcrire les
corrlations entre les pertes annuelles, on dfinit par blocs une matrice carre, de dimension
#
K = Ii=1 J (i) :
M M1,I
1,1
= ... .. ..
. .
MI,1 MI,I
" "
i,i
1,1 i,i
1,J (i )
"
Mi,i" =
.. .. ..
. . .
i,i" i,i"
J (i) ,1 J (i) ,J (i" )
La mthodologie dagrgation repose sur lhypothse que le vecteur L des K pertes annuelles
a la structure dun vecteur gaussien :
K
.K K "
K
/
" " "
Lk N mk , -k,k" sk sk"
k=1 k=1 k=1 k" =1
=
K >K K
" >" "
CaR() = mk + ()?
1
-k,k" sk sk"
k=1 k=1 k" =1
Table 2.1 Prsentation des donnes par entit et type de risque selon que la cellule de risque
dispose de donnes internes () ou de scnarios ()
A premire vue, certaines catgories de risque ne disposent pas des deux sources de donnes.
Par exemple, les pertes pour le risque montique EL2M ne prsentent pas de scnarios car les
experts considrent que le montant de ces pertes nest pas suffisamment lev pour quil soit
ncessaire de crer un scnario qui est cens caractriser une perte extrme. Il en est de mme
pour le risque EL7. On choisit ici de travailler avec des catgories de risque similaires (on verra par
la suite quon a choisi ces catgories car elles facilitent une comparaison au niveau des rsultats)
pour lesquelles on dispose la fois des donnes historiques et des scnarios. Considrons les trois
cellules suivantes :
En ce qui concerne le choix des lois de frquence et de svrit des pertes, on rappelle quau
sein du modle actuel du Crdit Agricole, les lois utilises sont une loi de Poisson pour modliser
la frquence des pertes, et une loi log-normale pour modliser la svrit des pertes.
Aujourdhui, deux types de charges en capital sont calculs au sein du Groupe Crdit Agri-
cole laide des donnes historiques, plus communment appeles donnes internes, et laide
des scnarios. Les mthodes utilises pour les calculer sont celles prsentes prcdemment. Ces
capitaux sont ensuite agrgs pour fournir une charge en capital pour tout le Groupe, tous
risques confondus.
On dcrit dans la suite les informations contenues dans les cellules, les estimations des para-
mtres des lois selon les deux mthodes prsentes prcdemment ainsi que les valeurs de charges
en capital rglementaires obtenues.
On commence par prsenter les chantillons de pertes internes des trois cellules qui seront
utiliss dans les mthodes de calcul des capitaux rglementaires prsentes dans ce mmoire.
Chaque cellule comporte lhistorique des pertes oprationnelles collectes sur 5 ans entre 2007
2011.
Statistiques descriptives
Etant donne la particularit des donnes du risque oprationnel, il est intressant de mener
une tude exploratoire pralable. Les statistiques descriptives sont contenues dans le tableau
suivant :
Le skewness mesure lasymtrie de la distribution des donnes, on voit ici quil est toujours
positif, cest dire que la queue droite de la distribution est plus longue, et que la masse des
montants de perte est concentre gauche. Le kurtosis mesure quant lui laplatissement de
la distribution cest dire lpaisseur de la queue. Le kurtosis tant toujours suprieur 3, ici,
cela signifie que les distributions sont leptokurtiques 1 .
En appliquant la mthode pour les donnes internes (DI) dcrites prcdemment, on obtient
les estimations des paramtres corrigs de frquence et de svrit suivant :
Cas DI DI DI
1 53.15 7.56 1.61
2 81 5.21 2.17
3 815.96 6.15 2.24
Table 2.5 Estimation des paramtres de loi partir des donnes internes
Ces paramtres permettent dobtenir lajustement de loi de svrit suivant pour le cas 1 :
1. ayant des queues plus paisses que la loi Normale
A laide de la mthode de simulation de Monte Carlo mise en place pour le calcul de la charge
en capital, on obtient les rsultats suivants pour les trois cellules de risque choisies :
Cas CaRDI
1 1 874 733 e
2 1 953 667 e
3 22 722 500 e
On commence par prsenter les scnarios tablis par les experts mtiers afin de dcrire le
risque induit par un type dvnement donn. On rappelle que ces scnarios sont fournis sous
la forme de couples montant-temps de retour (x, d) signifiant quune perte suprieure ou gale
x arrive toutes les d annes. Les informations des experts utilises dans ce mmoire sont les
suivantes (pour chaque entit, le scnario imagin est une dysfonctionnement informatique) :
Cas x1 d1 x2 d2 x3 d3
1 6 969 000 50 17 043 000 150
2 255 000 5 762 000 10 1 474 000 30
3 2 000 000 5 12 000 000 10 25 000 000 40
On constate que pour le cas 1, il ny a pas de troisime couple fourni. Comme on la vu prc-
demment, les experts on galement la possibilit de se prononcer sur le paramtre de frquence
ou encore sur lexpected loss EL= exp( + 2 /2). Ces contraintes viennent alors rduire le
nombre ncessaire dhypothses pour estimer les paramtres de loi. Dans le cas 1, les experts
se sont prononcs sur lexpected loss : EL1 =315 000 e. En appliquant la mthode consistant
minimiser un critre quadratique, on obtient les estimations des paramtres de loi suivantes :
Cas S S S
1 0.02 16.5 0.34
2 0.22 13.48 0.71
3 0.2 16.3 0.64
A laide de la mthode de simulation de Monte Carlo mise en place pour le calcul de la charge
en capital, on obtient les rsultats suivants pour les trois cellules de risque choisies :
Cas CaRS
1 26 191 333 e
2 4 946 000 e
3 68 627 000 e
Sous lhypothse gaussienne, on peut prsent dterminer la CaR pour chaque cellule de
risque. En ne considrant que les entits AMUNDI, CACF et CACIB, nous disposons de la
mta-matrice de corrlation suivante :
Table 2.10 Mta-matrice de corrlation pour les entits AMUNDI, CACF et CACIB
On peut alors dterminer les expected losses EL, les unexpected losses UL, puis les CaR
agrges :
On remarque que les charges en capital agrges pour chaque entit sont la somme des charges
venant des deux sources de donnes. Cela est d la forme de la mta-matrice de corrlation.
Aujourdhui, les scnarios et les donnes internes sont traits comme deux catgories de
risque part entire, y compris pour un mme type de risque. Il est donc difficile de dgager
un unique profil de risque pour une entit et un event-type donn. Combiner ces deux sources
apporterait plus de lisibilit lanalyse des profils de risque des entits mais aussi de la banque
une fois ces charges agrges.
Par ailleurs, lhypothse gaussienne utilise aujourdhui pour agrger les CaR obtenues entre
catgories de risque suppose une diversification des risques. Les scnarios sont traits comme des
catgories de risque part entire, et il existe donc une corrlation entre un scnario relatif la
catgorie de risque i et une catgorie de risque (pertes internes ou scnario) j. Naturellement,
un scnario dune catgorie i ne devrait pas tre corrl aux pertes internes dune catgorie de
risque i pour une business line donne mais certaines exceptions existent en raison danalyse
mtiers dans ce sens.
Ainsi, la mta-matrice qui permet dagrger les charges en capital prend en compte toutes
les corrlations entre les scnarios et les donnes internes de toutes les business lines. Remar-
quons tout dabord que dans le cadre de matrices de corrlation par business line, labsence de
corrlation entre un scnario li la catgorie de risque i et lhistorique de donnes internes de la
catgorie de risque i induit de sommer les charges obtenues par les deux sources de donnes. De
plus, en supposant des alternatives lhypothse gaussienne comme mthode de diversification
qui peut sembler discutable (copules par exemple), il peut tre ncessaire dobtenir des matrices
de corrlation de dimensions moins grandes.
Cest pourquoi la thorie baysienne parat tre un cadre propice lobtention de matrices
par entits de taille restreinte (nombre de catgories de risque) et la diversification entre
scnarios et donnes internes dune mme catgorie de risque, et enfin lobtention de profils de
risque uniques pour chaque catgorie de risque considre.
Partie 3
o :
() est la densit de probabilit des paramtres appele loi de densit a priori
( | x) est la densit de probabilit conditionnelle des paramtres sachant le vecteur X
appele loi a posteriori
h(x, ) est la densit jointe des donnes observes et des paramtres
h(x | ) est la densit des observations pour des paramtres donns (fonction de vraisem-
blance) %
h(x) est la densit marginale de X qui peut scrire comme h(x) = h(x | )()d
La formule de Bayes et le calcul des diffrentes lois marginales qui en dcoule font appel de
nombreux calculs dintgrales multidimensionnelles pour lesquelles la forme analytique peut tre
trs complexe. On verra par la suite que des mthodes de simulations Monte Carlo permettent
alors dapprocher ces intgrales.
Dans lapproche baysienne plusieurs mthodes coexistent suivant le type de donnes quon
utilise. Dans lapproche baysienne pure, la distribution de la loi a priori est spcifie subjec-
tivement (grce aux jugements dexperts). Plusieurs mthodes existent quon dtaille dans la
section suivante.
En revanche, sous lapproche baysienne empirique, le paramtre est trait comme un chan-
tillon alatoire venant de la distribution a priori. Ainsi, en utilisant des donnes collectives pour
des risques similaires, les paramtres de la loi a priori sont estims en utilisant une distribution
marginale des observations. Mme si ces risques similaires ont des profils diffrents, ils ont en
commun que les k ont la mme densit (). Ainsi, on peut trouver la distribution incondi-
tionnelle des donnes X et accorder la loi a priori lensemble des donnes (par exemple par
mthode de maximum de vraisemblance ou mthode des moments gnralise).
Le choix de modliser la distribution a priori par une distribution conjugue avec la vrai-
semblance permet une interprtation claire de la formule de Bayes, en tant quun processus de
mise jour des paramtres de la distribution a priori qui donne la distribution a posteriori. Une
distribution a priori conjugue est galement un choix objectif pour la distribution a priori o
seuls les paramtres restent dterminer. Voici quelques exemples de lois conjugues :
h(x | ) () ( | x)
vraisemblance a priori a posteriori
Le principal problme rside dans le choix des paramtres des lois a priori. La littrature
propose certaines solutions.
Cest la mthode la plus approprie lorsquon considre que lensemble des paramtres est
continu et parcourt un certain intervalle. La mthode consiste diviser lensemble en plusieurs
intervalles et dterminer la probabilit correspondant chacun dentre eux. On peut alors en
dduire un histogramme de probabilits dans un premier temps, puis calibrer une loi a priori en
minimisant lerreur (optimisation par moindres carrs, choix dune distance spcifique, etc.).
Lobjectif est de comparer les vraisemblances intuitives de diffrents points de (en disant
par exemple quune certaine valeur du paramtre est cinq fois plus vraisemblable quune autre)
et den dduire une densit a priori.
Cest lapproche la plus utilise. Elle consiste choisir la loi de la densit a priori et de
calculer les paramtres de ces lois grce aux donnes dont on dispose. Il est possible de calculer
les paramtres a priori en sappuyant sur les moments. Le principal problme rside dans lesti-
mation des moments car les queues de distribution peuvent avoir des effets non ngligeables sur
ceux-ci. Une seconde mthode consiste estimer des quantiles de la distribution a priori puis de
choisir les paramtres de manire respecter les contraintes.
Cette approche est la plus attrayante car il existe de nombreuses tables de quantiles pour
les lois les plus frquentes. Compte-tenu de linformation dont on dispose, on se concentrera
par la suite sur cette mthode. En outre, on fait en sorte de modliser la frquence des pertes
oprationnelles par une loi de Poisson et la svrit de celles-ci par une loi log-normale : cause
des lois conjugues, le choix de la loi a priori ne restreint qu une ou deux possibilits. On se
basera donc au dbut de notre implmentation sur cette option.
La section prcdente a montr que les lois conjugues peuvent tre utiles en tant quap-
proximation des vritables lois a priori. En revanche, lorquaucune information a priori nest
disponible, leur unique justification est analytique, puisquelles donnent des expressions exactes
pour quelques quantits a posteriori. Dans de telles situations, il est impossible de justifier
le choix dune loi a priori sur des bases subjectives et les paramtres des lois conjugues ne
peuvent tre dtermins quarbitrairement. Plutt que de revenir aux alternatives classiques,
comme lestimation par maximum de vraisemblance, ou dutiliser les donnes pour estimer ces
hyperparamtres, comme dans une analyse baysienne empirique, il est prfrable de faire appel
des techniques baysiennes. Dans un tel cas, ces lois a priori particulires doivent tre construites
partir de la distribution de lchantillon, puisque cest la seule information disponible. Pour
ces raisons, de telles lois sont dites non informatives.
Une premire mthode consiste donner la mme vraisemblance chaque valeur du pa-
ramtre par le biais dune loi uniforme. On considre les transformations du problme qui ne
doivent pas influencer intuitivement la loi a priori non informative, cest--dire que "si deux
problmes ont la mme structure, alors la loi a priori non informative doit tre la mme". Il
sagit donc de trouver une distribution invariante par une opration donne. Si la famille de
distributions est stable par une classe de transformations, on pourra chercher une distribution
a priori invariante par cette famille de transformations. Cependant, des critiques ont t mises
sur ce choix. Par exemple, les lois rsultantes sont impropres quand lespace des paramtres nest
pas compact.
Jeffreys propose une approche intrinsque diffrente fonde sur linformation de Fisher, don-
ne par : @2 3 A
ln f (X | ) 2
I() = E
I() reprsente une mesure de la quantit dinformation sur contenue dans lobservation. Plus
I() est grande, plus lobservation apporte de linformation. Il semble alors naturel de favoriser
(au sens de rendre plus probable suivant ()), les valeurs de pour lesquels I() est grande :
cela minimise linfluence de la loi a priori au profit de lobservation. On prendrait alors pour loi
a priori la loi suivante : <
() = I()
Une approche particulire de la modlisation non informative est de sintresser aux propri-
ts frquentistes de la loi a priori, cest--dire en moyenne sur x plutt que conditionnellement
x. Il existe des lois a priori donnant des estimateurs optimaux selon des critres frquentistes
comme la minimaxit ou ladmissibilit et on peut souhaiter restreindre le choix de la loi a priori
ces distributions optimales. Cependant, une telle restriction rduit rarement le choix de la loi a
priori une distribution unique. Une approche plus standard est dimposer que certaines proba-
bilits a posteriori concident avec la couverture frquentiste correspondante, do lappellation
de lois a priori concidantes.
Sans conteste, le point le plus critiquable et le plus critiqu de lanalyse baysienne est le
choix de la loi a priori. Une fois que cette loi a priori est connue, linfrence peut tre conduite
mcaniquement comme on la vu prcdemment grce la formule de Bayes. Dans la pratique,
il est rare que linformation a priori soit suffisamment prcise pour conduire une dtermination
exacte de la loi a priori et cest bien entendu le cas dans la modlisation apporte par les experts
par le biais de scnarios. On dcide dans un premier temps dutiliser les lois conjugues et une
loi a priori prdfinie pour modliser notre risque oprationnel.
Cependant, les experts ne donnent quune estimation des pertes extrmes (au-del dun
certain seuil) ce qui fait quon na pas accs lensemble de la distribution a priori. Dans un
premier temps, on essaie dimplmenter la mthode la plus simple possible pour en dgager les
premiers rsultats et examiner sous quelle forme les problmes se prsentent.
Si linformation a priori est riche, la loi a priori sera bien entendue mieux dfinie que dans
le cas non informatif. Dans tous les cas, il est important de sassurer que limpact de cette
indtermination sur la loi a priori sur les quantits a posteriori soit bien valu et que la partie
arbitraire de la priori ne soit pas prdominante. Ltude de ces aspects est appel tude de
sensibilit (ou de robustesse). La littrature sur la robustesse baysienne sest considrablement
accrue ces dernires annes et nous renvoyons les lecteurs larticle dvelopp par [4].
Dans le cas particulier des lois a priori conjugues, les esprances a posteriori des paramtres
naturels admettent videmment des expressions explicites : mais cest pratiquement le seul cas
o des expressions analytiques sont disponibles dans une telle gnralit. Pour certaines lois a
priori, la loi a posteriori ne sintgre pas si facilement que cela et on est oblig de recourir
des mthodes sophistiques qui ncessitent beaucoup de calculs. Afin daborder lensemble des
difficults lies la modlisation baysienne, nous dcrivons dans cette section lensemble des
techniques permettant dobtenir une loi a posteriori : de plus, on sera amen pour les mthodes
que lon prsente aprs implmenter ce genre de technique.
Pour une fonction de cot L et une loi a priori donnes, lestimation baysienne associe
Dans la pratique, minimiser peut tre rendu difficile pour deux raisons :
le calcul explicite de la loi a posteriori ( | x) peut tre impossible (via la formule de
Bayes)
mme si cette loi a posteriori est connue, cela nimplique pas ncessairement que minimiser
lexpression L soit facile.
Des techniques classiques peuvent faciliter les calculs et sont particulirement adaptes aux
exigences de lapproche baysienne. Il existe des mthodes de Monte Carlo plus gnrales permet-
tant dapprocher la gnration de variables alatoires dune loi a posteriori ( | x) lorsque cette
loi ne peut pas tre simule directement. Lavantage de ces mthodes sur les mthodes de Monte
Carlo classiques quon a abord dans la section 2.2.3 est quelle ne ncessite pas la construction
prcise dune fonction dimportance puisquelle prend en compte les caractristiques de ( | x).
Cette extension est appele la mthode de Monte Carlo par chanes de Markov quon note en
abrg la MCMC.
Prsentation du modle
On suppose que la loi rgissant le nombre de pertes oprationnelles survenant en une anne
suit une loi de Poisson de paramtre . Le paramtre dintensit nest pas connu et lapproche
baysienne le modlise par une variable alatoire que lon note . Ensuite on peut appliquer le
modle suivant pour les annes t = 1, 2, ..., T, T + 1 (o T + 1 correspond lanne future).
Hypothses du modle
On suppose que pour = donn, les donnes N1 , ..., NT +1 sont des variables alatoires
indpendantes et identiquement distribues de loi de Poisson P() :
n
P(Nt = n | ) = exp() , 0.
n!
On suppose que la distribution a priori de est une loi Gamma, G(0 , 0 ). La densit a
priori scrit :
2 30 1 2 3
1
() = exp , > 0 , 0 > 0 , 0 > 0.
(0 )0 0 0
T
- ni
h(n | ) = e
i=1
ni !
o n = (n1 , ..., nT )% reprsente lhistorique du nombre de pertes annuelles. On peut alors dter-
miner la loi a posteriori laide de la formule de Bayes suivante :
h(n | )( | 0 , 0 )
( | n, 0 , 0 ) =
h(n)
(/0 )0 1 /0 -T
ni
( | n, 0 , 0 ) = e e
h(n)(0 )0 i=1
ni !
#T
1+ ni Bn 1
0 i=1
* +0 1+#T ni (T + 1 )
= i=1 ni! i=1 e 0
h(n)(0 ) 0
Etant donn que nous sommes dans un cas de lois conjugues, il nous faut identifier la nouvelle
loi Gamma qui se reconnat facilement en crivant la relation de proportionnalit suivante :
* +0 1+#T ni (T + 1 )
( | n, 0 , 0 ) i=1 0 e
0
Avec les hypothses prcdentes, la densit a posteriori peut tre crite :
2 3T 1 2 3
1
() = exp
(T )T T T
Ceci correspond une distribution G(T , T ), la mme distribution que la distribution a priori
mais avec des paramtres diffrents :
T
" 0
T = 0 + ni , T =
i=1
1 + 0 T
Il est suppos que pour = donn, NT +1 et N = {N1 , ..., NT } sont indpendants. Le nombre
espr dvnements pour lanne suivante, sachant les observations du pass, E[NT +1 | N], cest
dire la moyenne de la loi Gamma G(T , T ) (correspondant la moyenne de la distribution a
posteriori), permet une bonne interprtation comme suit :
#
0 + Ti=1 ni
E[ | N = n] = T T = 0 = T
! M LE + (1 T )0
1 + 0 T T
Avec :
On voit trs bien dans cette formule que T est le poids de crdibilit quon donne lestimateur
du maximum de vraisemblance associ aux donnes internes par rapport lestimation dun
expert.
De cette formule, on peut faire alors plusieurs remarques : plus le nombre dannes observes T
est grand, plus le poids de crdibilit est grand, cela veut dire quon assigne plus de poids aux
observations qu lestimation des experts. De plus, plus la volatilit de lopinion de lexpert est
grande, plus on accorde de poids aux observations.
E[] = 0 0
, b
(G) (G)
P(a b) = p = ( | 0 , 0 )d = F0 ,0 (b) F0 ,0 (a)
a
Ce systme permet de calculer les paramtres structuraux 0 et 0 de la loi a priori Gamma. Ici
(G)
F0 ,0 (.) est la distribution Gamma G(0 , 0 ), cest dire :
, y 2 3
(G) x0 1 x
F0 ,0 (y) = 0 exp dx
0 (0 )0 0
Le problme rside alors dans le fait dadapter les informations fournies par les experts pour
obtenir ces deux quations permettant ainsi dobtenir les paramtres structuraux 0 et 0 .
1er choix de modlisation : on considre que la meilleure estimation faite par les experts pour
le nombre de sinistres attendus est ce S . On peut alors crire :
E[N ] = S
Or :
E[N ] = E[E[N | ]] = E[] = 0 0
S = 0 0
2nd choix de modlisation : il sagit ici de trouver une deuxime quation qui permettrait la
rsolution dun systme dquations deux inconnues. Un problme se pose : on ne dispose
uniquement de lesprance du nombre de pertes. Il parat donc difficile dobtenir la distribution
du paramtre partir de cette seule donne. Certaines informations sont particulirement
difficiles obtenir comme les coefficients a, b, et la probabilit p telle que P[a b] = p comme
on la prsent pour estimer la distribution a priori. Par manque dinformations donnes par les
experts pour la construction de la deuxime quation par la mthode C prsente prcdemment, il
est aussi possible dutiliser le coefficient de variation Vco() = V()/E[] trs utilis dans le
monde assurantiel. Le choix a t de considrer un coefficient de variation. Pour une loi Gamma
G(0 , 0 ) on a :
E() = 0 02 et V() = 0 0
2 32
1
0 =
Vco()
0 = S (Vco())2
Une fois ces paramtres a priori dtermins, nous pouvons en dduire les paramtres de la loi a
posteriori G(T , T ) qui dcoulent des formules suivantes, dmontres prcdemment :
T
" 0
T = 0 + ni et T =
i=1
1 + 0 T
Aprs le calcul des paramtres a posteriori, on choisit dutiliser la mthode de lerreur qua-
dratique minimale pour estimer la nouvelle valeur posteriori du paramtre de la loi P() de la
frquence des sinistres :
,
! posteriori = E[ | N ] =
( | N )d
! posteriori = T T = T
! M LE + (1 T )0
T
Cette valeur pourra ensuite tre utilise pour modliser la loi de frquence dans le calcul de la
charge en capital. On peut alors rsumer la mthode sous la forme schmatique suivante :
Loi a posteriori
Inputs
Loi a priori G(T , T ) Outputs
S
Formule
#T
G(0 , 0 ) de Bayes T = 0 + i=1
ni !posteriori
Vco()
T = 0
1+0 T
Modle
Donnes Internes
Concernant les trois cellules de risque choisies, on vient de voir que dans chaque cas la valeur
E[] correspond la valeur S fournie par les experts, ce qui permet de dduire les premires
quations suivantes :
Cas E[] = S = 0 0
1 0.02
2 0.22
3 0.2
Pour obtenir la deuxime quation, on choisit une valeur du Vco() gale 50% ce qui nous
donne directement la valeur du coefficient 0 gale 4. On peut alors calculer les valeurs de 0 et
en dduire que la loi a priori de est une loi Gamma G(0 , 0 ) dont les valeurs des paramtres
structuraux sont affiches dans le tableau ci-dessous :
Cas 0 0
1 4 0.005
2 4 0.055
3 4 0.05
loi Gamma G(T , T ). Les valeurs des nouveaux paramtres structuraux sont affiches dans le
tableau suivant :
Cas T T
1 133 0.0049
2 599 0.0431
3 1311 0.04
Cas ! posteriori
1 0.649
2 25.84
3 52.44
On constate que la densit de la loi de frquence obtenue se situe entre les deux densits obtenues
avec les donnes internes et les scnarios. Ces rsultats seront utiliss afin de dterminer les
charges en capital.
Prsentation du modle
Supposons que la svrit des pertes dans une banque est modlise comme une variable
alatoire avec une distribution log-normale LN (,). La densit se note :
. /
1 (ln x )2
f (x | , ) = exp
x 2 2 2 2
Cette distribution trs rpandue est un bon moyen pour modliser les pertes oprationnelles. En
outre, elle appartient une classe de distributions queue paisse. Les paramtres et ne sont
pas connus et lapproche baysienne les modlisent par des variables alatoires et . On
suppose que les pertes durant les annes t = 1, 2, ..., T sont connues et doivent tre modlises
pour lanne suivante T + 1. Pour simplifier les notations, on notera les pertes des T dernires
annes X1 , ..., Xn et les pertes futures sont Xn+1 ,... .
On suppose que pour = et = donns, X1 , ..., Xn , ... sont des variables alatoires
indpendantes de loi LN (,). Les variables Yi = ln Xi pour i = 1, 2, ... suivent donc une
loi normale N (, ).
On suppose que la distribution a priori de 2 est la loi inverse gamma IG(/2, /2) et
que la distribution a priori de est une loi normale N (,/ ). Les densits a priori
scrivent :
( 2 /)1/2 * +
( 2 ) = exp
(/2)2/2 2 2
. /
2 1 ( )2
( | ) = C exp
2 2 / 2 2 /
De plus, on note les pertes des annes passes sous forme vectorielle de la faon suivante X =
(X1 , ..., Xn )% et les logarithmes des pertes Y = (Y1 , ..., Yn )% .
On considre ici que le paramtre ne suit pas une loiinverse-gamma mais est une constante
connue et fixe. Dans ce cas, on pose 0 = et 0 = / ce qui nous permet dcrire que
suit une loi normale N (0 , 0 ).
Sous ces hypothses, la densit jointe des donnes des annes passes la position Y = y,
conditionnellement aux valeurs et = , scrit :
. /
n
- 1 (y )2
h(y | , ) = exp i 2
i=1 2
2
h(y | , )( | 0 , 0 )
( | y, 0 , 0 ) =
h(y | )
La densit a posteriori peut alors tre crite, une constante multiplicative prs, de la faon
suivante :
0 2
1 0 1
exp ( 0)
2
n exp (yi )
-
202 2 2
( | y, 0 , 0 )
0 2 i=1 2
Etant donn que nous sommes dans un cas de loi conjugue, on sait que la loi a posteriori de
est une loi normale N (0,n , 0,n ) :
. /
( 0,n )2
( | y, 0 , 0 ) = exp
20,n 2
On peut conclure que suit a posteriori une loi normale N (0,n , 0,n ) telle que :
#
0 + ni=1 ln(xi ) 0 2
0,n = , 0,n 2 =
1 + n 1 + n
avec = 0 2 / 2 .
La valeur attendue de Yn+1 sachant les observations du pass, E[Yn+1 | Y = y], se calcule de la
faon suivante :
#
0 + ni=1 yi
E[Yn+1 | Y = y] = E[ | Y = y] = 0,n = = n y n + (1 n )0
1 + n
Avec :
#
y n = n1 ni=1 yi est lestimateur du maximum de vraisemblance de utilisant uniquement
les observations ;
0 est lestimation du utilisant uniquement la distribution a priori (spcifie par les
experts) ;
n = n+n2 /0 2 est le poids de la crdibilit utilis pour combin y n et 0 .
On voit trs bien dans cette formule que n est le poids de crdibilit quon donne lestimateur
du maximum de vraisemblance par rapport lestimation dun expert.
De cette formule, on peut faire alors plusieurs remarques : lorsque le nombre dobservations
augmente, le poids de crdibilit augmente, cela veut dire quon assigne plus de poids aux
observations qu lestimation des experts. De plus, plus la volatilit de lopinion de lexpert est
grande, plus on accorde de poids aux observations.
Dans ce cas, a une distribution LN (0 + 1/2 2 , 0 ). Lexpert doit spcifier la meilleure esti-
mation des pertes attendues E[] mais il ne peut tre sr de cette estimation. Cette estimation
doit plutt tre considre comme la meilleure estimation faite par les experts pour la svrit
des sinistres correspondant E[E[X | ]] = E[]. En plus de cette estimation, il est ncessaire
que les experts fournissent une incertitude que le vrai pour lanne suivante se situe dans un
intervalle [a, b] avec une probabilit P[a b] = p ce qui permet dobtenir le systme deux
quations et deux inconnues suivant :
2 3
1 1
E[] = exp 0 + 2 + 0 2
2 2
. / . /
ln b 12 2 0 ln a 12 2 0
p = P[a < < b] =
0 0
Le problme rsulte alors dans le fait dadapter les informations fournies par les experts pour
obtenir ces deux quations.
A laide des couples fournis par les experts (xi ,di ) associs un scnario pour i {1, 2, 3}, o
xi reprsente un montant et di le temps de retour associ ce montant de pertes, on estime par
minimisation dun critre quadratique les diffrents paramtres des distributions de frquence et
svrit. Parmi ces estimations, on retrouve S dcrivant une partie de la loi de svrit spcifie
par les experts. On fait alors les choix de modlisation suivants :
1er choix de modlisation : on considre que la meilleure estimation faite par les experts pour
la svrit des sinistres attendus est lesprance de la loi log-normale spcifie par les experts.
On est ici dans le cas o est connu, mais on constate quil nest pas ncessaire de choisir sa
valeur pour dterminer les paramtres a priori de la loi de . La premire quation scrit :
2 3
1 1 1
exp(S + 2 ) = exp 0 + 2 + 0 2
2 2 2
2nd choix de modlisation : il sagit ici de trouver une deuxime quation qui permettrait en
quelque sorte de calculer le moment dordre 2. Etant confronts au<mme problme que pour la
frquence, on a recours ici au coefficient de variation Vco( ) = V( )/E[ ]. La deuxime
quation scrit alors :
0
Vco( ) =
0
<
1 + 1 + 2(Vco( ))2 S
0 =
(Vco( ))2
<
1 + 1 + 2(Vco( ))2 S
0 =
Vco( )
Une fois ces paramtres a priori dtermins, on peut en dduire les paramtres de la loi a pos-
teriori N (0,n , 0,n ) en utilisant les formules de passages dtermines prcdemment. Aprs le
calcul des paramtres a posteriori, on choisit comme pour la frquence dutiliser la mthode
de lerreur quadratique minimale pour estimer la nouvelle valeur !posteriori du paramtre des-
prance de la loi LN (, ) de svrit des sinistres. Cette valeur ainsi que celle de DI seront
ensuite utilises pour modliser la loi de svrit des sinistres dans le calcul des charges en
capital. On peut rsumer la mthode sous la forme schmatique suivante :
Rsum de la mthode
Loi a posteriori
Inputs
N (0,n , 0,n )
S Loi a priori Outputs
Formule
0,n =
#
N (0 , 0 ) de Bayes 0 +
n
i=1
ln(xi ) !posteriori
1+n
2
2 0,n =
0
Vco( ) 1+n
2 2
= 0 /
Modle
Donnes Internes
Figure 3.3 Reprsentation schmatique de la mthode 1 pour la svrit dans le cas connu
On peut voir assez simplement que la distribution marginale a priori de est une distribution
de Student translate degrs de libert :
, , 2 3
2 2 1
() = (, )d x +1
2
1
exp [ + ( )2 ] dx
2x
, 2 3
y
exp [ + ( )2 ] dy
+1
y 2
1
2
,
[ + ( )2 ]
+1 +1
2 z 2
1
exp(z)dz
. / +1
( )2 2
1+
1 #n 1 #n
On note = ( 2 ) 2 1 , y = et y 2 = 2
i=1 yi . Sachant Y = y, la densit jointe
+1+n
n i=1 yi n
a posteriori a la forme suivante :
. . //
2 1 2
n
"
2
(, | y) exp 2 + ( ) + (yi )
2 i=1
2 13
1 0 2 2
exp + ( + n) + 2( + ny) + ny 2
2 2
. . 2 32 //
1 ( + ny)2 + ny
exp 2 + 2 + ny 2 + ( + n)
2 +n +n
2 3
2 n2+1 1 1
( ) exp 2 (n + n ( n )2 )
2
Cette distribution jointe a posteriori a la mme forme que la densit jointe a priori mais avec
les nouvelles valeurs des paramtres structuraux suivantes :
n = + n
( + ny)2
n = + 2 + ny 2
+n
+ ny
n =
+n
n = + n
n
E[2 | Y = y] =
n 2
On peut ensuite trouver grce deux quantiles Qq1 et Qq2 de la faon suivante :
ln(Qq2 /Qq1 )
=
1 (q2 ) 1 (q1 )
Ensuite, on peut essayer de modliser la distribution a priori de laide des avis dexperts
sur les quantits E[ln(Qq2 /Qq1 )] et P[a Qq2 /Qq1 b] ou des opinions impliquant plusieurs
paires de quantiles. Enfin connaissant la meilleure valeur de , la distribution a priori de
peut tre estime comme dans le cas o est connu.
Le problme rsulte alors, encore une fois, dans le fait dadapter les informations fournies par
les experts pour obtenir deux quations qui nous permettront destimer les paramtres de la loi
a priori de 2 .
Les informations fournies aujourdhui par les experts mtier du Crdit Agricole ne permettent pas
de se prononcer sur les quantits E[ln(Qq2 /Qq1 )] et P[a Qq2 /Qq1 b]. On dispose uniquement
des valeurs S et S dcrivant la loi de svrit, spcifies partir des jugements dexperts
et issues de la minimisation dun critre quadratique. On fait alors les choix de modlisation
suivants :
1er choix de modlisation : on considre que la meilleure estimation faite par les experts pour
le paramtre de variance de la svrit des sinistres est gale S2 . On considre donc, dans un
souci de manque de donnes, que cette dernire valeur est gale lesprance de loi de 2 ce
qui nous permet dobtenir une premire quation :
S2 = E[2 ] =
2
2nd choix de modlisation : La deuxime quation permettant destimer les paramtres de loi a
priori de 2 est obtenue en utilisant comme prcdemment le coefficient de variation Vco(2 ).
On obtient la seconde quation suivante :
D
2
Vco(2 ) =
4
2
= +4
(Vco(2 ))2
2 3
1
= 2S2 +1
(Vco(2 ))2
Une fois tous les paramtres a priori dtermins, on peut en dduire les paramtres des lois a
posteriori IG(n /2, n /2) N (n , /n ) en utilisant les formules de passage dtermines prc-
demment. Aprs le calcul des paramtres a posteriori, on choisit comme pour la frquence duti-
liser la mthode de lerreur quadratique minimale pour estimer les nouvelles valeurs !posteriori
!posteriori des paramtre de la loi LN (, ) de svrit des sinistres. On rsume la mthode sous
Rsum de la mthode
Inputs
Loi a priori Outputs
Loi a posteriori
S Formule !posteriori
S IG(/2,
/2) de Bayes IG(n /2, n /2)
Vco( ) N (, / ) N (n , / n )
!posteriori
Vco2 )
Modle
Dones Internes
Concernant les trois cellules de risques choisies, on a vu que les valeurs S , S , Vco( ) et
Vco(2 ) permettent de dterminer les paramtres structuraux des lois a priori. On choisit une
valeur de 50% pour les quantits Vco( ) et Vco(2 ). On obtient alors les rsultats suivants :
A laide des formules de passage dcrites dans cette partie, on peut calculer les paramtres
structuraux des lois a posteriori. On affiche ces valeurs dans le tableau suivant :
Les paramtres de loi a posteriori tant calculs, on a accs aux nouvelles valeurs des paramtres
de la loi de svrit des pertes LN (, ) en utilisant la mthode de lerreur quadratique mini-
male. On obtient les valeurs suivantes :
Les distributions de svrit a posteriori se rapprochent de celle de la svrit associe aux pertes
internes.
On sintresse dans ce qui suit calculer les charges en capital requis CaR dans le cas des
trois cellules de risques choisies. On utilise lapproche frquence/svrit dcrite prcdemment
en modlisant la frquence par une loi de Poisson P() et la svrit par une loi log-normale
LN (, ). Avec ce premier modle, on envisage le calcul de la CaR pour les trois cellules dans
les quatres cas diffrents ci-dessous :
Paramtres de svrit
inconnu et connu et inconnus
Paramtre inconnu CaRM 1 CaRM 2
de frquence connu CaRM 3 CaRM 4
Afin de dterminer les CaR pour les diffrents cas, il est ncessaire davoir calcul au pralable
les trois paramtres , et . Pour les cas o est inconnu, on utilise la valeur DI obtenue
par lutilisation des donnes internes car cette valeur est vrifie par les experts et peut tre
corrige par une nouvelle valeur lorsque les experts considrent que lestimation qui est faite
nest pas reprsentative. Pour les cas o est connu, on utilise la valeur DI rsultant de
lestimation faite partir des donnes internes et de la mthode des moments gnralise. Pour
les paramtres inconnus, la mthode 1 des lois conjugues est ici utilise et les valeurs retenues
sont celles obtenues par la mthode de lerreur quadratique minimale. On peut alors laide
de lalgorithme de Monte Carlo dduire les CaR correspondant aux VaR(99.9%). Les montants
obtenus sont affichs dans le tableau suivant :
Table 3.8 Montants des diffrentes charges en capital calculs selon la mthode 1 des lois
conjugues
Les rsultats prsents dans ce tableau soulignent une forte disparit entre les charges en
capital obtenues avec les diffrentes mthodes. On sintresse ici aux modifications qui ont t
effectues pour le calcul des CaRM i .
Pour la CaRM 3 , la seule diffrence avec la CaRDI est lapplication de la mthode baysienne
des lois conjugues pour le paramtre . On rappelle que le paramtre a posteriori est obtenu
grce lgalit suivante :
#
0 + ni=1 yi
!posteriori = E[ | Y = y] =
= n y n + (1 n )0
1 + n
O n = n
n+ 2 /02
avec n le nombre de pertes collectes, 2 la variance de la loi log-normale et
02 la variance de la loi normale a priori. Pour chacune des cellules de risque, on obtient un poids
n gale 99.99%. On naccorde donc aucune attention linformation des experts sexprimant
travers la valeur 0 . Le !posteriori est donc gal la moyenne des logarithmes des pertes
qui correspond galement au maximum de vraisemblance. On obtient des valeurs de charge en
capital CaRM 3 suprieures aux valeurs CaRDI car la mthode des moments gnralise donne
des valeurs infrieures y n . On note tout de mme que les valeurs CaRM 3 sont comprises entre
la CaRDI et la CaRS .
Pour la CaRM 1 , la diffrence avec la CaRM 3 est lapplication de la mthode baysienne des
lois conjugues pour le paramtre . On rappelle que le paramtre a posteriori est obtenu
grce lgalit suivante :
#T
! posteriori = E[ | N = n] = T i=1 Ni
+ (1 T )0
T
O T = T +1/T
0
avec T le nombre dannes dhistorique gale ici 5 et 0 la valeur dun des
paramtres a priori pour le paramtre de frquence. On constate que les valeurs de 0 estimes a
priori sont trs faibles ce qui fait que le terme 1/0 est suprieur T . On trouve donc des poids
de crdibilit T variant entre 2.5% et 20%. On accorde donc un poids significatif, suprieur
80% selon les cas, aux donnes des experts 0 = S qui par consquent amne trouver des
valeurs de charge en capital plus faibles.
Pour les CaRM 2 et CaRM 4 , que lon peut comparer respectivement avec les CaRM 1 et
CaRM 3 , la seule diffrence est lapplication de la mthode baysienne des lois conjugues pour
le paramtre . De la mme manire que pour le paramtre , les valeurs !posteriori sont proches
des valeurs estimes par maximum de vraisemblance mais diffrentes de celles obtenues par la
mthode des moments gnralise. En loccurrence, elles sont plus faibles dans notre tude ce
qui donne par consquent des valeurs des CaRM 2 et CaRM 4 infrieures CaRM 1 et CaRM 3 . On
note tout de mme que les CaRM 4 restent proche des CaRDI .
Au vu de ces rsultats, on voit que le choix dune des 4 mthodes est dterminant pour le
rsultat de la charge en capital requis. On effectue dans la partie suivante des sensibilits aux
paramtres dentre du modle pour voir sur quel paramtre il est le plus judicieux dutiliser
cette mthode baysienne des lois conjugues.
On vient de dterminer les montants de charge en capital requis en sappuyant sur certaines
hypothses concernant les lois a priori. Afin de complter ces premiers calculs, il semble int-
ressant de poursuivre par diffrentes analyses de sensibilit. On cherche donc dterminer la
sensibilit de la CaR aux variations des paramtres dentre du modle. Ces sensibilits seront
ralises pour le cas 1.
Sensibilits au Vco()
On rappelle ici que la loi a priori du paramtre de frquence est une loi gamma G(0 , 0 )
dont les paramtres structuraux 0 et 0 sont dtermins partir dune valeur de frquence
impose par les experts S ainsi que le coefficient de variation Vco() que lon a choisi de fixer
arbitrairement 50%. On cherche donc dterminer la sensibilit de CaRM 1 et CaRM 2 aux
variations de valeur de Vco(). On fait varier ce coefficient sur lintervalle [0.25, 0.75] par pas
de 0.02 :
Au vu de ces rsultats, on constate que la charge en capital est sensible la valeur de Vco()
utilise en entre du modle. Ces graphiques suggrent que la CaR est une fonction affine
croissante du Vco(), ce qui est d au fait que la valeur
! posteriori augmente de manire quasi
linaire avec Vco().
Sensibilits au Vco( )
On rappelle
ici que la loi a priori du paramtre de svrit est une loi normale N (0 =
, 0 = / ) dont les paramtres structuraux sont dtermins partir dune valeur impose par
les experts S ainsi que le coefficient de variation Vco( ) que lon a choisi de fixer arbitrairement
50%. On cherche donc dterminer la sensibilit de CaRM 3 et CaRM 4 aux variations de valeur
de Vco( ). On fait varier ce coefficient sur lintervalle [0.25, 0.75] par pas de 0.01 :
Ces rsultats suggrent que la charge en capital nest pas sensible aux variations du paramtre
Vco( ).
Sensibilits au Vco(2 )
On rappelle ici que la loi a priori du paramtre de svrit 2 est une loi inverse-gamma
IG(/2, /2) dont les paramtres structuraux sont dtermins partir dune valeur impose par
!S ainsi que le coefficient de variation Vco()2 ) que lon a choisi de fixer arbitraire-
les experts
ment 50%. On cherche donc dterminer la sensibilit de CaRM 4 aux variations de valeur de
Vco(2 ). On fait varier ce coefficient sur lintervalle [0.25, 0.75] par pas de 0.01 :
De mme que pour le Vco(), on constate que la charge en capital est sensible la valeur de
Vco(2 ) utilise en entre du modle. Ces graphiques suggrent que la CaR est une fonction
croissante du Vco(2 ) ce qui est d au fait que la valeur
!posteriori augmente avec Vco(2 ). La
variation de valeur de la CaR, sur lintervalle dtude, correspond un cart relatif de 20% par
rapport la valeur obtenus avec Vco(2 ) = 50%. Lapproche M 3 semble donc tre celle la plus
adapte avec cette mthode baysienne des lois conjugues.
Dans cette premire mthode que lon peut surnommer approche baysienne pure, il est
possible, laide de formules explicites, davoir accs des paramtres de lois permettant le
calcul dun unique montant de capital rglementaire. Cette mthodologie utilise les principes de
linfrence baysienne et combine les informations fournies par les experts mtier ainsi que les
donnes internes travers lutilisation de lois dites "conjugues". La principale motivation qui
pousse utiliser une telle approche baysienne est de faire entrer lexpertise mtier dans lana-
lyse statistique du profil de risque en estimant une distribution jointe unique qui combine les
deux sources de donnes. Globalement, lutilisation des mthodes dinfrence baysienne pour
lestimation des distributions de frquence et de svrit des pertes oprationnelles sont promet-
teuses. La mthode prsente dans cette partie est base sur la spcification des distributions a
priori des loi de frquence et svrit partir des avis dexperts mtier. Puis laide dartifices
de calculs numriques assez simples, les paramtres des distributions a priori sont pondrs avec
les 5 ans dobservations relles de la banque pour estimer les paramtres des distributions a
posteriori. La mthode est simple mettre en place du fait de lutilisation des lois conjugues
qui donnent des formules exactes pour les nouveaux paramtres facilitant ainsi leur calcul.
Compte-tenu du caractre rare des pertes reprsentes par les scnarios, il est difficile de
fournir un paramtrage de distribution fiable et ainsi, les experts ont un manque de visibilit
du risque et ne peuvent donc pas fournir un nombre dinformations suffisant pour estimer
convenablement les paramtres des distributions a priori. En effet, les informations fournies
ici ne donnent que trois points partir desquelles on ajuste une distribution qui apporte les
meilleures valeurs espres des lois a priori. Il parat donc compliqu dobtenir des distributions
adquates car les experts ne peuvent pas apporter directement les valeurs des paramtres a
priori. Et il est difficile de prvoir avec certitude la survenance dune perte jamais apparue
avant. Compte tenu de ces difficults lies au manque de donnes, une mthode alternative
consiste utiliser lapproche par crdibilit qui permet de mieux modliser les paramtres de
frquence et svrit lis aux risques basse frquence et haute svrit.
Partie 4
La thorie de la crdibilit repose sur les principes de linfrence baysienne. Cette thorie
est trs utilise pour calculer des primes sur les contrats dassurance et a t adapte dans le
calcul des pertes oprationnelles. Intressons-nous une banque et son risque oprationnel.
Supposons quelle dispose dun portefeuille rassemblant ses pertes internes au sein de J cellules
de risque et ce sur un historique de 5 ans. Ces pertes sont associes des variables alatoires Xj,t
pour t = 1, ..., T et j = 1, ..., J o Xj,t reprsente le montant annuel de pertes associes une
cellule de risque j pour la teme anne. On fait lhypothse que ces montants sont indpendants
et identiquement distribus.
On suppose les variables Xj,1 , ..., Xj,T sont conditionnellement j indpendantes entre elles
et distribues identiquement. La proposition suivante nous donne la meilleure approximation de
E[Xj,T +1 | j ] par une fonctionne affine.
En rsolvant ce systme (voir C. Partrat et J-L. Besson [24]), on remarque que le terme ct
ne dpend pas de t, ce qui signifie que lanciennet de la perte nest pas prise en compte :
dans le modle de Bhlmann, une perte interne aura donc le mme poids quelle que soit sa date
doccurrence. Dans le modle de Bhlmann, on a donc une pondration constante entre la cellule
de risque j et lesprance a priori des pertes historiques :
E[Xj,T +1 | j ] = Xj + (1 )E[Xjt ]
Pour corriger cette hypothse peu raliste, le modle de Bhlmann-Straub permet dintgrer des
pondrations aux pertes.
Le modle de Bhlmann-Straub est une extension du modle de Bhlmann qui intgre des
pondrations sur les observations. En effet, il apparat judicieux de ne pas accorder la mme
importance aux informations les plus rcentes quaux informations les plus anciennes. Ce modle
repose sur les hypothses suivantes :
1. Pour j = 1, ..., J, les vecteurs (j , Xj,1 , ..., Xj,T ) sont indpendants
2. Les variables 1 , ..., J sont indpendantes et identiquement distribues
3. Conditionnellement j , les variables alatoires Xj,1 , ..., Xj,T sont indpendantes et iden-
tiquement distribues
4. Les variables alatoires Xj,1 , ..., Xj,T sont de carr intgrable, desprance conditionnelle
2 (j )
E[Xj,t | j ] = (j ) et de variance conditionnelle V(Xj,t | j ) = j,t o j,t traduit
limportance de la perte interne de la cellule j au cours de la teme anne
E[Xj,T +1 | j ] = j Xj + (1 j )E[Xj,t ]
En rsum, il faut retenir que dans le modle de Bhlmann-Straub, on fait une pondration
entre une cellule de risque j et lensemble des cellules :
On cherche modliser par une approche frquence/svrit les pertes du risque oprationnel
lies chaque cellule de risque j que lon note Xj,k , avec k [[1, Kj ]] o Kj est le nombre de
pertes quon a collectes dans chaque cellule de risque j. On note Nj,t le nombre de pertes
collectes lors de la teme anne dans chaque cellule j. On ne modlise que les pertes dpassant
un certain seuil L.
Une premire approche, dcrite dans H. Bhlmann et P.V. Shevchenko [7], modlise res-
pectivement les frquences et les svrits des pertes par des lois de Poisson et de Pareto, de
paramtre j = j j et j = aj j . Dans cette approche, (j , j ) sont les paramtres finaux des
lois que lon cherche. (aj , j ) sont des facteurs choisis par les experts qui sont censs reprsenter
les diffrences relatives de svrit et de frquence au sein des cellules de risque.
Dans les deux cas de la frquence et de la svrit, les estimateurs sont calculs comme
une moyenne pondre entre deux estimateurs : le premier est lestimateur du maximum de
vraisemblance calcul uniquement partir des donnes historiques, le second est un estimateur
permettant de prendre en compte lensemble des donnes savoir dans notre cas les donnes
historiques et les jugements dexperts. On pourrait souhaiter galement prendre en compte des
donnes externes lentreprise (voir cascade baysienne prsente dans la section 5.1.).
Inputs
Estimateurs Paramtres finaux
globaux
Jugements 0 1
0 ,0 Nj,t P j ! Outputs
dexperts !j
Th. de la
aj , j 0j , k 1
X
!credibilite
crdibilit !
Pa aj !j , Lj
Estimateurs !credibilite
Donnes !
!j = j !j + (1 j )0
MLE
historiques !
!j = j !j +(1j )0
Ej ,
Ej
Nj,t , Xj,k
Modle
On considre une collection de J cellules de risque. Soit Nj,t le nombre annuel dvnements
dont la perte annuelle excde un certain seuil L dans la j eme cellule de risque (j = 1, ..., J) dans
la teme anne.
Etant donn j , on suppose que les Nj,t sont indpendants et distribus par la loi de Poisson de
paramtre j = j j , cest--dire
(j )n
P[Nj,t = n | j ] = exp(j )
n!
o j sont dtermins laide du jugement des experts et expriment les diffrences de frquence
entre les cellules de risque.
Le modle
En supposant que les Nj,t , t = 1, ..., T dans la j eme cellule de risque sont indpendants condi-
tionnellement j , on peut alors dmontrer que lestimateur par maximum de vraisemblance
de j scrit :
1 " T
!j =
Nj,t o j = j T
j t=1
Avec :
j
E [
! j | j ] = j et V (
! j | j ) =
j
Traditionnellement, seules quelques pertes sont observes au sein de certaines catgories de risque
si bien que lon ne peut pas compter sur lestimateur du maximum de vraisemblance standard
! j = j
! j . Lide est alors dutiliser lensemble des pertes collectes de la banque ainsi que les
jugements des experts pour mieux estimer les paramtres de la loi de Poisson et construire un
estimateur qui prend en compte toutes ces informations.
On suppose que les j sont indpendants et identiquement distribus avec E[j ] = 0 et V(j ) =
02 . On observe que les frquences standardises Fj,t = Nj,t /j satisfont :
j
E [Fj,t | j ] = j et V (Fj,t | j ) =
j
On constate que Fj,t satisfait les hypothses du modle de Bhlmann-Straub ce qui permet
dcrire lestimateur au sens de la crdibilit suivant pour j :
j
! j = j
!
! j + (1 j )0 o j =
j + 02
0
o
J
" J J
J " j "
0 = j , R = ! j F )2 , =
( j ,
j=1
J 1 j=1 0 j=1
"J 2 31
J
" J j j
F = !j , c = 1 et j = .
j
J 1 0 0 j + !
0
j=1 j=1 !02
Le meilleur estimateur de crdibilit pour le paramtre de frquence de la j eme cellule est alors
!
! j = j
! j . On suppose que les constantes j sont connues a priori et fixes par les experts. Par
!
exemple, lexpert peut estimer le nombre nj de pertes attendues excdant le seuil L pour la
Dans un premier temps, on suppose que les pertes au-del du seuil L dans la j eme cellule de
risque (j = 1, ..., J) sont indpendantes et identiquement distribues suivant la loi de Pareto (on
suit immdiatement la dmarche de P.V. Shevchenko) de paramtres j = aj j et L :
2 3j 1 2 3j
j x x
f (x | j ) = et F (x | j ) = 1
L L L
pour x L et j > 0. Les aj expriment la diffrence de svrit entre les diffrentes cellules de
risque et sont fournis par les experts, ce qui sera expliqu par la suite dans la prsentation du
modle.
Le modle
Comme les pertes Xj,k , k = 1, ..., Kj dans la j eme cellule de risque de la banque sont suppo-
ses tre indpendantes et identiquement distribues conditionnellement j , lestimateur du
maximum de vraisemblance de j peut scrire :
1
Kj 2 3
aj " Xj,k
j =
E ln
Kj k=1 L
Ej = Kj 1 E
j
Kj
Avec :
: ; 0 1 2j
E !j | j = j et V !j |j =
Kj 2
Traditionnellement, seules quelques pertes sont observes au sein de certaines catgories de risque
si bien que lon ne peut pas compter sur lestimateur du maximum de vraisemblance standard
!j = aj !j . Lide est alors comme dans le cas de la frquence dutiliser lensemble des pertes
collectes de la banque ainsi que les jugements des experts pour mieux estimer les paramtres
de la loi de Pareto et construire un estimateur qui prend en compte toutes ces informations.
Lestimateur du paramtre de queue !j = aj !j peut tre amlior en utilisant toutes les donnes
collectes par la banque. On suppose que les j pour j = 1, ..., J sont des variables indpendantes
et identiquement distribues avec E[j ] = 0 et V(j ) = (0 )2 , o 0 correspond au profil de
risque de la banque entire. On constate que lestimateur non biais !j satisfait les hypothses
du modle de Bhlmann-Straub ce qui permet dcrire lestimateur de crdibilit suivant :
! Kj 2
!j = j !j + (1 j )0 o j = 0 12
Kj 1 + 0
0
De mme que pour la modlisation de la frquence, les paramtres 0 et 0 peuvent tre estims
en rsolvant le systme non linaire de deux quations suivant :
2 1 " J
(0 ) = j (!j !0 )
J 1 j=1
1 "J "J
Kj 2
!0 = j !j , W = j et j = 2 32
W j=1 !0
j=1 Kj 1 +
!
0
Le meilleur estimateur de crdibilit pour le paramtre de queue de la j eme cellule est alors
!! !
j = aj !j . On suppose que les constantes aj sont connues a priori et fixes par les experts. Par
exemple, lexpert spcifie la probabilit qj que la perte de la j eme cellule de risque excde un
certain niveau xj et utilise les relations pour estimer les aj :
ln qj
aj j = 0 1 et E[j ] = 0
ln
xj
Lj
On note que ces constantes sont dfinies un facteur prs. Seules les diffrences jouent donc un
rle, ce qui permet sans perdre de gnralit de poser pour lestimation des aj 0 = 1.
Dans le cadre de ce mmoire, on fait lhypothse que les trois cellules de risque choisies
qui correspondent respectivement aux entits AMUNDI, CACF et CACIB pour la catgorie de
risque EL6, constituent ici une banque fictive comme cela est expliqu dans le schma ci-dessous :
Banque considre
Les cellules ont t choisies de telle manire quelles se rapportent un risque similaire afin que
la mthode par crdibilit soit applicable.
On doit avoir en entre des paramtres j qui caractrisent les diffrences de frquence au
sein des cellules de risque. Avec les donnes dont on dispose, la meilleure manire de reprsenter
la diffrence entre deux cellules j et j % est de faire le rapport entre les deux paramtres j et
j " de la loi de Poisson. Ce rapport correspond un rapport desprance du nombre de pertes
attendues. Lide est donc de fixer une cellule de risque j0 tel que j0 = 1 puis pour toutes les
autres cellules calculer :
j
j =
j0
Cas j
!j
1 1 2.24
2 11 0.2
3 10 2.8
Une fois les j estims et les estimateurs du maximum de vraisemblance des j calculs, on peut
rsoudre le systme non linaire deux inconnues afin de dterminer des valeurs de 0 et 0 et
on trouve :
! 0 = 1.7 et
! 0 = 2.3
Cas j
1 94,1%
2 99.4%
3 99.4%
Cas !
credibilite
1 2.74
2 2.30
3 22.37
On verra dans la section suivante que les valeurs de ce paramtre peuvent tre utilises pour
modliser les pertes basse frquence et haute svrit.
Pour rappel, les experts du Crdit Agricole fournissent pour chaque scnario trois montants de
pertes potentielles, on choisit de dterminer les aj en utilisant la mthode des moindres carrs :
(i)
ln qj
i {1, 2, 3}, aj j = (i)
xj
ln L
2
3 (i)
" ln q j
x + (i)
xj
i=1 ln L
Soit :
3 ln q (i)
1"
x=
j
3 i=1 x(i)
ln Lj
3 ln q (i)
1"
aj =
j
3 i=1 x(i)
ln Lj
Certains scnarios ne sont dfinis que par un seul voire deux couples (x, d). On adapte facilement
la formule prcdente au cas o on est sur ce type de scnario. Lapplication numrique donne
les valeurs suivantes des aj et des estimateurs du maximum de vraisemblance des j :
Cas j !j
1 0.71 1.38
2 0.69 1.19
3 0.41 2.23
Une fois les aj estims et les estimateurs du maximum de vraisemblance des j calculs, on peut
rsoudre le systme non linaire deux inconnues afin de dterminer les valeurs de 0 et 0 . La
rsolution donne une solution ngative pour 02 . Comme cela est expliqu dans H. Bhlmann et
1 #J #J
A. Gisler [6], on dcide de poser j = 0 et !0 = W j=1 wj j , avec wj = Kj 2 et W =
!
j=1 wj .
On obtient alors la valeur de 0 suivante :
!0 = 2.08
!
On obtient donc les valeurs suivantes des meilleurs estimateurs !credibilite = a! au sens de la
crdibilit :
Cas !credibilite
1 1.47
2 1.43
3 0.85
On verra dans la section suivante que les valeurs de ce paramtre peuvent tre utilises pour
modliser les pertes basse frquence et haute svrit.
Le modle de crdibilit prsent ici propose de modliser les pertes basse frquence et
haute svrit au-dessus dun certain seuil L. Bien videmment, la modlisation des pertes
haute frquence et basse svrit correspondant aux pertes collectes en dessous de ce seuil
doit tre ajoute au modle avant destimer la charge en capital pour le risque oprationnel.
Gnralement les pertes basse frquence et haute svrit sont celles qui contribuent le plus
la charge en capital finale. On a choisi dadapter la mthode prsente dans H. Bhlmann et
P.V. Shevchenko [7] : on suppose ici que le modle LDA final pour la perte annuelle Zj dans la
cellule de risque j scrit :
NjBF NjHF
" "
Zj = ZjBF + ZjHF = BF
Xj,n + HF
Xj,k
n=1 k=1
Etape 1 : Pour chaque cellule de risque j, on simule les nombres de pertes annuelles NjBF et
NjHF partir des distributions PjBF (.) et PjHF (.).
Etape 2 : Avec les valeurs de NjBF et NjHF donnes par ltape 1, on simule les montants des
pertes Xj,n
BF , n = 1, ..., N BF et X HF , n = 1, ..., N HF partir des distributions F BF (.) et F HF (.).
j j,n j j j
Etape 4 : On rpte les tapes 1 3 un grand nombre de fois pour obtenir un chantillon de
pertes annuelles. Il est alors possible de calculer le quantile 99.9% de manire usuelle partir
dun chantillon simul.
Cas CaRnave
1 26 523 000 e
2 5 226 200 e
3 73 913 000 e
Au vu de ces rsultats, on constate que les valeurs sont suprieures aux deux valeurs de charges
en capital CaRDI et CaRS . On sintresse maintenant au calcul des charges en capital faisant
intervenir les meilleurs estimateurs au sens de la crdibilit calculs prcdemment.
Cas CaRCP a
1 5 015 500 e
2 5 394 100 e
3 2 548 500 000 e
Le constat que lon peut faire en regardant ces rsultats est que la charge en capital explose
pour le cas 3. Ceci est d au fait que lestimation du paramtre !credibilite , pour ce cas, renvoie
une valeur infrieure 1 qui rend la loi de Pareto non intgrable :
: ;
BF
E X3,n = +
Par consquent, la valeur du quantile 99.9% de la distribution de la perte annuelle est trs
largement surestime. La loi de Pareto est une loi dangereuse qui a tendance a survaluer les
queues de distribution, on se doit donc de lutiliser avec parcimonie et prcaution. Dans la partie
suivante, on cherche adapter la mthode par crdibilit avec une loi log-normale pour modliser
la svrit.
On suppose cette fois-ci que les pertes au-del du seuil L dans la j eme cellule de risque
(j = 1, ...J) sont indpendantes et identiquement distribues suivant la loi log-normale tronque
en dessous du seuil L et de paramtre j = aj j et j = bj j . La densit de cette loi scrit :
2 3
(ln xj )2
1 exp
x 2j 2j2
f (x | (j , j )) = 0
ln Lj
1
1 j
et 0 1
ln xj
F (x | (j , j )) = 0 j
ln Lj
1
1 j
tant donn que les pertes Xj,k , k = 1, ..., Kj dans la j eme cellule de risque de la banque sont
supposes tre indpendantes et identiquement distribues conditionnellement j = (j , j ),
la vraisemblance scrit :
2 3
(ln xk aj j )2
Kj 1 exp
- xk 2bj j 2b2j j2
L(x1 , ..., xKj | j , j ) = 0
ln Laj j
1
k=1 1 bj j
Et la log-vraisemblance scrit :
. / . . . ///
(ln xk aj j )2
Kj
" ln L aj j
l(x1 , ..., xKj | j , j ) = 2 2 + ln xk Kj ln 2bj j 1
k=1
2bj j bj j
0# 1 0 1
l
= 1 Kj
(ln x a )2 Kj Kj ln Laj g(L, , ) = 0
j b2 j3 k=1 k j j j j2 bj j j
Avec 0 1
ln Laj j
b
g(L, j , j ) = 0 j j
ln Laj j
1
1 bj j
On ne peut pas rsoudre ce systme de manire explicite, nanmoins on trouve que les solutions
obtenues numriquement sont identiques si lon prend la loi log-normale tronque et la loi log-
normale non tronque. Ceci est d au fait que la fonction g est ngligeable devant les autres
termes de lquation. Pour la suite des calculs nous faisons donc lhypothse que nous sommes
en prsence dune loi log-normale non tronque. Cela revient rsoudre le systme suivant :
ln x aj j = 0
0# 1
12
Kj
(ln xk a
j j )2 2 = 0
j
b j
k=1
On peut alors dduire de ces formules lesprance et la variance de ces estimateurs ce qui nous
donne :
: ; 0 1 b2j j2
E !j | j = j et V !j | j = 2
aj nj
: ; 0 1 2b2j j4
E !j2 | j2 = j2 et V !j2 | j2 =
nj
De la mme faon que pour le cas de loi de Pareto, seulement quelques pertes sont observes
au-del du seuil L choisi si bien que lon ne peut pas compter sur les estimateurs du maximum
de vraisemblance standards !j2 = b2 !j2 . Lide reste la mme que prcdemment et
!j = a!j et
consiste utiliser lensemble des pertes collectes de la banque ainsi que les jugements des experts
pour mieux estimer les paramtres de la loi log-normale pour les pertes basse frquence et haute
svrit et ainsi construire des estimateurs qui prendront en compte toutes ces informations.
Les deux estimateurs prcdents peuvent tre amliors en utilisant la mthode par crdibilit.
On suppose que les j et les j pour j = 1, ..., J sont des variables indpendantes et identiquement
distribues avec :
E[j ] = 0 , V(j ) = 02 , E[j2 ] = 0 , V(j2 ) = 20
o 0 et 0 correspondent aux profils de risque de la banque entire. On constate que les esti-
mateurs non biaiss !j et !j2 satisfont les hypothses du modle de Bhlmann-Straub avec les
paramtres structuraux suivants :
0 = E[j ] 02 = E[j2 ]
2 = E[ 2 (j )] = E[j2 ] = 02 2 = E[ 2 (j2 )] = E[(j2 )2 ] = 20 + (02 )2
2 = V(j ) = 02 2 = V(j2 ) = 20
Avec ces expressions des paramtres structuraux, cela permet dcrire les estimateurs de crdi-
bilit suivants : 2 nj aj
!! b2j
j = j !j + (1 j )0 o j = n a2 0 1
0 2
+
j j
b2j 0
et nj
2 (2b2j )
!!j = j !j2 + (1 j )02 o j = 0 1
02 2
+1+
nj
(2b2j ) 0
Les paramtres 02 et 20 peuvent tre estims en rsolvant dans un premier temps le systme
non linaire de deux quations suivant :
1 " J
!20 = j (!j2 !02 )2
J 1 j=1
nj
1 "J "J
2b2j
!02 = j !j2 , W = j et j = 2 32
W j=1 02
!
+1+
j=1 nj
2b2j !0
Une fois ce systme rsolu, les paramtres !02 et !20 sont estims ce qui donne accs au meilleur
estimateur de crdibilit pour le paramtre de la loi log-normale de la j eme cellule de risque
2
qui est alors
! !!2 . Dans un second temps, pour estimer le paramtre desprance, on rsout
! j = b2j j
le second systme linaire suivant :
1 " J
! 02 =
j (!j !0 )2
J 1 j=1
nj a2j
1 "
J J
" b2j
!0 = j !j , X = j et j = nj a2j
0 12
X j=1 j=1 + !
0
b2j ! 0
Pour rsoudre ce systme non linaire deux inconnues, il est ncessaire davoir rsolu au
pralable le premier systme pour estimer la valeur !02 que lon voit apparatre dans lexpression
du poids de crdibilit j . La rsolution de ce second systme permet dobtenir lestimation des
! 02 . Le meilleur estimateur de crdibilit pour le paramtre desprance de la
paramtres !0 et
!
loi log-normale de la j eme cellule de risque est alors
!j = aj !j . On suppose que les constantes
!
aj et bj sont connues a priori et fixes par les experts. Dans la section suivante, on prsente le
choix de modlisation qui a t fait.
De la mme manire que pour la premire approche avec la loi de Pareto, on fait lhypothse
que les trois cellules de risque choisies correspondent une seule et mme banque. On commence
par dterminer les constantes laide des informations des experts.
On voit apparatre dans les expressions des paramtres de la loi log-normale des coefficients
aj et bj qui sont connus a priori et fixs par les experts comme pour la mthode avec la loi de
Pareto. Comme les logarithmes des svrits suivent une loi normale, les aj et bj reprsentent
ici respectivement les diffrences desprance et de variance des lois normales associes aux lois
log-normales des cellules de risque. Avec les donnes dont on dispose, la meilleure manire de
reprsenter la diffrence entre deux cellules de risque j et j % est de faire le rapport entre les
paramtres de la loi log-normale fournis par les experts en choisissant une des cellules de risque
j0 comme la cellule de risque de rfrence puis pour toutes les autres on aurait :
j j
aj = et bj =
j0 j0
On obtient les valeurs suivantes des aj , bj ainsi que des estimateurs du maximum de vraisem-
blance des j et j2 en prenant le cas 1 dAMUNDI comme cellule de rfrence :
Cas aj !j bj !j2
1 1 9.1014 1 2.06
2 0.82 11.3010 1.88 0.47
3 0.98 9.3231 2.09 1.15
02 = 1.34 et 0 = 0.66
Ces deux valeurs permettent davoir accs aux poids de crdibilit et de trouver les valeurs des
!!j . Par consquent, on peut calculer les meilleurs estimateurs !!2 au sens de la
!credibilite = b
crdibilit :
Cas j
!credibilite
1 85.2% 0.68
2 50.9% 0.96
3 92.9% 0.99
0 = 9.87 et 0 = 2.35
Ces deux valeurs permettent davoir accs aux poids de crdibilit et de trouver les valeurs des
!! !
j . Par consquent, on peut calculer les meilleurs estimateurs
!credibilite = a! au sens de la
crdibilit :
Cas j
!credibilite
1 98.9% 10.89
2 91.3% 10.87
3 99.5% 10.99
On utilise dans la section suivante les valeurs de ces paramtres de crdibilit pour calculer les
charges en capital pour les diffrentes cellules de risque.
De faon identique la premire approche avec la loi de Pareto pour modliser la svrit des
pertes lies au risque oprationnel, on suppose que le modle LDA final pour la perte annuelle
Zj dans la cellule de risque j scrit avec les mmes hypothses de la faon suivante :
NjBF NjHF
" "
Zj = ZjBF + ZjHF = BF
Xj,n + HF
Xj,k
n=1 k=1
Dans cette nouvelle mthode, les distributions PjBF (.), PjHF (.) et FjHF (.) restent inchanges.
Seule la distribution FjBF (.) nest plus une distribution de Pareto mais une loi log-normale
tronque de paramtre !credibilite et
!credibilite . On calcule les nouvelles charges en capital que
lon note CaRCLN et on obtient alors les rsultats suivants :
Cas CaRCLN
1 2 401 600 e
2 3 002 000 e
3 27 540 000 e
Les rsultats prsents dans ce tableau sont, dans chacun des cas, compris entre les valeurs
CaRDI et CaRS calcules initialement. Ces montants correspondent une majoration de la
charge en capital CaRDI dun pourcentage allant de 20 50% selon les cas. Le constat est que
plus le nombre de pertes observes au-dessus du seuil L est faible, plus la majoration de la
CaRDI sera grande. Ceci rpond lintuition de dpart que lon va accorder le plus de confiance
au rsultat lorsque lchantillon de pertes est large.
On vient de dterminer les montants de charge en capital requis en sappuyant sur certaines
hypothses de choix dun seuil L en entre du modle. Afin de complter cette mthode par
crdibilit, il semble intressant de dterminer les sensibilits des diffrents paramtres, calculs
au sein du modle, aux variations de ce seuil L. On ralise ces sensibilits pour le cas 2. On fera
varier la valeur du seuil dans lintervalle [15 000, 25000] avec un pas de 100.
On rappelle ici que les pertes basse frquence et haute svrit sont modlises par une
loi log-normale tronque de paramtres !credibilite et
!credibilite pour la svrit et une loi de
Poisson de paramtre credibilite pour la frquence. Ces diffrents paramtres de loi sont obtenus
!
par pondration entre un paramtre global pour la banque, reprsente ici par les trois cellules
choisies, et un paramtre estim par maximum de vraisemblance partir des donnes collectes
au-dessus du seuil L. On cherche donc dterminer la sensibilit des poids de crdibilit des
diffrents paramtres aux variations du seuil L :
Ces rsultats suggrent que les poids de crdibilit et associs aux paramtres desprance
des lois de frquence et de svrit des pertes ne sont pas sensibles aux variations du seuil
effectues. A contrario, le poids li la variance de la loi de svrit des pertes est lui
assez sensible. En effet, on constate la prsence de sauts faisant diminuer fortement le poids
lorsque le seuil augmente. Augmenter le seuil revient enlever au fur et mesure le nombre de
pertes collectes ce qui fait mcaniquement diminuer la confiance que lon a en lestimateur du
maximum de vraisemblance. Pour le poids li la variance de la loi de svrit des pertes, on
constate que les estimateurs du maximum de vraisemblance restent proches de la valeur globale
de la banque lorsque lon fait varier le seuil, les poids ne varient donc quasiment pas. Enfin pour
le cas du poids li la frquence, chaque cellule dispose du mme nombre dobservations, ici
gal 5, quelle que soit la valeur du seuil L, on nobserve donc pas de sensibilit de ce poids
aux variations de L.
Sensibilits de la CaRCLN
Cette mthode permet de calculer un unique montant de charge en capital en partant de deux
distributions : lune reprsentant les pertes haute frquence et basse svrit et lautre les pertes
basse frquence et haute svrit. Le principe de cette mthode est de considrer que la perte
annuelle est dcompose sous la forme de deux sommes alatoires indpendantes. La premire
somme correspond aux pertes haute frquence et basse svrit avec lhypothse quelles sont
distribues selon la distribution des donnes internes. La seconde somme reprsente les pertes
basse frquence et haute svrit pour lesquelles on applique lapproche par crdibilit dans un
souci de manque dobservation. Le fait de regrouper les donnes de plusieurs cellules de risque
similaires permet davoir une plus grande confiance dans lestimation des paramtres de loi des
pertes extrmes. Malgr une thorie assez difficile au premier abord, cette mthode a lavantage
de conduire un montant de charge en capital transparent.
Bien que trs intressante, cette mthode possde quelques inconvnients. Tout dabord, le
choix des cellules de risque est une premire tape trs importante ne pas ngliger : il est
primordial que les cellules choisies se rapportent un profil de risque similaire. En effet, si des
disparits sont prsentes dans les donnes observes de chacune des cellules, certains paramtres
risquent dtre survalus et il en rsultera des montants de charges en capital inexploitables.
Enfin, le choix dun seuil pour dfinir les pertes extrmes est un paramtre dentre dans cette
modlisation et ne peut tre choisi arbitrairement. On prsente dans la partie suivante des
techniques pour dterminer un seuil de faon objective.
Partie 5
Approfondissement de la thorie
baysienne
Dans cette section sont prsentes deux nouvelles mthodes qui se basent sur la thorie
baysienne dtaille dans la partie 3. La premire approche appele cascade baysienne est
une ide nouvelle qui permettrait de saffranchir du problme dhtrognit des donnes. La
deuxime met en exergue une technique dimplmentation base sur les chanes de Markov et
permet dutiliser des lois non informatives.
Rcemment, une mthodologie innovante a t propose pour combiner les donnes inter-
nes/externes et les scnarios des experts dans lapproche baysienne du modle LDA. Lintgra-
tion de ces trois types de sources est effectue en deux tapes pour assurer que le modle se
conforme bien aux donnes internes et ainsi obtenir une meilleure caractrisation de la svrit
des pertes oprationnelles. Dans un premier temps, les scnarios des experts sont utiliss pour
dduire la distribution de la loi a priori et de la mme manire que prcdemment on obtient une
loi a posteriori initiale partir des donnes externes. Dans un second temps, la loi a posteriori
initiale est utilise en tant que loi a priori et on obtient une seconde loi a posteriori partir des
donnes internes de lentreprise.
Dans B.K. Hassani et A. Renaudin [18], on utilise trois types de donnes : les donnes
internes, les donnes externes et les jugements des experts. Gnralement, les donnes internes
reprsentent la grosse partie de la distribution, les jugements des experts sont interprts comme
la queue de la distribution et les donnes externes sont considres comme intermdiaires entre
les deux types de donnes prcdents. On le voit trs bien sur la figure suivante :
Etant donnes les difficults identifies pour combiner les deux sources de donnes (scnarios
et donnes historiques) car elles reprsentaient de part et dautre la tte et la queue de la
distribution de pertes, lide est dutiliser la cascade baysienne laide des pertes externes
qui vont permettre de marquer une transition entre les donnes historiques et les scnarios. La
structure de la mthode est de combiner dans un premier temps les scnarios avec ces pertes
externes, puis de combiner dans un second temps la distribution obtenue avec les pertes internes
qui seront censes tre deux distributions plus homognes.
Comme nous ne disposons pas de jeu de donnes externes, il va falloir les construire : dans la
continuit de lapproche par crdibilit, on a lide de prendre comme donnes externes les plus
grandes pertes historiques de chacune des trois cellules de risque choisies. Pour chaque cas, il est
donc ncessaire de dterminer des seuils Lj , j {1, 2, 3}, au-dessus desquels les donnes internes
pourront tre considres comme faisant partie des donnes externes. Le principal problme
consiste donc dterminer les valeurs de ces seuils Lj .
Contrairement lapproche par crdibilit o lon avait choisi un seuil de faon arbitraire, on
sintresse ici dterminer des seuils de faon objective en utilisant des lments de la thorie des
valeurs extrmes. La thorie des valeurs extrmes, selon lapproche retenue, propose diffrentes
mthodes pour estimer un seuil partir duquel une observation sera considre comme valeur
extrme. Une bonne dtermination des seuils Lj est primordiale. En effet, un seuil trop faible
conduit une mauvaise adquation entre la fonction de survie et la loi GPD et les estimateurs
sont biaiss. Inversement, un seuil trop lev entrane une faible taille dchantillon de dpasse-
ments et donc des estimateurs volatiles. Nous allons voir dans la suite diverses mthodes tudies
par le Crdit Agricole et efficaces dans lestimation de ce seuil. Auparavant exposons quelques
rappels sur la thorie des valeurs extrmes 1 . Dans la suite on notera L les seuils recherchs dans
chacun des cas pour simplifier les critures.
1. Des articles traitent de lapplication de la thorie des valeurs extrmes au risque oprationnel (voir V.
Chavez-Demoulin et P.Embrechts [9] et M. Degen et al. [13]).
La modlisation par la TVE repose sur deux thormes fondamentaux. Par la suite, notons
X1 , ..., Xn n variables alatoires i.i.d. de montants de pertes de fonction de rpartition F inconnue
et x1 , ..., xn la ralisation de ces n variables alatoires que lon cherche modliser.
Thorme de Fisher-Tippet
Thorme 1 Supposons quil existe des constantes normalisatrices an R et bn > 0 et une loi
non dgnre H telles que
n (X(n) an ) H
L
b1
Alors H est dune mme type quune des trois lois suivantes (donnes par leur fonction de
rpartition) avec 0 :
0 x0
1. loi de Frchet, H1, (x) =
exp(x ) x > 0
exp((x) ) x 0
2. loi de Weibull, H2, (x) =
1 x>0
3. loi de Gumbel, H3,0 (x) = exp(ex )
On dit alors que F appartient au domaine dattraction de la loi H (not DA(H)).
Le thorme qui dfinit la loi des excs au-dessus dun seuil est le thorme de Balkema-de
Haan-Pickands.
La GPD est donc la distribution limite de la distribution des excs lorsque le seuil tend
vers L . Les thormes de Fisher-Tippet et de Balkema-de Haan-Pickands sont troitement lis
puisque lindice de valeur extrme de la loi GPD est le mme que celui de la loi GEV.
Afin de dterminer ce seuil, nous pouvons faire appel la fonction moyenne des excs (plus
connue sous le nom de Mean excess function dans la littrature) :
e(L) = E(X L | X L)
Lestimateur empirique de cette mean excess function est la moyenne des excs au-dessus du
seuil : #n
(Xi L)+ 1 " n
en (L) = #i=1
n = (Xi L)+
1
i=1 {Xi u} N u i=1
Or, la mean excess function de la loi de Pareto gnralise est exactement (dmonstration
faite en annexe B) : 2 3
eGP D (L) = +L
1 1
Un autre outil graphique utilis pour appuyer le choix du seuil est le Hill-plot. Il consiste
tracer graphiquement lestimateur de Hill !(H) de lindice de valeur extrme en fonction du
nombre de valeurs au-dessus du seuil (!k , k). Lestimateur de Hill de est dfini par :
(H) 1 k1
"
!
k = ln X(ni) ln Xnk
k i=0
Lide est donc de calculer lestimateur de Hill de et de chercher partir de quel seuil
cet indice est approximativement constant. En effet, si une loi de Pareto gnralise est une
modlisation raisonnable pour des excs au-dessus dun certain seuil L, alors les excs au-dessus
dun seuil plus lev L% suivent aussi une loi GPD de mme paramtre . Si en augmentant le
seuil, lestimation de reste constante, cest quon peut raisonnablement modliser les excs par
une loi GPD.
On a appliqu la premire mthode aux trois cellules de risque : CACIB EL6, CACF EL6 et
AMUNDI EL6. Voici les rsultats lorsquon trace la mean excess function en fonction du seuil
L:
Figure 5.2 ME-plot respectivement pour CACIB EL6, CACF EL6, AMUNDI EL6
et napparat pas rigoureuse dun point de vue purement statistique. Cela est d au manque
de donnes extrmes dans les pertes historiques, ce qui rend ainsi lestimation de la droite trs
hasardeuse.
Le Hill-plot
Figure 5.3 Hill-plot respectivement pour CACIB EL6, CACF EL6, AMUNDI EL6
On voit que lestimateur de Hill pour lentit CACIB se stabilise entre la 200me et la 300me
valeur de k, le seuil L correspondrait donc la 200me valeur la plus grande du tableau de pertes
internes. Dans le cas CACIB, on prendrait L = 12000.
Ces mthodes nous donnent demble une bonne estimation de lendroit o se situe le seuil
et on retient ce seuil lorsquon programme la cascade baysienne. On dtermine par la suite une
sensibilit au paramtre L.
Les mthodes de dtermination des seuils Lj nous permettent de sparer les donnes histo-
riques en deux types : le corps de la distribution qui sera prsent considr comme les seules
donnes internes de taille nDI pour chaque cas ; les queues de distribution des 3 cas qui repr-
senteront les donnes externes de taille nDE . Faisons un bilan des donnes avec lesquelles nous
allons travailler pour chaque entit : AMUNDI (1), CACF (2), CACIB (3) pour la catgorie de
risque EL6.
Table 5.1 Rcapitulatif des donnes internes et externes utilises pour la cascade baysienne
Une fois les 3 sources de donnes disposition, on peut implmenter la cascade baysienne.
La stratgie est base sur la construction succcessive de deux distributions a posteriori. On
rappelle que dans un premier temps les scnarios sont utiliss pour obtenir une distribution a
priori des paramtres de svrit. Puis les pertes externes sont utilises dans la formule de Bayes
ce qui mne lobtention dune premire distribution a posteriori. Dans une seconde tape, cette
distribution sert de loi a priori et donne accs la distribution finale a posteriori en utilisant
nouveau la formule de Bayes avec les donnes internes. On peut rsumer cette mthode de la
faon suivante en reprenant certaines notations de lapproche baysienne des lois conjugues :
Cascade baysienne
Concernant les trois cellules de risque choisies, on a vu dans la mthode baysienne des lois
conjugues que les valeurs S , S , Vco( ) et Vco(2 ) permettent de dterminer les para-
mtres structuraux des lois a priori. On choisit une valeur de 50% pour les quantits Vco( )
et Vco(2 ). Les rsultats a priori sont donc les mmes que ceux que nous avions obtenus la
section 3.4.2. A laide des formules de passage dcrites section 3.4.2, on calcule les paramtres
structuraux de la premire loi a posteriori laide des donnes externes :
Cas 1 1 1 1
1 10.17 261 273 369.3
2 10.16 261 273 373.5
3 10.17 261 273 372.3
Les paramtres des premires lois a posteriori tant calculs, on applique avec les donnes internes
spcifiques chacune des cellules les formules de passage pour calculer les paramtres structuraux
finaux.
Cas 2 2 2 2
1 8.95 370 382 662.1
2 7.12 519 531 1733.1
3 8.34 1377 1389 3914.7
Enfin en utilisant la mthode de lerreur quadratique minimale, on a accs aux nouvelles valeurs
des paramtres de la loi de svrit des pertes oprationnelles LN (, ). Les rsultats sont
affichs dans le tableau ci-dessous :
Cas =
!cascade =
!cascade
1 8.95 1.32
2 7.12 1.81
3 8.34 1.68
Avec ces nouvelles valeurs des paramtres, on sintresse dans ce qui suit calculer les charges
en capital dans le cas des trois cellules de risque choisies. On utilise lapproche frquence/svrit
dcrite prcdemment en modlisant la frquence par une loi de Poisson P() o lon choisit la
valeur de gale celle obtenue grce aux donnes internes DI (on rappelle que cette valeur est
vrifie et peut tre corrige lorsque les experts considrent que lestimation qui est faite nest
pas reprsentative) et la svrit par une loi log-normale LN (, ) avec les valeurs calcules au
moyen de la cascade baysienne. On obtient les rsultats suivants :
Cas CaRcascade
1 2 943 800 e
2 3 140 900 e
3 26 321 000 e
Les rsultats prsents dans ce tableau sont compris entre les valeurs CaRDI et CaRS cal-
cules aux sections 2.5.2. et 2.5.3. Le constat est que ces montants sont trs proches des valeurs
CaRDI . Ceci peut sexpliquer car les informations des experts sont noyes ds la premire tape ;
en effet, quelle que soit la cellule j choisie, les paramtres de la premire loi a posteriori sont
quasiment identiques. Les diffrences sont apportes lors de la deuxime tape avec les donnes
internes. Lintrt peut donc tre considr comme limit car les informations des experts ne
sont pas compltement exploites.
On vient de dterminer les montants de charge en capital en sappuyant sur certaines hypo-
thses concernant les lois a priori ainsi que la dtermination de seuil Lj , j {1, 2, 3} permettant
de crer un jeu de donnes externes. Afin de complter ces premiers calculs, il semble intressant
de raliser des sensibilits la fois ces seuils Lj mais aussi aux coefficients de variation de la
mme faon que dans la section 3.5.2.
On rappelle ici que les lois a priori des paramtres de svrit et sont respectivement
une loi normale N (0 , 0 ) et une loi inverse-gamma IG(0 /2, 0 /2). Les paramtres struc-
turaux de ces lois sont dtermins partir des valeurs S et S ains que des coefficients de
variation Vco( ) et Vco(2 ) que lon a choisi de fixer 50%. On cherche donc dterminer
la sensibilit de CaRcascade aux variations respectives des Vco. On fait varier ces coefficients sur
lintervalle [0.25, 0.75] par pas de 0.01 pour le cas 1 :
Figure 5.5 Influence des coefficients Vco( ) et Vco(2 ) sur la CaRcascade pour le cas 1
Comme pour la mthode baysienne des lois conjugues prsente section 3.5.2, la charge en
capital nest pas sensible aux variations du paramtre Vco( ). De plus, le rsultat est toujours
sensible aux valeurs du paramtre Vco(2 ), cependant la variation de valeur de la CaR a diminu
avec un cart relatif de 13% comparer avec le 20% de la premire mthode.
Au vu de ces rsultats, on constate que les charges en capital ne sont pas sensibles de
petites variations des seuils obtenus grce lestimateur de Hill. La mthode implmente est
donc plutt robuste.
Cette mthode de cascade baysienne a lavantage de rgler une partie des problmes dht-
rognit entre les informations des experts mtier et les donnes internes en terme de svrit
que nous avions nots avec la premire mthode baysienne des lois conjugues. Cette approche
ne mlange plus deux sources compltement distinctes, mais procde en deux tapes en combi-
nant, laide de donnes externes, des donnes moins htrognes. Lorsque les trois sources de
donnes sont disposition, la cascade baysienne est trs simple mettre en place puisquelle
repose sur des calculs numriques simples, notamment grce lutilisation de lois conjugues
permettant dobtenir des formules explicites pour lactualisation des paramtres structuraux lors
des diffrentes tapes.
Malgr ces avantages, la mise en place de cette approche ncessite toujours un cot dentre
non ngligeable car les experts mtier sont toujours censs fournir des intervalles et les pro-
babilits que les paramtres de la loi de svrit soient dans ces intervalles. Cette information
peut tre galement matrialise par le coefficient de variation que nous avons choisi dutiliser.
Compte tenu de ces difficults, il semble intressant dtudier une autre mthode baysienne
faisant recours des lois a priori non informatives permettant dchapper aux difficults que
lon vient de rencontrer. On prsente cette nouvelle approche dans la section suivante.
Lorsque les lois ne sont pas conjugues ou les lois a priori sont non informatives, le calcul
des paramtres a posteriori ncessite dautres mthodes. Nous considrons dans cette section
une mthode de Monte Carlo plus gnrale, permettant dapprocher la gnration de variables
alatoires dune loi a posteriori ( | x) lorsque cette loi ne peut pas tre simule directement.
Lavantage de cette mthode sur les mthodes de Monte Carlo classiques dcrites dans la section
2.2.3 est quelle ne ncessite pas la construction prcise dune loi a priori puisquelle prend en
compte les caractristiques de ( | x).
Cette extension appele Monte Carlo par chanes de Markov (MCMC) tire son nom de lide
que, pour produire des approximations acceptables dintgrales et dautres fonctions dpendant
dune loi dintrt, il suffit de gnrer une chane de Markov (m )m de loi limite la loi dintrt
(voir C.P. Robert [28] et J.O. Berger [5]).
Une chane de Markov est une squence de variables alatoires X1 , X2 , ..., Xn dpendantes
telle que la distribution de Xi conditionnellement aux observations passes ne dpend que de
Xi1 :
Une chane de Markov est donc caractrise par deux composantes : sa distribution initiale
f (x1 ) ainsi que les distributions conditionnelles de Xi | Xi1 quon appelle frquemment kernels
de transition nots K(xi1 , xi ). On choisit de construire des chanes de Markov car elles possdent
deux proprits trs utiles pour notre problme qui sont linvariance et stationnarit : si Xi est
distribue suivant une loi f alors Xi+1 est distribue suivant cette mme loi f . Les autres
proprits des chanes de Markov comme leur irrductibilit sont galement importantes mais
nous ne les mentionnerons pas pour simplifier la comprhension du problme.
1 "m
(i | x) E[( | x)]
m i=1 m+
Lalgorithme de Metropolis-Hastings
Pour une densit donne (connue un facteur de normalisation prs), et une densit
conditionnelle K(i , i+1 ), lalgorithme gnre la chane (m )m comme suit :
Le kernel de transition contient une loi de densit q partir de laquelle est dtermine la
valeur suivante dans la chane et une probabilit dacceptation qui dtermine si la valeur
propose est accepte ou non. Cette loi est quelconque : on la choisit donc pour quelle soit
simulable rapidement (loi normale ou uniforme par exemple). Le choix le plus courant daprs
Hastings pour q est de choisir une marche alatoire. Lide est de perturber alatoirement la
valeur courante de la chane tout en restant aux alentours de ce point et de voir si la nouvelle
valeur (dans lalgorithme, il sagit de ) est vraisemblable pour la loi dintrt.
La loi de densit est appele loi cible et la loi de densit q loi candidate ou loi de proposition.
Lchantillonnage de Gibbs
!scenario
!scenario Loi cible Chane de
!scenario ( | x, y) Markov
ou Inputs Algorithme
Outputs
Histogramme x et y de Hastings 0 1
x Loi de pro-
position q ... m
Data y
Modle
On cherche une loi cible pour = (, , ). Si on appelle x les donnes des experts et y les
donnes historiques, elle vaut :
( | x, y) ( | x)LDI (y, )
()LS (x, )LDI (, y)
La loi cible est donc caractrise par le produit des vraisemblances de chaque source de don-
nes par une loi a priori du paramtre . On choisit comme loi a priori une loi non informative :
la loi a priori de Jeffreys. On est amen calculer linformation de Fisher qui se dfinit de la
manire suivante :
@2 32 A
ln f (X | )
I() = E
avec f la vraisemblance associe aux observations. Sous certaines conditions de rgularit (voir
J.O. Berger [5]), on peut crire directement :
@ A
2 ln f (X | )
I() = E
2
Pour la svrit LN (, 2 ), nous devons prendre en compte que les observations disposent
dun seuil de collecte L, on dispose donc de 3 paramtres : (, , L) = .
2 3
1 1
f (X = x | ) = exp 2 (ln(x L) )2 1]L;+[
(x L) 2 2
Aprs avoir calcul les drives par rapport aux paramtres, on dtermine les moyennes
thoriques en X de ces quantits en effectuant des changements de variable dans les intgrales
qui nous ramnent un calcul de moments de lois normales. On en dduit :
2
1 2 2 1 2
(1 + )e2( ) (1 + )e 2 2(1 + )e2( )
2 2 2
2
I() = (1 + 22 )e 2 1
0
2
2
2(1 + 12 )e2( ) 0 1
2 4
Linformation de Fisher ne dpend pas du seuil de collecte. Par souci de clart, on naffiche
pas la loi a priori obtenue.
Pour la frquence P(), le calcul est plus simple car il ny a quun seul paramtre et donc
une seule drive dterminer. On a :
k
P(X = k) = e ,k N
k!
ln P(X = k) = + k ln ln(k!)
ln P(X = k) k
() = 1 +
2 ln P(X = k) k
() = 2
2
1
I() = car E[X] =
Ainsi, on en dduit :
<
() I()
1
En ce qui concerne les vraisemblances des deux sources de donnes, elles sont faciles calculer
car on connat les lois. Pour les donnes internes, il sagit dune loi de Poisson compose de loi
LN (, 2 ) pour la svrit et de loi P() pour la frquence. Pour les jugements dexperts, on
distingue plusieurs cas dans notre approche :
soit on se repose sur les paramtres (S , S , S ) estims par les experts et on dtermine
la vraisemblance comme pour les donnes historiques ;
soit on considre les couples (x, d) et on reprsente tout ceci laide dun histogramme, la
loi serait alors une combinaison duniformes.
Rsultats obtenus
On voit que la chane oscille fortement entre S et DI : si lon prend lesprance E[(m) ],
on obtient la valeur finale du paramtre
! posteriori = 36.97. Voici un tableau rcapitulatif pour
chacune des entits AMUNDI (1), CACF (2), CACIB (3) :
Cas
! posteriori
1 24.29
2 36.97
3 381.85
La chane est trs instable car les donnes que lon essaie de combiner sont trs htrognes.
Rsultats pour la svrit. De la mme manire que pour la frquence, on dispose des paramtres
S , DI , S et DI . On peut alors simuler un chantillon de N = 100 donnes de lois log-
normales LN (S , S ) et LN (DI , DI ). Lalgorithme est initialis partir dune valeur du couple
(0 , 0 ) = (DI , DI ) et on considre comme lois de transition les lois uniformes U[DI , S ] et
U[DI , S ]. Pour lentit CACFEL6, on obtient par exemple les chanes de Markov suivantes :
Figure 5.8 Allure des chanes de Markov (m) (en bleu) et (m) (en rouge) pour le cas 2
La chane est beaucoup plus stable car les donnes sont plus homognes que pour la frquence.
On rsume les paramtres finaux (en prenant comme pour la frquence lesprance des valeurs
prises par (m) et (m) ) dans le tableau suivant :
Cas
!posteriori
!posteriori
1 10.90 0.89
2 8.59 1.46
3 10.21 1.45
Une fois ces valeurs trouves, on peut dterminer aisment la charge en capital :
Cas CaR
1 4 447 000 e
2 2 620 200 e
3 52 079 000 e
On constate que pour chaque entit, les charges en capital sont comprises entre la charge en
capital CaRDI et la charge CaRS . Cela est d la construction de la mthode : pour chaque vec-
teur de paramtres (, , ), on fait voluer la chane de Markov de telle sorte que les paramtres
restent entre les valeurs historiques et les valeurs associes aux experts (par lintermdiaire de
la loi candidate). On peut toutefois dtecter certaines tendances : on observe que la charge en
capital est plus proche des charges historiques pour les entits AMUNDI et CACF, alors quelle
est plus proche de la charge en capital expert. Cela sexplique par le fait que pour les deux pre-
mires entits, les volutions des paramtres se compensent entre elles, tandis que pour lentit
CACIB, la diffrence de frquence entre les deux sources de donnes est si forte (DI = 816
contre S = 0.2) qu la fin de lalgorithme, lvolution du est exagre compare aux vo-
lutions des autres paramtres, et donc la charge en capital se rapproche plus dune charge en
capital extrme reprsente par CaRS .
Comme on la dit prcdemment, on a le choix entre plusieurs lois candidates. On peut donc
tudier dans un premier temps les modifications apportes la charge en capital lorsque la loi
candidate nest plus une loi uniforme mais une marche alatoire ; on utilise dans ce cas une loi
symtrique centre autour du paramtre en question, par exemple une loi normale. Les rsultats
tant similaires, on dcide de ne pas les prsenter.
On pourrait galement influer sur la loi cible mais il faudrait alors avoir disposition plus
de prcision dans les donnes ce qui aboutirait une meilleure estimation des paramtres de
chaque source.
En rsum, la Markov Chain Monte Carlo est une mthode pertinente car elle permet de
saffranchir de lutilisation des lois conjugues. De plus, au lieu dutiliser une loi a priori, on
intgre linformation des experts dune autre manire : de ce fait, le manque dinformation
fournie par les experts ne devient pas une contrainte comme on a pu le voir pour les lois a priori
conjugues qui manquaient de prcision.
Toutefois, lutilisation de la MCMC rend le calcul des paramtres moins intuitif et rend ainsi
la mthode plus opaque. Compar aux mthodes faisant intervenir des lois conjugues, on ne peut
pas introduire de sensibilits sur les paramtres dune loi a priori mais seulement influer sur les
lois cibles et candidates de manire arbitraire. Enfin, si les experts mtier nous fournissaient des
scnarios davantage munis de couples (x, d), on pourrait imaginer construire une vraisemblance
associe aux scnarios plus adquate que celle quon a implmente (vraisemblance calcule
partir du couple (S , S , S )) et ainsi amliorer la dfinition de la loi cible.
Partie 6
Dans ce dernier chapitre, nous commenons par faire une comparaison des mthodes impl-
mentes, savoir :
Une fois cette comparaison faite, nous allons comparer lensemble des rsultats une autre
mthode non baysienne qui fait intervenir des lois de mlange et qui semble la plus naturelle
pour combiner des sources diffrentes de donnes. Dautres pistes de rflexion seront proposes
enfin pour amliorer nos mthodes.
Dans cette section, on compare les mthodes prsentes dans ce mmoire la fois de manire
qualitative en sintressant aux informations ncessaires pour leur mise en uvre mais aussi de
manire quantitative en sintressant aux diffrents rsultats obtenus.
Aujourdhui, le Crdit Agricole utilise 5 annes dhistorique de pertes internes lies au risque
oprationnel pour calculer la charge en capital au titre des donnes internes. Etant donn que
les pertes collectes dans la queue de distribution sont peu nombreuses ou quil manque certains
types dvnements, les charges relles en capital ne suffisent pas ncessairement couvrir len-
semble du risque ; cest pourquoi dans un souci dexhaustivit les experts mtier fournissent des
informations supplmentaires sous forme de couples (montant, temps de retour) donnant lieu
lestimation de nouveaux paramtres de loi. Les mthodes prsentes prcdemment utilisent
toutes, chacune leur manire, ces diffrentes informations en entre des modles.
Les diffrences notables entre les mthodes concernent les informations supplmentaires quil
est ncessaire de dtenir pour leur mise en uvre. Chacune des mthodes ncessite des para-
mtres dentre qui lui sont spcifiques. Dans la mthode baysienne des lois conjugues, les
experts doivent fournir, pour chacun des paramtres de loi, un intervalle et la probabilit que
ce paramtre soit dans cet intervalle. Cette donne peut sexprimer sous la forme du coefficient
de variation Vco que lon a dcid dutiliser. Lapproche par crdibilit ncessite de choisir des
cellules de risque similaires ainsi quun seuil pour modliser les pertes basse frquence et haute
svrit. La cascade baysienne telle que nous lavons implmente ncessite les informations des
deux mthodes prcdentes. Enfin la mthode Markov Chain Monte Carlo utilise une loi non
informative permettant de saffranchir de lutilisation des lois conjugues et donc de lestimation
des paramtres a priori. Cette dernire mthode ne demande pas dinformations supplmentaires.
Au cours de chacune des approches prsentes dans ce mmoire, nous avons pu calculer
une distribution finale de pertes agrges au titre du risque oprationnel. Ces distributions
nous ont mens au calcul des charges en capital imposes par le cadre rglementaire Ble II et
correspondant la Value-at-Risk 99.9%.
Table 6.1 Rcapitulatif des montants de charges en capital obtenus avec les diffrentes ap-
proches
Le constat que lon peut faire est que les rsultats sont htrognes. Avec certaines mthodes,
les montants de charge en capital CaR se situent entre les valeurs obtenues avec la mthode des
donnes internes CaRDI et celle des scnarios CaRS ce qui rpond favorablement une intuition
de dpart. Les autres valeurs trs infrieures CaRDI ou trs suprieures CaRS (comme dans
le cas de la loi de Pareto pour lequel le paramtre de queue estim entrane la divergence de la
charge en capital) ne paraissent pas exploitables. La mthode actuelle du Crdit Agricole est
une mthode trs prudente qui revient sommer les valeurs CaRDI et CaRS . Au vu de ces r-
sultats, les quatre mthodes qui paraissent intressantes en termes de charges en capital sont :
les mthodes baysiennes pures des lois conjugues o est connu, la crdibilit utilisant la loi
log-normale, la cascade baysienne ainsi que la mthode MCMC. Pour ces quatre approches, les
montants obtenus sont soit entre les valeurs CaRDI et CaRS , soit proches de la valeur CaRDI ce
qui est une bonne chose dans loptique de ne pas survaluer la charge en capital. Il est tout de
mme important de noter que parmi ces mthodes, certains rsultats sont obtenus de manire
arbitraire et rsultent dun choix sur les jeux de paramtres utiliss en entre des modles. En
effet, lors des tudes de sensibilit des charges en capital aux diffrents paramtres initiaux, nous
avons constat que certaines mthodes taient plus robustes que dautres.
Dans lapproche par crdibilit, le rsultat est sensible et dpend du seuil qui est directe-
ment li au nombre de donnes internes utilises pour modliser les pertes extrmes.
Dans les mthodes baysiennes pures des lois conjugues et de la cascade baysienne o le
paramtre est inconnu, le constat est que le choix de la valeur du coefficient de variation
agit directement et de faon importante sur la valeur finale de la charge en capital.
Dans la mthode baysienne pure avec et connus, les paramtres a priori peuvent tre
particulirement diffrents en fonction de la mthode retenue pour les dterminer mais
nont pas dimpact sur le montant de charge en capital calcul.
Enfin, dans lapproche MCMC il ny a pas vraiment de paramtrage et donc pas de sen-
sibilit.
Pour avoir une bonne gestion du risque oprationnel, il est important et primordial que
les diffrents acteurs communiquent pour avoir une dmarche cohrente et pertinente. Comme
cela a t prsent tout au long de ce mmoire, lhistorique de donnes collectes et utilises
aujourdhui nest pas suffisant pour avoir une vision complte du risque oprationnel. En effet,
les donnes internes ne mentionnent pas certains vnements extrmes survenus ailleurs (par
exemple laffaire Kerviel). Cest cet endroit quinterviennent les experts mtier qui fournissent
des informations supplmentaires en visant anticiper les pertes extrmes non rpertories
ce jour. Ltape suivante est alors la combinaison de ces deux sources dinformations, lune
quantitative et lautre qualitative.
Les mthodes qui ont t tudies dans ce mmoire ont tent de rsoudre ce problme
laide de la statistique baysienne. La section prcdente dans laquelle on retrouve lensemble
des rsultats obtenus prcise que dans certains cas, les rsultats sont obtenus de faon arbitraire
et rsultent directement du choix de paramtrage ce qui nest pas envisageable et prsentable
auprs du rgulateur. Pour la mise en place de ces mthodes, le format de donnes des experts
nest pas suffisant ; des inputs supplmentaires sont requis comme les coefficients de variation
pour la mthode baysienne pure des lois conjugues. Le souci est que certains paramtres sont
difficiles apprhender par les experts mtier. On comprend donc ici toute limportance dune
bonne communication entre ces deux acteurs du risque oprationnel que sont lquipe de gestion
et modlisation ainsi que les experts mtier.
De plus, tout au long de ce mmoire, nous avons t confronts des problmes dhtrog-
nit entre les deux sources de donnes ce qui a complexifi leur combinaison. A ce titre, nous
proposons plusieurs prolongements, baysiens ou non, qui pourraient outrepasser ces difficults.
Pour pouvoir calculer lexigence rglementaire en fonds propres pour le risque oprationnel
par la mthode LDA, il a t ncessaire de connatre les distributions associes chaque cellule
de risque. Pour chacune dentre elles, on a eu besoin de gnrer une distribution unique qui
a impos de calibrer un modle prenant en compte des pertes de faibles montants et haute
frquence, ainsi que des pertes extrmes montants levs et petite frquence. Lobjectif de
ce mmoire tait de combiner deux sources de donnes pour en tirer une distribution unique ;
toutefois, on pouvait imaginer la base une modlisation trs naturelle et trs pertinente base
sur un mlange de lois. Plusieurs extensions peuvent alors tre imagines.
Comme on la vu, il est trs difficile de modliser correctement la fois le corps et la queue
de distribution en utilisant une loi unique. Lide est de crer un modle composite qui permet
de modliser la svrit des pertes par une combinaison de deux densits, qui consiste en une
distribution queue fine ou moyenne jusqu un certain seuil puis dune distribution queue
paisse au-del, par lintermdiaire de la thorie des valeurs extrmes qui est adapte pour cela.
0 si 0 < x < H
F (x) = F c (x)
PL F c (L)F c (H) si H x L
PL + (1 PL )G(x) si L < x <
Dans ce cas, il parat intuitif de combiner dans une loi de mlange les pertes haute frquence
basse svrit que lon indicera HF et les pertes basse frquence haute svrit que lon indicera
BF .
FBF (x)
1 p
F (x)
p
FHF (x)
p = PL dsigne la probabilit quon tire les pertes dans les hautes frquences. FBF dsigne la
fonction de rpartition des pertes BF , il sagit dune loi de Poisson compose. Plusieurs choix
sont possibles pour paramtrer la frquence et la svrit :
pour la frquence, on choisit une loi de Poisson de paramtre fourni par les experts ;
En ce qui concerne FHF , on utiliserait uniquement les donnes historiques qui sont seules
explicatives du corps de la distribution, on prendrait alors la fonction de rpartition F c dfinie
prcdemment.
La difficult restante est le choix de la probabilit p. On pourrait alors se baser sur les couples
(x, d) fournis par les experts en dfinissant la probabilit p = d1 .
ncessite de trop nombreux renseignements fournis par les experts mtier. De nombreux articles
font intervenir cette mthode (voir V. Aquarro et al. [1] et M. Neil et al. [22] pour plus damples
rfrences).
Les rseaux baysiens font appel la thorie des graphes et la thorie des probabilits. Gra-
phiquement, les variables alatoires sont reprsentes sous forme de nud(s) et les dpendances
entre les variables sous formes de liens (ces dpendances sont quantifies par des probabilits
conditionnelles) :
En associant chacun de ces nuds une table de probabilit, il devient possible de repr-
senter la propagation et linfluence dune variable sur un phnomne complexe.
La modlisation des risques oprationnels passe alors par la dfinition de scnarios qui servent
identifier les vulnrabilits (pour chaque cellule de risque). Ensuite, ces scnarios sont quantifis
en dfinissant pour chacun une exposition, une survenance (frquence) et une gravit (svrit).
Cest dans cette quantification quinterviennent les donnes historiques. Par exemple, si la sur-
venance dun scnario est trs frquente et stable dans le temps, une estimation empirique sera
suffisante et pour cela, on utilisera lhistorique du nombre de pertes constates. Chaque scnario
a alors son propre rseau baysien et des techniques sont alors employes pour rassembler ces
scnarios et dfinir une distribution de perte annuelle.
Lavantage de cette modlisation est quelle permet de comprendre les processus gnrateurs
de risques et didentifier des leviers de rduction de ces risques. Toutefois, cette mthode exige
beaucoup dinformations car elle repose sur la dfinition de scnarios prcis et ncessite une
bonne comprhension des mcanismes dinteraction entre les diffrentes vulnrabilits.
Notre tude sest concentre sur les problmatiques de combinaison des sources de donnes
au niveau dune cellule de risque. Elle pourrait tre complte par les questions dagrgation.
Nous renvoyons larticle G.W. Peters et al. [26] pour lintroduction de copules dans le contexte
dinfrence baysienne.
Conclusion
Avec sa rigueur mathmatique et son cadre relativement simplifi de mise en uvre, lap-
proche LDA parat trs adapte aujourdhui pour mesurer le risque oprationnel. Cependant, son
fondement statistique lexpose aux exigences des donnes de pertes. Ne disposant pas ncessaire-
ment de donnes internes sur un horizon lointain et vu le caractre dynamique de lenvironnement
associ au risque oprationnel, il faut trouver des outils permettant dintgrer toutes les donnes
de lindustrie financire pour mener bien cette opration : les donnes internes, les donnes
externes si il y a et les jugements des experts mtier. En plus dintgrer ces autres sources, il
faut galement pouvoir les combiner ; lapproche actuelle du Crdit Agricole ne le faisant pas
proprement parler, cest dans ce contexte que ce mmoire a t rdig.
Lanalyse baysienne fournit un moyen de combiner ces diffrentes sources de donnes. Lap-
proche baysienne a permis dincorporer une information a priori lestimation des paramtres
de frquence et de svrit pour calculer a posteriori une distribution qui prenait en compte
lensemble de linformation disponible. Cependant, malgr tous les avantages des mthodes que
nous avons pu aborder dans ce mmoire, toutes ont mis en avant la ncessit davoir une infor-
mation plus prcise pour tre dautant plus efficaces. Par exemple, au cours de limplmentation
de notre premire mthode, qualifie dapproche baysienne pure, le principal obstacle a t la
dfinition de la loi a priori. Face des informations fournies par les experts mtier qui ne ca-
ractrisaient que les pertes oprationnelles sous la forme de scnarios extrmes, il a t difficile
dapprhender et de calculer une quelconque loi a posteriori.
Pour remdier cette difficult, nous avons mis au point plusieurs mthodes qui permettaient
dintgrer une information a priori moindre. Lapproche par crdibilit ne ncessite que lapport
de diffrences de frquence et de svrit entre cellules de risque, mais en contrepartie ces der-
nires doivent avoir un profil similaire au risque de surestimer les paramtres des distributions a
posteriori. La cascade baysienne permet de rduire lhtrognit des deux sources de donnes
en intgrant des donnes externes qui se place mi-distance entre les jugements dexperts et
les donnes historiques. Enfin, la Markov Chain Monte Carlo permet de saffranchir des lois
conjugues : ainsi, le manque dinformation venant des experts ninduit pas une contrainte mais
seulement un manque de prcision dans nos rsultats finaux.
Finalement, toutes les mthodes que nous avons pu implmenter ou les alternatives que nous
avons pu voquer en fin de mmoire ont mis en avant la ncessit dune bonne communication
pour mettre au point une mthode quantitative prenant en compte une expertise qualitative. Le
Comit de Ble impose une modlisation du capital rglementaire transparente et rigoureuse.
Avant tout choix de modlisation, il est indispensable de considrer lensemble des acteurs et de
sentretenir avec eux pour avoir une dmarche cohrente et pertinente.
Bibliographie
Annexe A
Dans cette annexe sont exposs les principaux rsultats sur les lois que lon utilise tout au
long de ce mmoire.
Notation : N P()
Paramtres : R+
Support : k N
Esprance : E[N ] =
Variance : V(N ) =
Notation : X U(a, b)
Support : x [a, b]
1
Fonction de densit : f (x) = ba pour x [a, b]
(ba)2
Variance : V(X) = 12
Notation : X G(, )
Support : x [0, +[
/ N+
Fonction de rpartition : note H(x, , ), forme non explicite pour
Esprance : E[X] =
Variance : V(X) =
2
Notation : X IG(, )
Support : x [0, +[
0 1
Fonction de densit : f (x) = 1
() x exp x
(, )
Fonction de rpartition : ()
x
Esprance : E[X] =
1 pour > 1
2
Variance : V(X) = (1)2 (2)
X N (, 2 )
Support : x R
Paramtres : < < , 2 > 0
(x)2
Fonction de densit : f (x) = 1 e 2 2
x 2
Esprance : E[X] =
Variance : V(X) = 2
Coefficient de variation : Vco(X) =
2 2
Fonction gnratrice des moments : MX (t) = et+t 2
X LN (, 2 )
Support : x R+
Paramtres : < < , 2 > 0
(lnx)2
Fonction de densit : f (x) = 1 e 2 2
x 2
2 2
Variance : V(X) = e2+ (e 1)
C
Coefficient de variation : Vco(X) = e2 1
Fonction gnratrice des moments : forme non analytique
X P a(, )
Support : x R+
Esprance : E[X] = 1 ,
si > 1
2
Variance : V(X) = (1)2 (2)
, si > 2
<
Coefficient de variation : Vco(X) = 2 ,
si > 2
X GP D(, )
: ;
Support : x R+ lorsque R+ , x 0; lorsque < 0
Paramtres : R, R3
Fonction de densit :
1
1 (1 + x ) 1
si .= 0
f (x) =
1 exp( x )
si = 0
Fonction de rpartition :
1 (1 + x )1/ ) si .= 0
F (x) =
1 exp( x ) si = 0
Esprance : E[X] = 1 ,
si < 1
2
Variance : V(X) = (1)2 (12)
, si > 2
Annexe B
, xF L
dF (x + L)
e(L) = x
0 1 F (L)
, xF
1
= (y L)dF (y)
F (L) L
, xF
1
= (y L)dF (y)
F (L) L
, xF
1
= ([(y L)F (y)]xLF F (y)dy)
F (L) L
, xF
1
= F (x)dx
F (L) L
L 1
Dans le cas de la loi de Pareto gnralise (GPD), on a G, = (1 + ) . Ainsi :
, xF
x 1 x 1
e(L) = (1 + ) (1 + ) dx
L
Dans le cas < 1 et .= 0 :
F IxF
L 1 x 1
e(L) = (1 + ) (1 + )
1 L
L 1 L 1
= (1 + ) (1 + )
1
L
= (1 + )
1
+ L
=
1
Si 1, lintgrale ci-dessus est divergente et e(L) nexiste pas : cest le domaine de "fuite
vers linfini", propre aux distributions queues paisses.
Enfin, si = 0, nous avons :
, +
L x
e(L) = e
dx
e
L
]+
L x
= e [e
L
=
Dans le cas = 0, la fonction moyenne des excs est une constante, cest une fonction linaire
en L. Nous pouvons ainsi en dduire le critre de slection du seuil : on cherche l tel que la mean
excess function soit linaire partir de ce seuil. En effet, cela signifie que la fonction FL est
proche de la GPD et donc que lhypothse est raisonnable.