Académique Documents
Professionnel Documents
Culture Documents
Charles DUMARTINET
www.enass.fr
Remerciements
Mes premiers remerciements s’adressent tout d’abord à Richard REY, Directeur Cessions
Réassurance du groupe COVEA. La rédaction de ce manuscrit me donne l’occasion d’exprimer ma
reconnaissance pour la confiance qu’il m’a accordée dans le cadre de mes fonctions chez COVEA
et pour la qualité de ses conseils au cours de ce travail de recherche effectué sous sa direction.
Je tiens ensuite à remercier Michel GOUGNARD, Directeur Général Délégué du Groupe COVEA
dont le projet d’entreprise a permis de porter et soutenir l’innovation, l’ensemble des équipes de
COVEA AIS et tout particulièrement celle du Pôle Performance IRD sous la direction de François
JOSSE puis de Juliette BAUDOT.
C’est aussi l’opportunité de remercier tout particulièrement Dominique LEBEAU pour les riches
échanges que nous avons pu avoir sur la gestion sinistres ces dernières années, Martial PONCOT
et Jean-Louis SIMON pour leur contribution dans la relecture de cette thèse.
Je voudrais adresser ma reconnaissance à l’ensemble des collaborateurs avec qui j’ai le plaisir de
travailler et qui ont considérablement enrichi ce travail de réflexion au cours des nombreux
échanges et chantiers portant sur ces problématiques de gestion des risques majeurs, et
notamment :
• Les collaborateurs de la Direction Centrale Réassurance du Groupe COVEA ;
• Les équipes d’actuariat technique MAAF, MMA et GMF;
• L’équipe de préventeurs de COVEA Risks ;
• Le Pôle décisionnel de MAAF et l’équipe d’OSIA,
• L’équipe des souscripteurs de MMA Entreprises ;
• La société Agate France et son Directeur Patrick MARLIERE ;
• L’ensemble des collaborateurs travaillant pour des courtiers et des réassureurs dont les
échanges ont été d’une grande richesse
Mes remerciements vont également à toute l’équipe de la MRN, et notamment à son Directeur
Roland NUSSBAUM pour avoir été un vecteur de connaissances et un support technique pour les
travaux menés au cours de ces dernières années.
Un merci tout particulier à Madame Anne RAMIN, Responsable du MBA de l’ENASS, pour son
professionnalisme, sa gentillesse et ses encouragements tout au long du cursus.
Enfin, je voudrais faire part de toute ma reconnaissance à la GMF qui m’a permis pendant 18 mois
de suivre ce programme de MBA.
L’ERM est une révolution des esprits autant que des structures. Aucune entreprise
d’Assurances ne pourra faire l’économie d’une organisation performante dont la maîtrise
est de contrôler son exposition aux risques.
Plus que jamais, l’ensemble des métiers seront impliqués dans l’évaluation, la tarification
et le transfert des risques. L’ERM et Solvabilité II imposeront aux entreprises, même non
cotées, des obligations de transparence et de reporting qui nécessiteront des systèmes
d’information plus centralisés et plus sophistiqués.
Après avoir posé le constat couramment partagé du manque d’outils robustes en France
pour l’évaluation des risques majeurs dans l’assurance dommages, l’objet de la thèse est
de proposer des solutions techniques permettant le développement d’outils répondant
spécifiquement aux besoins des assureurs dommages en France afin d’améliorer la
gestion des risques au niveau de l’ensemble des métiers d’une compagnie.
Cette technologie émergente qui n’a pas encore fait l’objet d’une véritable appropriation
par le monde économique des entreprises, tout spécialement le secteur de l’assurance
dommages, peut apporter des réponses aux problématiques transversales de l’ensemble
des métiers d’une société d’assurance exposée aux risques majeurs.
Ainsi, la piste technologique pressentie réside dans les solutions géodécisionnelles. Ces
systèmes reposent sur une méthode de modélisation dite spatiale multidimensionnelle.
Faced with the resurgence of major risks, insurance companies must review their
management of these risks, especially given today’s regulatory and jurisprudential
requirements.
The ERM is a revolution both in terms of approach and structures. Today’s insurance
companies cannot do without an efficient organization to control its risk exposure.
More than ever, information systems will be involved in the assessment, pricing and
reinsurance risk. In addition, the ERM and Solvency II will impose on companies, even unlisted
ones, transparency and reporting requirements that will require more centralized and
sophisticated information systems.
Beyond simply highlighting the absence in France of robust tools for the assessment of major
risks in life insurance, the aim of this thesis is to offer technical best practices for the
development of tools that specifically and comprehensively address the needs of insurers in
France to improve their risk management company-wide.
Geo-data technological solutions are the key. These systems rely on a modeling method
called ‘multi-dimensional space’.
Given the spatial character of a portfolio of risks in addition to natural and technological
hazards considerations, risk analysis need to include a geo-data component.
This paper will present the basic thinking behind using track geo business Intelligence in
support of methodological and technological exploration for the development of tools and
integrated models.
This emerging technology which has yet to be taken up by business, particularly the hazards
insurance sector, could bring answers to issues common to all insurance companies exposes
to major risks.
Résumé 3
Executive summary 4
Sommaire 5
Introduction 6
Partie 3: Le géodécisionnel permet la mise en place d’une véritable démarche ERM par un
management transversal de la gestion des risques
Chapitre 1 : Partage des connaissances internes : pour une gestion plus transversale des risques
chez un assureur 110
Chapitre 2 : Le géodécisionnel : une solution émergente dans la gestion des risques
d’un assureur 122
Chapitre 3 : Intérêt transversal à l’ensemble des métiers d’une société d’assurance 139
Conclusion 151
Bibliographie 155
Gestion des risques, risques majeurs, climatiques, technologiques, Entreprise Risk Management,
Solvabilité 2, ORSA, modélisation, Systèmes d’Information Géographique (SIG), Business
Intelligence, Géodécisionnel, SOLAP, portefeuilles de risques, MRH
Introduction
Ces dernières années, les fréquences des différentes garanties MRH sont globalement stables, à
l’exception des garanties liées aux événements climatiques dont les fréquences enregistrent des
variations erratiques alors que les coûts augmentent de façon continue.
12 ans après les tempêtes Lothar et Martin et une succession d’événements (Klaus et Quinten en
2009, Xynthia en 2010 et Joachim en 2011), les compagnies d’assurance tardent à s’équiper
d’outils et de modèles, qui restent principalement de ressort des courtiers en réassurance et des
réassureurs. Or les modèles disponibles sont des outils à mailles larges destinés aux besoins de
réassureurs et peu adaptés aux besoins d’un assureur intervenant sur un territoire national.
De leur côté, les équipes internes de compagnies d’assurances impliqués dans la souscription, la
tarification, la gestion sinistres et les services de réassurance ont longtemps géré leurs risques sur
la base de modèles statistiques, c’est-à-dire fondés sur la sinistralité historique de leurs données
internes. Or ces modèles, bien qu’extrêmement utiles en tant que modèles de référence,
n’offrent pas la fiabilité voulue pour permettre une évaluation précise du risque de catastrophe,
la raison principale étant le manque de données statistiques concernant les événements
historiques.
Les outils internes semblent aujourd’hui faire défaut pour anticiper l’impact de tels événements
ou affiner les critères de tarification.
Au moment où les assureurs s’interrogent sur la rentabilité des contrats MRH et cherchent à
fidéliser leurs clients en se différenciant en matière de qualité de service, une meilleure gestion
des risques majeurs apparait comme une opportunité de premier choix. Il semble donc être
temps pour les assureurs d’investir dans ce domaine stratégique.
Selon Ulrich Beck1, nous sommes passés d’une société industrielle centrée sur la répartition des
richesses à une société centrée sur la répartition du risque. L’univers des risques est en expansion.
Une bonne gestion des risques passera obligatoirement par une évolution ou une transformation
de certains métiers.
Face à toute cette complexité, l’assureur et le réassureur doivent affiner leur perception et leur
relation au risque, et donc leur connaissance. Toute leur stratégie sera déterminée par leur
appétence et leur tolérance au risque.
1.1 Diagnostic de vulnérabilité des risques majeurs sur les portefeuilles d’assurance
dommages
L’objet des développements qui suivent est de souligner la dimension spatiale qui
caractérise un portefeuille d’assurance dommages et les aléas naturels et technologiques
facteurs de sinistralité. Les réalités physiques et géographiques sont des composantes
essentielles de la gestion des risques en assurance non-vie.
1
Ulrich Beck, La société du risque sur la voie d’une autre modernité, Flammarion, octobre 2003
2
Laurent GUERAUD, Quel est l’apport d’une gestion des risques d’entreprise chez un réassureur traditionnel européen ?, Février 2009
Figure 1 : Nombres de catastrophes naturelles de 1990 à 2010, Source : Munich Re Topics Geo 2010
Bien que fort variable d’une année à l’autre, le nombre total de catastrophes naturelles a nettement
eu tendance à augmenter au fil des dernières décennies. Alors que le nombre d’événements
géophysiques (en rouge) est relativement stable, les phénomènes météorologiques (en vert, bleu et
orange) sont en nette progression.
• D’autre part à l’existence d’enjeux, qui représentent l’ensemble des personnes et des biens
pouvant être affectés par un phénomène. Les conséquences d’un risque majeur sur les enjeux se
mesurent en termes de vulnérabilité.
Figure 2 : Géocodage des risques assurés par GMF Assurances, Source : Covéa
Les risques majeurs se caractérisent par le fait qu’ils mettent en jeu les fonds propres d’une
compagnie d’assurance.
Les risques majeurs imposent :
- la nécessité de mesurer le risque
- les moyens de protection de fonds propres
Parmi ces moyens de protection, la réassurance est le premier moyen de protection des fonds
propres. Toutefois, il convient de distinguer la réassurance qui repose sur un socle législatif et de
la réassurance de marché.
Comme nous le verrons au chapitre 2, le régime CatNat est une loi protectrice qui mutualise le
risque dans un système de solidarité avec une garantie illimitée de l’Etat qui fait de lui in fine le
réassureur en dernier ressort. L’environnement législatif permissif n’a pas encouragé les
assureurs à faire de la prévention et à maîtriser leurs risques.
À contrario, les risques de tempêtes et de conflagrations qui sont hors régime CatNat, relèvent de
la réassurance de marché avec une obligation d’assurance dès lors qu’une assurance incendie est
souscrite dans un contrat. Pour ces aléas, privés du cadre protecteur offert par le régime CatNat,
l’intégralité du risque est supportée par l’assureur et le réassureur qui doivent protéger leurs
fonds propres et maîtriser leurs expositions.
Du fait de la distinction entre les 2 socles sur lesquels reposent la réassurance, de l’ampleur qui
caractérisent chaque aléa et leur impact fort sur la préservation des fonds propres, cela nous
conduit à hiérarchiser les risques majeurs, la tempête est le premier d’entre eux.
3
Guide général, Les risques majeurs, Ministère de l’Ecologie, du Développement durable et de l’Aménagement du territoire
Figure 3 : Principaux événements majeurs en France depuis 1999, Source : FFSA 2012
Le risque tempête
Les tempêtes concernent une large partie de l’Europe, et notamment la France métropolitaine.
Celles survenues en décembre 1999 ont montré que l’ensemble du territoire est exposé, et pas
uniquement sa façade atlantique et les côtes de la Manche, fréquemment touchées.
Les tempêtes se caractérisent par l’étendue des territoires concernés par leurs trajectoires.
Contrairement aux autres aléas naturels, il est fréquent qu’une grande partie des départements
métropolitains soient affectés par des rafales pouvant générer d’importants dommages.
Le risque inondation
Les inondations constituent un risque majeur sur le territoire national. En raison de pressions
économiques, sociales, foncières ou encore politiques, les cours d’eau ont souvent été aménagés,
couverts, déviés, augmentant ainsi la vulnérabilité des hommes et des biens.
Figure 6 : Caractéristiques d’une crue par débordement : Source : Prim.net, Ministère de l’Ecologie et du
Développement Durable
Certains sols argileux peuvent gonfler et se tasser du fait de variations de teneur en eau.
L’apparition des tassements différentiels peut occasionner des dégâts parfois importants aux
constructions et en particulier à celles dont les fondations sont superficielles.
Figure 9 : Schéma de retrait / gonflement des argiles, Source : Prim.net, Ministère de l’Ecologie et du
Développement Durable
Depuis 1989, ce sont près de 15 000 communes françaises, réparties dans 89 départements, qui
ont été reconnues en état de catastrophe naturelle vis-à-vis du retrait-gonflement.
Le risque sismique
Le risque sismique est présent partout à la surface du globe, son intensité variant d’une région à
une autre. La France n’échappe pas à la règle, puisque l’activité peut être négligeable ou faible
dans certaines régions de métropole, et forte dans les Antilles.
Le risque de conflagration
Un risque industriel majeur est un événement accidentel se produisant sur un site industriel et
entraînant des conséquences immédiates graves pour le personnel, les populations avoisinantes,
les biens et/ou l’environnement.
• Les générateurs de risques sont regroupés en deux familles :
- les industries chimiques
- les industries pétrochimiques
Qu’ils soient d’origine naturelle ou technologique, les risques majeurs présentent une
dimension spatiale qui caractérise le risque sur un territoire donné. L’intégration de la gestion
de ces risques doit passer par une approche géographique de façon à cartographier le péril et
l’enjeu associé.
Le contexte conjoncturel est très largement marqué par la survenance d’événements climatiques,
même si l’explosion du site industriel AZF en 2001 rappelle la nécessité de prendre en compte les
risques technologiques dans les études d’exposition de portefeuilles, notamment pour les besoins
des services de réassurance qui seront examinés plus loin.
Les assureurs sont concernés par trois principaux risques majeurs qui affectent régulièrement leur
sinistralité :
Les tempêtes
Les inondations
Les vagues de sécheresse
Les garanties couvrent les dommages causés par les aléas naturels sur le territoire métropolitain :
Toutefois, deux types d’événements sont à l’origine des dommages indemnisés : les «événements
locaux » et les « événements extrêmes » qui in fine, même s’ils n’ont pas la même intensité,
génèrent des impacts significatifs sur la sinistralité d’un assureur.
Ils sont fréquents, localisés, d’une intensité relative. Ils représentent 60% des indemnités versées
par les assureurs au titre des aléas naturels4.
Ils sont particulièrement dévastateurs et se caractérisent par une très forte intensité et une faible
fréquence. Ils représentent 40% des indemnités versées par les assureurs. Les événements
extrêmes ont un poids plus ou moins important selon leur nature : 60% du coût des tempêtes est
dû aux tempêtes extrêmes, 25% pour la sécheresse et 20% pour les inondations.
Une « période de retour », exprimée en années, est attribuée à ces événements. Elle correspond
à la fréquence à laquelle les météorologues estiment qu’un tel événement peut se reproduire. De
1988 à 2010, un grand nombre d’événements extrêmes ont touché la France.
Néanmoins, il faut bien noter que sont prises en compte les pertes économiques associées. Or la
densification de la population, l’augmentation du niveau de vie, la concentration de valeurs dans
les agglomérations et l’utilisation de technologies de plus en plus coûteuses contribuent à une
augmentation des dommages causés par un événement. Un événement d’amplitude donnée non
répertorié en 1955 peut donc être considéré en 2000 comme une catastrophe majeure.
Les pertes économiques associées aux catastrophes naturelles suivent bien évidemment la même
tendance. Celles-ci passent ainsi de 39,6 milliards de dollars dans le monde entre 1950 et 1959 à
608,5 milliards de dollars entre 1990 et 1999. Plus révélateur encore, sur 30 événements ayant eu
un coût de plus d’un milliard de dollars par l’industrie de l’assurance depuis 1980, 27 ont eu lieu
depuis 19905.
Les coûts des catastrophes naturelles dépendent fortement du type des catastrophes et des zones
qu’elles affectent6.
4
CAREY John, "Storm Warnings: Extreme Weather Is a Product of Climate Change ", Scientific American, 28 juin 2011
5
Eurapco Executive Program, Action on climate change, June-October 2007
6
S.Charbonnier ; A. Briant, Impact du changement climatique sur les assurances, ENPC 2008
Figure 17 : Répartition des dommages par branches entre des inondations et des tempêtes,
Source : Argus de l’assurance, février 2011, chiffres Géma / FFSA
L’augmentation des pertes dans les années 1990 témoigne de la densification des zones urbaines
à risques.
Les réglementations en vigueur restent laxistes en matière d’occupation des sols et les contrôles
peu fréquents ne suffisent pas à empêcher l’arrivée de nouvelles habitations ou usines dans des
zones dangereuses (zones inondables, risques de glissements de terrain). Une catastrophe
survenant dans une telle zone provoque naturellement plus de dommages que quelques années
auparavant, même si son ampleur reste la même.
Parallèlement à cette densification des régions à risques, l’augmentation du niveau de vie moyen
et l’utilisation de technologies de plus en plus coûteuses par les entreprises ou les particuliers
accroissent la sensibilité des sociétés modernes.
Figure 19 : Coûts des catastrophes naturelles relevant du régime Catnat et des tempêtes en millions
d’euros constants. Source : Argus de l’assurance, février 2011, chiffres Géma / FFSA
Selon une étude de la FFSA7 sur l’impact du changement climatique, au cours des 20 dernières
années, le coût global des aléas naturels en France se chiffre à 34 milliards d’euros, et ce pour les
seuls assureurs. Rapporté au budget assurance dommages des ménages et entreprises français,
cela représente 16% de leurs dépenses.
I.1.2.ii Les projections imposent aux assureurs des adaptations face à la survenance
d’événements d’ampleur
Le territoire français est donc exposé aux risques majeurs, et tout particulièrement aux
événements climatiques.
7
FFSA, Etude relative à l’impact du changement climatique et de l’aménagement du territoire sur la survenance d’événements
naturels en France
Tout cela n’est pas sans conséquence d’un point de vue assurantiel. Avec une vision
macro-économique, l’enrichissement du pays est neutre si l’on souhaite évaluer ce que sera le
coût de l’assurance aléas naturels. Si la richesse globale passe de 100 à 120, le coût de l’assurance
passant de 1 à 1,2 continue de représenter 1%. Il ne s’agit ici que d’un effet qui porte sur la masse
assurable. En revanche, avec une croissance qui bénéficie davantage à des zones exposées aux
aléas naturels, le coût de l’assurance s’en retrouve multiplié.
Sur la base d’une poursuite au cours des vingt prochaines années des tendances enregistrées
entre 1988 et 2007, l’étude conclut à un surcoût de 16 milliards d’euros. Ce montant
supplémentaire de dommages causés par les aléas naturels ne s’établit que sur la seule évolution
socioéconomique, ainsi qu’à événements naturels strictement équivalents. Ces 16 milliards
d’euros se décomposent de la manière suivante :
14 milliards correspondent à l’augmentation de la masse assurable. Ils sont donc sans effet sur
le coût relatif de l’assurance contre les aléas naturels.
2 milliards correspondent à l’effet « surcroissance » des zones vulnérables. Ils auront donc un
impact direct sur le coût relatif de l’assurance.
8
FFSA, Synthèse de l’étude relative à l’impact du changement climatique et de l’aménagement du territoire sur la survenance
d’événements naturels en France, avril 2009
L’hypothèse du doublement de la fréquence est cohérente avec les tendances du dernier rapport
du GIEC (Groupe d’Experts Intergouvernemental sur l’Evolution du Climat). La sécheresse de 2003
dont la période de retour est de vingt ans se reproduirait alors tous les dix ans par exemple.
De même que Lothar et Martin qui toucheraient la France tous les soixante dix ans selon un
consensus de marché au lieu des cent vingt estimés. Certains événements ne doivent pas non plus
être oubliés. Ce n’est pas parce qu’au cours des vingt dernières années ils ne se sont pas produits,
qu’entre 2007 et 2030 ils n’auront pas lieu.
60 milliards d’euros sur vingt ans, telles sont les conclusions de cette étude. A l’horizon 2030,
l’indemnisation des dommages matériels liée aux événements naturels peut aller jusqu’à un
doublement. Cette charge se décompose sous la forme suivante :
Figure 20 : Facteurs d’impacts sur les coûts indemnitaires. Etude relative à l’impact du changement
climatique et de l’aménagement du territoire sur la survenance d’événements naturels en
France, Source: FFSA 2010
Comme cela a été mis en exergue par l’étude la FFSA, l’augmentation de fréquence des
événements naturels se cumule avec une évolution socio économique ayant un impact fort sur le
coût éventuel d’un événement, tant en matière d’exposition des risques et de leur localisation,
que de la valorisation des portefeuilles.
Cette hausse sera certes répartie sur une population et un nombre d’entreprises plus important,
mais elle aura tout de même un effet significatif sur le budget des ménages et les comptes des
entreprises. Et ce, quelle que soit la nature de l’événement naturel considéré. Sur les 30 milliards
d’euros supplémentaires estimés, 16 milliards auraient un impact direct sur le prix relatif de
l’assurance contre les aléas naturels. Ainsi la part de la couverture contre les événements naturels
dans le budget assurance dommages des ménages et des entreprises passerait à près de 25 %
(contre 16% initialement).
La mesure la plus simple que peut être prise les assureurs pour limiter leur exposition financière à
des événements climatiques répétés ou de très grande ampleur est bien sûr l’adaptation des
contrats qu’ils proposent à leurs assurés. Ceci revient donc à refuser une partie du risque et à
laisser les particuliers le supporter. Il s’avère que dans un secteur fortement concurrentiel sans
barrière à l’entrée comme l’est celui de l’assurance, de telles mesures semblent difficiles à mettre
en place sans l’accord de l’ensemble des intervenants ou le soutien des autorités publiques.
Nous développerons ici trois adaptations possibles des contrats, et les mettrons en lien, en France,
avec les évolutions législatives en matière de protection et prévention.
Un second problème concerne la nature même du marché de l’assurance. Ce marché est très
ouvert et très compétitif. Aussi toute hausse de tarif verra l’arrivée de nouveaux concurrents
attirés par les gains réalisables au détriment d’une couverture efficace. Du fait de la concurrence,
cette protection via la hausse des primes d’assurances semble peu envisageable. Un exemple
intéressant vient étayer cet argument. L’évolution de la valeur des primes est généralement un
bon indicateur de la sévérité d’une catastrophe. Ainsi a-t-on vu en France après la tempête de
9
IPCC, 2001 : Climate change, Working group II, Impacts, adaptation and vulnerability, chapter 8, insurance and other financial
services, http://www.grida.no/climate/ipcc_tar/wg2/321.htm
De tels mécanismes auraient cependant l’avantage de pouvoir inciter les assurés à une plus
grande prévention et protection et ainsi limiter les effets de biais de sélection.
Concernant les particuliers, ce mécanisme est plus difficile à mettre en place. Les particuliers sont,
sans l’occurrence d’une catastrophe majeure, moins enclins à la protection et à la prévention.
Les deux sous parties précédentes sont arrivées aux conclusions suivantes.
Les pertes économiques assurées ont augmenté ces vingt dernières années. Si une augmentation
dans la fréquence et l’ampleur des événements climatiques ne peut être exclue, cette
augmentation des pertes est plus largement due aux trois facteurs suivants :
10
European Commission, 2000, Assessment of Potential effects and Adaptations for Climate Change in Europe, The Europe Acacia
Project
11
Idem European Commission, 2000
1.3 Pour faire face à ce constat, les stratégies de transfert de risques se développent
La première consiste à réduire la part du risque supporté par le secteur pour le transférer à
d’autres acteurs économiques (Etats, particuliers, marchés financiers)
Le principe de la réassurance est qu’une société d’assurances cède tout ou partie de son
portefeuille, et donc de son risque mais aussi de sa prime et des sinistres, auprès d’un ou
plusieurs réassureurs. La société d’assurances est alors appelée la cédante car elle réalise une
cession auprès d'un ou plusieurs réassureurs, ces derniers effectuant quant à eux une acceptation.
Figure 21 : Part des réassureurs dans l’assurance des catastrophes, Sources : Insurance Information
Institute, Avril 2008
Elle facilite la redistribution et la dispersion des risques importants tout en allégeant la trésorerie
de l’assureur dans les cas de sinistres ou d’événements de grande ampleur. La réassurance aide
finalement l’assureur à surveiller ses risques en lui permettant par exemple de compenser les plus
catastrophiques.
Une forme de complémentarité émerge donc entre les solutions de marchés et les couvertures
traditionnelles13
La titrisation via l’émission d’obligations catastrophes (cat bonds) constitue un instrument de
financement alternatif pour les assureurs et réassureurs leur permettant d’atténuer leurs besoins
de fonds propres supplémentaires pour couvrir des risques extrêmes.
Christophe GIMOND a montré que le principe de base des Cat bonds est le suivant: l’entreprise
cédante du risque émet une dette obligataire dont le remboursement est conditionné à la
survenance d’un événement donné (séisme, tempête,…). Les détenteurs touchent un taux
variable (produit du placement des fonds levés et prime payée par l’assureur) et le principal
lorsque les titres arrivent à échéance (sous réserve que l’événement spécifié ne se soit pas
produit).
D’après l’auteur, chaque partie y trouve son intérêt : pour les assureurs et réassureurs l’émission
d’obligations « catastrophes » présente l’avantage de réduire le besoin en capital réglementaire
(et donc d’améliorer le rendement des fonds propres grâce à une plus grande efficacité du
capital) : pour les investisseurs, les «CAT bonds», par essence largement décorrélés des autres
actifs financiers représentent une source intéressante dans une optique de diversification de
portefeuille.
En effet, en cas de survenance de ce type d’événements, les dégâts pourraient être énormes en
termes humain et financier. A titre d’illustration, les dommages causés par l’ouragan Katrina en
2005 ont été estimé à plus de 80 milliards de dollars par le gouvernement Américain
Ce marché, dominé aujourd’hui par le réassureur Suisse Swiss Ré, est resté relativement
confidentiel avec des émissions annuelles de l’ordre de 10 milliards de dollars par an. D’une durée
relativement courte (en général 2/3 ans), ces obligations ne semblent toujours pas avoir trouvé
les faveurs des investisseurs, en raison vraisemblablement de leur caractère aléatoire. Pourtant,
leurs avantages sont multiples: tout d’abord, des taux de rémunération attractifs car supérieurs à
ceux offerts par des obligations d’Etats ou d’entreprises, affichant pourtant les même « rating »
par les agences de notation, mais aussi et surtout une corrélation faible par rapport aux autres
classes d’actifs.
12
J.C. Augros et M. Querel, 2001, Les dérivés climatiques et naturels : de nouvelles opportunités pour les investisseurs.
http//www.cdcixis-cm.com/Federal/TauxEtChange/doc/derives_climatiques.pdf
13
C. GIMOND, Le cycle de l’assurance Non-Vie, Une opportunité stratégique, L’exemple du marché des risques d’entreprises, 2010
Conclusion du chapitre 1
En matière climatique, le secteur de l’assurance doit face à deux types de risques :
Des catastrophes de très forte intensité, avec des périodes de retour supérieures à 10 ans.
L’occurrence de telles catastrophes, si elle ne met pas en péril le secteur de l’assurance dans son
ensemble, l’affecte fortement (ex : augmentation des primes d’assurances après les tempêtes
Klaus et Quinten en 2009).
Dans tous les cas, les sociétés d’assurances doivent s’adapter à la survenance d’événements
climatiques et technologiques. Les assureurs doivent développer des protections et les mesures
propres pour limiter leur exposition sont insuffisantes et limitent leur compétitivité par rapport à
la concurrence.
2.1 Une réforme à moyen terme du régime Catnat qui pourrait changer la donne
La notion de catastrophe naturelle est précisée dans l’article L.125.1 du code des assurances :
«sont considérés comme les effets des catastrophes naturelles les dommages matériels directs
non assurables ayant eu pour cause déterminante l’intensité anormale d’un agent naturel,
lorsque les mesures habituelles à prendre pour prévenir ces dommages n’ont pu empêcher leur
survenance ou n’ont pu être prises ». En pratique, il s’agit des inondations, sécheresses, séismes,
avalanches, mouvements de terrain, cyclone, éruptions volcaniques dans les DOM, etc.
Les dommages provoqués par une catastrophe naturelle sont difficiles à évaluer et leur coût peut
être considérable. C’est pourquoi l’Etat apporte sa garantie par l’intermédiaire d’une entreprise
publique, la Caisse centrale de réassurance (CCR), auprès de laquelle les sociétés d’assurances
peuvent en partie se réassurer.
La garantie de l’Etat couvre une partie des périls climatiques, notamment les inondations
majeures et les phénomènes de sécheresse.
Le montant des primes acquises réglées par les assureurs atteint plus de 700 M€ en 2008 et la
provision d’égalisation constituée par la CCR au 31/12/2008 totalise près de 1700 M€.
Figure 22 : Résultats techniques de la CCR. Source : Rencontres GEMA – FFSA – CCR, septembre 2009
Néanmoins, les tempêtes et les phénomènes de grêle qui ont sévit au cours de l’année 2009 ne
sont pas couverts par la garantie de l’Etat.
Ces modifications possibles du régime Cat. Nat. pourraient traduire un désengagement partiel de
l’Etat dans la couverture des périls climatiques, ce qui renforcerait la nécessité pour les assureurs
d’être capables d’identifier et de mettre en œuvre des leviers de différenciation concurrentielle
sur le cœur de métier : tarification, souscription, gestion des sinistres.
Le graphique ci-après montre qu’après une progression rapide entre 1983 et 1984, due à un
ajustement du taux de la prime additionnelle qui avait été fixé initialement à 6%, il apparaît que le
volume des primes encaissées augmente ensuite plus lentement et diminue même à partir de
1996.
Figure 23 : Évolution des primes et des sinistres pour le marché avant et après réassurance. Source : IGF,
2005
En 1999 intervient une nouvelle augmentation de la prime additionnelle : le taux applicable aux
biens autres que les véhicules terrestres à moteur est porté de 9% à 12%.
Exception faite de 1983, qui est essentiellement une année de rodage pour le régime, il apparaît
que la charge de sinistres brute n’a dépassé le montant des primes encaissées sur la période qu’à
quatre reprises : en 1993, 1998, 1999 et 2003. Dans ces quatre cas, l’intervention de la
réassurance (CCR eu autres compagnies en sous-jacents) a permis d’atténuer le montant du
dépassement, qui a été au maximum de 88 M€ en 1999.
Le ratio sinistres sur primes, après réassurance, n’a été supérieur à 100% qu’en 1993, 1999 et
2003 et n’a jamais dépassé 111%.
Pour endiguer cette certaine dérive financière, les pouvoirs publics se sont contentés jusqu’ici
d’augmenter graduellement le taux de la prime additionnelle et la possibilité laissée aux assureurs
de moduler ou majorer les franchises. Les auteurs soulignent que ces mesures n’ont pas résolu la
disparité croissante de situation entre les assurés qui bénéficient du régime Catnat, parfois de
manière répétitive, comme le montre la carte ci-dessous, et ceux dont la probabilité d’en
bénéficier un jour est presque nulle.
Figure 25 : Cartographie de la fréquence des sinistres effectuées à par des données de la FFSA, Source: J.
CHEMITTE
Il ne s’agissait pas de remettre en cause le régime en lui-même mais plutôt d’y apporter des
évolutions permettant de renforcer son équilibre et responsabiliser les acteurs. Même si cette
réforme nationale n’est pas encore clairement définie, les lignes directrices ont tout de même été
déterminées pour constituer un avant projet de loi14. Malgré la solidité financière du régime
(jusqu’à présent tous les citoyens assurés et sinistrés ont globalement correctement indemnisés
et le régime n’est pas en faillite) il y a nécessité de réformer le régime.
Cette nécessité résulte d’une analyse critique partagée par l’ensemble des acteurs au travers un
projet de loi portant sur la du régime Catnat du 18 janvier 201215.
• Les conditions du bénéfice de la garantie contre les effets des catastrophes naturelles à
l’encontre des biens construits et des activités exercées sur des terrains classés
inconstructibles par un plan de prévention des risques naturels prévisibles pourraient être
revues ;
14
CCSF : Consultation publique - projet de réforme du régime d'indemnisation des catastrophes naturelles
15
COMITÉ CONSULTATIF DE LA LÉGISLATION ET DE LA RÉGLEMENTATION FINANCIÈRES, note sur la présentation du projet de loi
portant réforme du régime d’indemnisation des catastrophes naturelles, 18 janvier 2012
En conclusion, les lignes directrices de ce projet montrent que les assureurs vont être amenés
dans le futur à évaluer de manière fine l’exposition aux risques naturels mais aussi l’état de la
prévention des constructions de leurs assurés afin d’être en mesure de pouvoir moduler la prime
et de participer au renforcement des mécanismes de prévention. La modulation possible de la
prime pour les professionnels aura un impact sur la politique de souscription de chaque
entreprise d’assurance afin d’optimiser les portefeuilles de contrats concernant la concentration
et la diversification des risques.
2.2 Les nouveaux besoins de marges de Solvabilité 2 introduit une approche globale des
risques et de l’exposition d’une compagnie d’assurance
Pour solvabilité I comme pour Solvabilité II, le régulateur demande à l’assureur de calculer une
marge de solvabilité permettant de disposer d’une couverture en fonds propres suffisante pour
couvrir la survenance de tels risques, en particuliers les risques majeurs pour un assureur
dommages et protéger ainsi les assurés contre une faillite éventuelle de l’entreprise16.
Face à cette obligation, l’assureur est contraint de mieux maitriser l’exposition des ses
portefeuilles et contenir ainsi la volatilité de son besoin de marge au travers du pilotage de son
activité.
En Assurance Non Vie, le montant des fonds propres requis doit être égal à 16% des primes et
18% des sinistres.
La détermination de cette marge ne tient donc pas compte l’exposition aux risques de l’entreprise,
en dehors du fait qu’elle peut être minimisée par la réassurance.
En effet, la réassurance permet de réduire les exigences de marge (50% en non vie).
De plus, sous solvabilité I, le pilotage des compagnies se fait au travers du résultat de l’exercice et
des provisions techniques. Le risque est apprécié par les provisions mathématiques.
16
Les Echos ; Solvabilité II forcera les assureurs à changer de « business model », n°20682 du 21 mail 2010
En effet, la solvabilité doit être appréhendée au travers d’une mesure effective et aussi directe
que possible des risques pris par l’assureur.
Le risque se retrouve directement en charge de capital17.
Cette marge peut être calculée à partir d’un modèle standard ou d’un modèle interne
spécifiquement développé par l’entreprise, qui permettra de réduire le besoin.
Quelque soit la méthode de calcul retenue, ce besoin de fonds propres doit ou « est supposé »
permettre à l’assureur d’éviter la ruine dans 99.50% des cas à l’horizon d’un an.
Cette méthode de calcul est relativement complexe, du fait qu’elle contraint l’entreprise à
quantifier un besoin en capital pour chaque risque, en tenant compte des corrélations éventuelles.
Cette approche ne contraint plus l’assureur à tenir compte de contraintes telles que les ratios
(congruence, dispersion,...), mais à allouer une part de capital pour couvrir chaque risque.
Le BSCR (Basic Solvabilité Capital Requirement) est calculé à partir d’une matrice de corrélation de
plusieurs modules.
Chaque module représente le besoin en capital permettant de couvrir un risque inhérent à
l’activité de l’assureur (risque de souscription, risque de marché…).
Au sein de chaque module, des sous-modules prennent en compte les différents paramètres
influant sur le risque pour calculer une charge de capital (ex : le risque de souscription d’un
produit d’assurance vie varie en fonction de la mortalité) mesurée à partir de l’écart entre les
fonds propres nécessaires avant et après un choc.
Rappel historique : en vertu des CP48 et CP50, l’EIOPA a proposé l'élaboration de scénarios
standardisés pour l'estimation de la charge des risques de catastrophe requis en vertu de l'article
111.1 (c) de la directive Solvabilité II.
En effet, la méthode proposée lors du QIS4 avait de multiples problèmes, notamment de
standardisation, et suscité nombre de critiques.
L’EIOPA a donc proposé la création d'une Catastrophe Task Force.
Guy Carpenter 3
L’objectif de la CFT composée de participants externes et du CEIOPS (Swiss Re, Lloyd’s of London,
Munich Re, CCR, SCOR, Guy Carpenter, Willis, RMS) avait pour objectif de fournir à l’EIOPA des
conseils sur la mise en place et l'étalonnage des scénarios catastrophe Non-Vie en ligne avec les
recommandations des CP48 et CP50. La proposition a été bien accueillie et soutenue par la
Commission européenne.
En Juillet 2009, l’EIOPA a envoyé une lettre à un certain nombre d'intervenants pour les inviter à
faire partie de la CTF. La CTF a été créé à la fin du mois d'août 2009.
17
Guy Carpenter, le rôle de la réassurance dans le calcul du SCR Cat Journées IARD de l’Institut des actuaires; 31 Mars 2011
Évolutions principales :
Catastrophes naturelles
- Tempête, Inondations, Tremblement de terre, Grêle, Subsidence, DOM/ TOM inclus
- Les valeurs assurées par zone (Cresta): Agrégation par pays
Méthode retenue
La cartographie d’aléas avec une optique forte de prise en compte de la diversification
géographique.
C’est une :
- mesure de l’intensité du hasard dans la région,
- mesure de la vulnérabilité des bâtiments et des concentrations de l’exposition du risque
Figure 28 : Exemple des taux de dommage pour le vent, Source : Emmanuel DUBREUIL, Institut des
actuaires
Figure 29 : Facteurs d’endommagement tempête par département retenus dans le QIS 5, Source : Guy
Carpenter
Double impact :
- mise en avant du facteur Aléa : point d’impact d’une tempête.
- mise en avant du facteur
Guy Carpenter 12
Vulnérabilité : Paris est une zone moins vulnérable que les Yvelines, alors que la trajectoire est
normalement la même (pour un tempête d’Ouest en Est) ; un immeuble est moins vulnérable
qu’un pavillon.
Dans le sous-module " Man-made catastrophes", sept scénarios différents susceptibles de mettre
en danger la pérennité d'une entreprise d'assurance sont définis pour calculer le capital
nécessaire suivant la méthode 1. Les scénarios catastrophe pour les branches d’assurance
suivantes et leur couverture de réassurance correspondantes sont prises en compte, et
notamment:
- Incendie / conflagration: exposition brute calculée comme le produit de la somme assurée pour
la plus grande concentration de risques connus dans un rayon de 150 mètres par un facteur
d’endommagement de 100%.
- RC automobile : exposition représentée par des événements tels que le sinistre Tunnel du Mont-
Blanc ou un accident extrêmement grave. Un événement de 200 ans est déterminé à l'aide d'une
extrapolation de Pareto.
- Marine : 2 périls principaux, collision de navires et dommage aux plates-formes pétrolières. Le
premier comprend l'exposition brute maximale en Corps pour les pétroliers, la RC marine, la RC
pollution par les hydrocarbures et les corps de navires de croisière. Les expositions brutes
maximales pour diverses sous-couvertures rentrent également en ligne de compte pour les
plates-formes.
Même dans le cas où l’entreprise utilise le modèle standard pour calculer le SCR, elle doit
également justifier ses choix, les paramètres et hypothèses retenus pour les calculs et garder une
traçabilité de tout ce qui l’a conduit au résultat (fichiers, calculs, contrôles …), celui-ci ne pouvant
être dissocié des moyens mis en œuvre.
Ce calcul n’aura de sens que si les hypothèses émises par les entreprises en matière de décision,
sont effectivement mises en œuvre en cas de survenance d’un risque.
I.2.1.ii Maîtriser la marge par une politique globale de gestion des risques
Le Pilier 2 impose une approche qualitative du risque18 : un système global de gestion des risques.
Dans Solvabilité II, le fait que la mesure du risque soit sanctionnée par un besoin en capital
constitue un enjeu plus important, et plus stratégique pour l’entreprise que la simple gestion des
provisions techniques19.
Afin d’éclairer les décisions qui seront prises en matière de besoin de capital, il conviendra avant
de prendre des décisions dans ce domaine, de se baser sur les préconisations fournies par les
actuaires. Au-delà du fait de « compter », et d’avoir également des jugements à porter, les
actuaires auront pour mission de convaincre les décideurs de leurs jugements sur la valeur, la
substance et la qualité des risques, en particulier avec les modèles internes et l’ORSA – Own Risk
and Solvabilité Assessment. De ce fait, les services en charge des préconisations se verront confier
la responsabilité supplémentaire du reporting de la justification et du recours à des données
internes dont ils seront les gardiens.
L’exigence en capital évolue donc tous les jours, en fonction du niveau des différents indices
financiers.
Dans Solvabilité II, les compagnies d’assurances auront le choix entre deux types de stratégie :
• Ajuster le capital disponible, en faisant appel à ses actionnaires ou à l’État, quand on a un besoin
supplémentaire. C’est ce qui s’est passé récemment avec les banques américaines que l’État a
«renflouées».
• Être massivement surcapitalisé en permanence, ce qui induit des taux de rentabilité récurrents
très faibles comme ceux que peuvent connaître certaines de nos anciennes mutuelles.
La difficulté de cet exercice de pilotage va consister pour les décideurs et les actuaires à gérer un
dialogue sur la mesure rétrospective du risque ou sur les anticipations de mesure de risques et de
leur nécessaire couverture par du capital, entre les différentes strates de l’entreprise, ses
actionnaires et la supervision.
18
Milliman, Report on the possible impact of the likely Solvency II QIS 5 Standard formula on the European Market, June 2010
19
Aon Global Risk Consulting ; Solvabilité 2 : les assureurs à l’épreuve du deuxième pilier et de l’ORSA ; 2010
Les enjeux pour les organismes assureurs sont très importants, puisque, dans ce cadre, le
régulateur aura le pouvoir de contrôler la qualité des données et des procédures d’estimation et
les systèmes mis en place pour mesurer et maîtriser les risques au cas où ils se matérialiseraient.
• l’article 44 (gestion des risques) qui décrit le cadre général de la gestion des risques ;
La notion de profil de risque peut être appréhendée de manière intuitive à partir des montants de
SCR affectés à chaque module de risque du QIS 5 : risque de marché, risque de souscription et
risque opérationnel, par exemple.
Cependant, en accord avec l’article 44 de la directive Solvabilité II, les risques n’entrant pas dans
le calcul du SCR doivent également être pris en compte (risques stratégiques, risque de
conformité…), chose particulièrement délicate de par la faiblesse de la littérature existante.
L’analyse des risques exprimée par ces exigences de marge reflète le point de vue du régulateur,
et on conçoit que l’adoption d’un autre point de vue (celui de l’actionnaire, du dirigeant, de
l’employé, etc.) conduise à une description différente des risques portés, en fonction des objectifs
propres à chaque partie prenante. Ainsi, en intégrant dans l’analyse des risques les points de vue
de différentes parties prenantes, construit-on le profil de risque de l’entité.
La formulation de l’appétence pour le risque implique donc d’identifier les différentes parties
prenantes et leurs attentes, puis de décrire les principales dimensions couvertes par l’appétence
pour le risque (par exemple, les dimensions liées aux résultats comptables, à la création de valeur,
à la solvabilité, à la notation…).
Pour chacune de ces dimensions, l’entreprise doit sélectionner une ou plusieurs mesures de
risque et des seuils de tolérance qui encadreront la prise de risque.
Une fois déterminés ces mesures et les seuils associés, l’entreprise doit en déduire des tolérances
par catégorie de risques (risques de marché, risque de souscription…), fixées de telle sorte que
l’agrégation des tolérances aux risques assure que l’entreprise opère de façon cohérente avec son
appétit aux risques et ses objectifs (de rentabilité notamment).
Enfin, un point essentiel est de décliner ces tolérances en limites sur les indicateurs clés suivis par
les preneurs de risque opérationnels. Cela permet d’assurer que le cadre de l’appétit pour le
risque est bien intégré dans la gestion courante des activités de l’entreprise, et de mettre en
correspondance des indicateurs de suivi technique et des indicateurs en lien direct avec les
activités opérationnelles (gestion d’actifs, souscription, gestion des systèmes informatiques, etc.).
De manière plus synthétique, on peut observer que le déploiement d’un processus d’appétence
pour le risque dans l’entreprise conduit à mettre en place des allers-retours réguliers, d’une
appréciation globale du risque vers des contraintes opérationnelles, puis de ces contraintes, via
un processus d’agrégation, vers la mesure globale du risque.
20
PriceWaterHouseCoopers, Les assureurs français et européens face aux défis de Solvabilité, octobre 2010
I.2.3.i L’ORSA (Own Risk and Solvabilité Assessment): vers le développement d’une culture de
la gestion de risque21
Les objectifs du pilier 2, qui se traduit en pratique par la mise en place d’un système de gestion
des risques et de l’ORSA (Own Risk and Solvabilité Assessment), sont d’une part, de s’assurer que
la compagnie est bien gérée et en mesure de calculer et maîtriser ses risques, et d’autre part, de
s’assurer qu’elle est suffisamment capitalisée et à n’importe quel moment. Aussi, alors que le
pilier 1 calcule la probabilité de ruine à un an sur la base d’un portefeuille en run off et via un
ensemble de risques définis par la Commission européenne, l’ORSA a pour objet de s’assurer de la
solvabilité de l’assureur sur la base d’une vision incluant le plan stratégique de développement et
adaptée aux spécificités de l’entreprise. Cette approche constitue une évolution majeure par
rapport à Solvabilité I.
Pour mener à bien ce projet les entreprises du secteur devront mettre en place une direction
indépendante dédiée à la gestion des risques qui se chargera :
D’identifier les risques,
De mesurer les impacts financiers en cas d’occurrence des risques pour en fixer les limites,
De gérer les risques et proposer un plan de traitement (gestion interne et/ ou transfert via
la réassurance…)
Cette direction devra intervenir avant tout nouveau lancement de produit, toute modification de
garantie sur des contrats existants, tout changement de politique de l’allocation stratégique,
d’optimisation des charges de capital ou toute nouvelle opportunité de réassurance…
De plus, les entreprises devront renforcer le rôle du contrôle interne, qui jusqu’ici se limitait trop
souvent à la maitrise des frais généraux et à l’arbitrage des budgets et qui devra dorénavant
s’assurer de la traçabilité (sécurisation des fichiers, des calculs) et garantir le respect des
procédures ….
L’objectif tient en ce que les risques soient identifiés, quantifiés, traités et suivis et que ce
management soit un outil de gestion des besoins en fonds propres.
Ceci implique que des outils d’évaluation soient intégrés à la gestion de l’activité de l’entreprise.
Des outils de pilotage qui permettent de suivre les décisions prises par l’ensemble des acteurs de
l’entreprise et d’en mesurer constamment (et en temps réel) l’impact, doivent être mis en œuvre.
Le calcul de la marge de solvabilité passe aussi et avant tout par une refonte complète de la
politique de gestion des risques des entreprises.
21
C.DUMARTINET, A.MAZZANTI ; « En quoi et comment la nouvelle marge de Solvabilité européenne -Solvency II- va-t-elle changer la
gestion des risques des entreprises d’assurance européenne ?, 2010
Pour ce faire, la Directive Solvabilité II impose explicitement la mise en œuvre de l’ORSA (Own
Risk and Solvabilité Assessment), qui matérialise cette nouvelle organisation au sein des
entreprises.
L’ORSA qui comprend la mise en place de la gestion des risques et engage ainsi l’entreprise,
apparaît bien comme un outil indissociable tout aussi important que le SCR.
On peut ainsi affirmer que c’est la composante qualitative de la directive Solvabilité II alors que le
SCR en est sa composante quantitative.
L’ORSA permettra d’assurer une plus grande cohérence des stratégies, de renforcer la vision
prospective et le pilotage de l’activité des entreprises.
Il formalisera ainsi les engagements de l’entreprise vis-à-vis du régulateur en matière de garantie
de sa marge de solvabilité.
Les éléments de contrôle et de pilotage que l’organisme assureur va devoir intégrer à ce dispositif
général font appel à des indicateurs quantitatifs potentiellement nombreux, qui vont lui
permettre de définir et de piloter son profil de risque. Ces indicateurs seront, dans un premier
temps, définis d’une manière holistique, puis seront par la suite ventilé par silos (il s’agira du SCR
décliné par module de risque dans le cas de l’ORSA).
Les enjeux :
• Cartographier les risques : la détermination du profil de risque spécifique de l’entreprise
nécessite l’identification exhaustive et l’analyse approfondie de risques mal connus
souvent difficiles à appréhender
• Évaluer les risques : au-delà des risques du pilier I (relatif aux risques quantifiables), les
« autres risques » nécessita des méthodes spécifiques et ad hoc
• Mettre en place un processus ORSA intégré, dans une logique de développement
d’Entreprise Risk Management (ERM). Son succès repose sur une appréhension des
implications de la gestion des risques à l’échelle de l’entreprise et une mise en place
progressive à des fins d’appropriation.
• Respecter le formalisme réglementaire pour l’évaluation des risques et les obligations de
documentations
Les besoins :
• Évaluer de façon globale la solvabilité : détermination du capital permettant de couvrir les
provisions techniques, les capitaux réglementaires –SCR et MCR- ainsi que les besoins de
capitaux internes
• Être conforme en permanence : adéquation à tout moment du capital par rapport au
niveau des risques
• Intégrer le processus ORSA de façon continue dans les décisions stratégiques
Pour conclure cette partie, la mise en place d’un dispositif global et intégré de contrôle des
risques est l’une des conséquences les plus importantes du pilier 2 de Solvabilité II. Au-delà des
aspects procéduraux, proches dans l’esprit de la logique du contrôle interne, cette mise en place
doit s’appuyer sur un ensemble d’éléments quantitatifs aptes à fixer des limites du risque
supporté, tant globalement qu’au niveau de chaque fonction de l’entreprise.
22
Aon Global Risk Consulting, Enterprise Risk Management : intégrez la gestion des risques au cœur du pilotage de vos activités, 2011
Le « Risk Management » n’est pas uniquement réduire la probabilité de ruine de l’entreprise, c’est
aussi lui permettre d’augmenter ses opportunités de gains. C’est aussi avoir les bonnes
compétences au bon endroit et une culture d’entreprise adéquate. Instaurer une gestion des
risques d’entreprise c’est mettre en place une organisation et des méthodes afin de pouvoir
maîtriser et piloter les risques. Pour un assureur traditionnel dont le métier est justement de
prendre des risques, cela paraît fondamental.
Pour un dirigeant d’entreprise, mettre en place un cadre d’«Entreprise Risk Management» (ERM)
doit lui permettre de donner un maximum de confort sur la solidité et le respect de « l’appétit au
risque » de sa compagnie à l’égard de ses actionnaires, de son conseil d’administration, des
régulateurs et de toutes les autres parties prenantes en lien avec l’entreprise.
L’ERM est un concept assez récent pour lequel Laurent GUERAUD25 a trouvé plusieurs définitions
possibles :
23
M.CHARBONNIER, Pratique du Risk Management, Argus, 1983
24
INTERNATIONAL ACTUARIAL ASSOCIATION, Enterprise Risk Management, “All of life is the management of risk, not its elimination”
Walter Wriston, former chairman of Citicorp, October 2008
25
L.GUERAUD ; Quel est l’apport d’une gestion des risques d’entreprise chez un réassureur traditionnel européen?, 2009
Nous proposons de retenir la définition suivante : L'Entreprise Risk Management est une
technique de management destinée à aider les entreprises à gérer tous les risques auxquels elles
doivent faire face, principalement aléatoire, financier, opérationnel et stratégique. La première
étape est d'identifier et de quantifier ces risques, la seconde vise à adopter des stratégies
organisationnelles et financières pour limiter leur impact. Le but de cette technique est un
objectif d'avantages concurrentiels pour l'entreprise.
I.3.1.ii ERM & Solvabilité 2 27 : une démarche de gestion qualitative des risques
Le pilier 2 de la Directive Solvabilité II encourage ainsi les compagnies à adopter la démarche ERM
(Entreprise Risk Management) afin qu’elles soient en mesure par elles-mêmes d’apprécier et de
mesurer leurs risques.
Les exigences décrites à l’article 43 de la Directive établissent des contraintes fortes quant à la
gestion des risques à mettre en œuvre au sein des sociétés, tant d’un point de vue
organisationnel qu’en ce qui concerne les processus à adopter ou la connaissance de
l’interdépendance des risques au niveau individuel et agrégé.
L’ERM nécessite d’identifier tous les risques importants auxquels est exposée l’entreprise. Ceci
implique la construction et la maintenance d’une cartographie des risques. Celle-ci sera souvent
conçue par une approche mixte mêlant les deux méthodologies suivantes :
• Bottom-Up : approche consistant à revoir toutes les tâches élémentaires effectuées au sein de
l’entreprise afin d’identifier les risques potentiels.
• Top-Down : les risques sont définis de manière macro tels que les appréhende le top
management.
Au-delà de cette cartographie des risques, la fonction ERM doit en extraire les principaux risques
susceptibles d’avoir un impact réel sur l’activité de l’entreprise.
26
Guy Carpenter’s Enterprise Risk Analysis for Property & Liability Insurance Companies Recognized as Essential ERM Reading, 2007
27
L’Echos des actuaires, Enterprise Risk Management au sein de Solvabilité II, Décembre 2009
• Acceptation
• Transfert : par la réassurance ou la titrisation
• Réduction : par la revue des processus internes
• Évitement : par la sortie d’un marché par exemple
Figure 31 : Principes fondateurs de l’ORSA : renforcer le dispositif et la culture de gestion des risques.
Source : Actuaris
28
Actuaris, Comment mettre en place et conduire un processus ERM ? Congrès IA, le 23 Juin 2010
Le COSO 1 propose un cadre de référence pour la gestion du contrôle interne. Le contrôle interne
est un processus mis en œuvre par le conseil d’administration, les dirigeants et le personnel d’une
organisation, destiné à fournir une assurance raisonnable quant à la réalisation des objectifs
suivants :
Le COSO 2 propose un cadre de référence pour la gestion des risques de l’entreprise (Entreprise
Risk Management Framework). La gestion des risques de l’entreprise est un processus mis en
œuvre par le conseil d’administration, les dirigeants et le personnel d’une organisation, exploité
pour l’élaboration de la stratégie et transversal à l’entreprise, destiné à
Il apparaît que le COSO 2 inclut les éléments du COSO 1 au travers du troisième point et le
complète sur le concept de gestion des risques. Le COSO 2 est basé sur une vision orientée risques
de l’entreprise.
• Prise en compte systématique des risques dans l’étude des options/scénarios stratégiques
• Intégration de la maîtrise des risques dans les objectifs des dirigeants et du management
• Processus d’anticipation par identification des événements susceptibles d’affecter la réalisation
des objectifs (positivement = opportunités, négativement = risques)
L’environnement interne
Au travers du référentiel COSO 2, il est demandé à l’organisation d’avoir une vision de ses risques
sous forme d’un portefeuille. Ce portefeuille doit caractériser les risques à chaque niveau de
l’organisation. La compilation du portefeuille permet donc d’avoir une vision globale des risques
de l’organisation. Cette vision pourra alors être rapprochée du ”Risk Appetite” défini pour
l’organisation.
• de mettre en évidence des risques qui peuvent être tolérés au niveau d’une unité mais
qui en s’additionnant seraient plus dans les limites du « Risk Appetite » défini pour
l’organisation.
• d’appréhender des événements potentiels (au niveau global) plutôt que des risques et
donc de mieux comprendre comment les risques interagissent entre eux au niveau de
l’organisation. Par exemple, une baisse des taux d’intérêt pourrait affecter positivement
le coût du capital mais négativement les produits de taux.
Identification
Identifier un risque c’est déterminer son appartenance (projet ou entité) et son importance. Il est
donc nécessaire au préalable d’avoir défini tous les niveaux de l’organisation et les différents silos
métier et unités opérationnelles de l’entreprise. C’est ensuite une approche délibérée pour
identifier, au plus fin de chaque activité de l’organisation, les risques potentiels, en se concentrant
sur les risques qui impacteraient le plus dangereusement les activités au niveau de la profitabilité
de l’entreprise.
Il existe plusieurs classifications possibles suivant les métiers, qui s’accordent toutes autour des
grandes catégories de risques suivantes :
• Les risques métiers (ou d’assurance): risques liés à l’exercice même du métier. Par exemple pour
un assureur le risque des sinistres extrêmes (comme ceux dus aux catastrophes naturelles) ou
d’insuffisance dans l’évaluation des provisions
• Les risques financiers : ce sont des risques qui ont un impact sur le résultat financier de
l’entreprise. Cela inclut les risques de marché (actions, immobilier, change, etc..), de crédit
(obligations, contreparties en réassurance ou en rétrocession), les risques de liquidité des actifs
détenus
• Les risques opérationnels : liés à des processus internes à l’entreprise (fraudes, erreurs,
interruption des systèmes d’information, perte sur portefeuille) ou à des événements externes
(sinistres catastrophes affectant les locaux de l’entreprise, évolution de la jurisprudence,…)
• Les risques stratégiques : souvent inclus dans les risques opérationnels mais qui peuvent être
considérés comme une catégorie à part entière. Ce sont les choix (ou non choix) fondamentaux
que va faire une entreprise. Certains facteurs sont externes (environnement économique,
politique et juridiques…),
L’exposition d’un portefeuille Dommage aux risques majeurs porte principalement sur le risque
métier. Toutefois dans le cadre de notre démarche, et en conformité avec la démarche holiste de
prise en compte du risque introduite par le référentiel COSO 2 et la Directive Solvabilité II, la
solution qui sera proposée dans la 3ème partie consistant à la mise en place d’une plateforme
géodécisionnelle porte sur l’ensemble des risques décrits ci-dessus.
Évaluation du risque:
• Une approche déterministe, basée sur des observations de faits avec des ajustements pour
prendre en compte certaines tendances. (Cf. modèle Coventéo, II.2.3.ii)
• Une approche stochastique, basée sur une modélisation probabiliste et des simulations de
Monte Carlo. (Cf. les projections établies par le GIEC / FFSA en matière de périodes de retour
d’événements type inondations / tempêtes, I.1.2.ii)
• Une approche « scenarii extrêmes » qui fait appel aux connaissances et à l’imagination des
experts pour le risque concerné.
Des corrélations peuvent exister entre différents risques. Il faut donc les déterminer. A partir de
l’ensemble de ces éléments, il est possible d’établir une mesure.
Notons que pour établir une estimation d’exposition d’un portefeuille de risques à un aléa donné,
les approches sont cumulatives. En matière de tempête, l’approche déterministe permettra
d’établir le coût d’un événement défini par une approche stochastique ou pour un Sinistre
Maximal possible (SMP).
3.3 Intégrer les risques et leur gestion au pilotage de l’activité de l’entreprise d’assurance
Procéder à l’évaluation des risques implique une analyse des facteurs endogènes et exogènes
spécifiques au portefeuille étudié.
Sur un mode plus prospectif, l’analyse d’un portefeuille peut permettre de mieux anticiper qu’elle
pourrait être l’exposition des risques au regard d’aléas identifiés. A défaut de sinistres ayant déjà
été enregistrés, il est ainsi possible de déterminer le niveau d’exposition du portefeuille au regard
de zones inondables, sismiques, etc.
L’appréciation du risque doit se faire sur la base d’une analyse de facteurs propres au portefeuille
(cibles commerciales, zones de souscription, typologies d’assurés, éléments socio économiques
relatifs au public assuré, etc.) et au regard des facteurs extérieurs, notamment aux aléas qui
composent l’environnement du portefeuille (I.3.2.i).
L’appréciation du risque dépend aussi de la fonction métier qui l’appréhende au sein d’une
société d’assurances.
Nous souhaitons que le risque puisse être appréhendé de façon holiste, tant dans les spécificités
de chaque police qu’au regard de l’environnement du risque, mais également de façon intégrée et
transversale à l’ensemble des métiers et acteurs de l’entreprise.
Figure 35 : Intégration transversale du risque au sein d’une société d’assurance non vie. Source :
C.DUMARTINET, Groupe COVEA
Cela signifie que la gestion du risque est intégrée dans l’environnement de chaque collaborateur,
à chaque niveau de l’entreprise. L’intégration de la gestion du risque à chaque métier permet
d’approfondir la corrélation entre l’identification des risques et de leurs aléas, leur correcte
tarification et souscription, de sécuriser la charge sinistre par une maîtrise des coûts
indemnitaires et d’optimiser les transferts de risques par une politique de réassurance adéquate.
L’ERM tel que décrit précédemment ne peut être mis en place que par une stratégie intégrée,
cohérente avec l’environnement interne et la démarche induite par le référentiel COSO 2.
Les risques majeurs ont une dimension spatiale et géographique dont dépend l’exposition d’un
portefeuille de risques.
Nous l’avons constaté, la dimension spatiale d’un portefeuille de risques est essentielle pour
appréhender l’exposition d’un portefeuille de risques pouvant être impactés par des événements
localisés.
Comment intégrer la dimension spatiale d’un portefeuille de risques si la géographie, les facteurs
externes au portefeuille ont un rôle impactant dans la sinistralité face aux risques majeurs ?
Les modèles de marché d'évaluation des sinistres sont fréquemment utilisés pour définir les
besoins en réassurance par rapport aux risques. Mais comment décider de l'achat d'une
couverture de réassurance si un modèle indique un besoin en couverture de 50 M€ pour faire
face à un sinistre tempête dont la récurrence est de deux cents ans alors qu'un autre modèle
évalue le même risque à 100 M€ ? De telles divergences ne sont pas rares entre les différents
modèles les plus courants. Ceci n'est pas seulement le cas en France, mais également sur tous les
autres marchés européens concernés. Les souscripteurs de réassurance ont dû apprendre à s'en
contenter. Mais la situation reste très insatisfaisante.
Les données peuvent également être exploitées pour l'analyse d'un portefeuille d'assurance
dommage, ne serait-ce que pour définir la part d'exposition par zone géographique. Une
comparaison avec les autres sinistres survenus dans la même zone géographique peut mettre à
jour certains avantages et inconvénients territoriaux au sein du portefeuille d'assurance. Ainsi, la
part d'exposition dans une zone peut être de 5 %, mais de 10 % en ce qui concerne la part des
sinistres. Pourquoi ? Cette zone présente-t-elle une plus grande vulnérabilité au risque dans le
portefeuille ? Existe-t-il des problèmes liés au règlement des sinistres ? Ces questions amènent
alors la suivante : la prime correspond-elle vraiment au risque ?
Ces constatations qui peuvent être faites à partir des données marché peuvent trouver une
première réponse dans l’analyse spatiale de données. Des outils et des modèles peuvent
s’appuyer sur des technologies comme les Systèmes d’Information Géographiques.
À ce stade, il convient d’explorer les solutions existantes sur le marché, les expériences déjà
menées par certains acteurs et d’apprécier dans quelle mesure il est possible aujourd’hui d’en
relever les défis.
L’objet de ce chapitre est de présenter les principaux outils et modèles du marché afin de
savoir si les solutions existantes répondent aux besoins exprimés précédemment en
matière de gestion transversale des risques, à savoir :
- Être en mesure de mieux connaître son exposition afin de déterminer son niveau
d’engagement et ses besoins en fonds propres. Ce besoin fait appel au développement de
modèles.
- Être capable d’améliorer transversalement la gestion de ses risques, de la tarification à
la gestion sinistres en passant par la souscription avec la mise en place d’une démarche
Entreprise Risk Management.
1.1 Les modèles de marché : une 1ère réponse à l’évaluation d’exposition de portefeuilles
II.1.1.i Benchmark des modèles de marché RMS, EQECAT, AIR: l’approche traditionnelle issue
des besoins en réassurance
Trois principaux modèles sont utilisés par l’ensemble des assureurs et réassureurs au niveau
mondial. Il s’agit des modèles EQECAT29, RMS30, AIR31. Ils permettent d’appréhender de manière
globale l’exposition d’un portefeuille par rapport à un péril climatique ou un événement sismique.
L’élaboration de modèles de marché de plus en plus performants constitue ainsi pour les
assureurs une grande avancée.
Ces agences de modélisation 32 construisent des modèles basés sur les sciences physiques,
l’actuariat et les statistiques afin d’estimer les dommages causés par différents scénarios de
catastrophes. De manière générale, ces modèles utilisent des techniques de type Monte-Carlo
afin de simuler un grand nombre de trajectoires de pertes causées par les ouragans dont les effets
sont appliqués à une base de données de biens assurés auxquels est exposée une obligation
donnée.
Une telle modélisation permet, in fine, d’estimer la distribution des pertes pour une obligation et
une catastrophe donnée et donc de valoriser les obligations catastrophes.
À ce titre, l’agence RMS, qui réunit depuis 2004 une cohorte de scientifiques spécialisés sur les
questions climatiques, est parvenue à dégager un consensus selon lequel au cours des 10 à 20
29
EQECAT : http://www.eqecat.com
30
Risk Management Solutions : http://www.rms.com
31
AIR Catastrophe Modeling : http://www.airworldwide.com/_Public/html/catmodeling.asp
32
http://www.ensae.org/gene/main.php?base=38&base2=1&detail_article=748
L’ensemble de la profession salue la pertinence des outils et les moyens mis en œuvre sur ces
thèmes. Cependant il est aussi admis que ces outils présentent des limites33.
La principale repose essentiellement sur l’incertitude des probabilités résultant de ces simulations.
James Orr34, spécialiste de la modélisation de catastrophe à la Lloyd’s of London, estime qu’une
des principales sources d’amélioration concerne les périodes de retours des événements. Orr
souligne les insuffisances de ces modèles :
- insuffisance de données homogènes, précises et longues sur les périls : des appareils de mesures
ont été ajoutés pour l’analyse des séismes et des tempêtes depuis quelques décennies ce qui
complique l’analyse de séries longues ;
- insuffisance des informations : manque d’information sur les sinistres par exemple pour le
calibrage de fonctions d’endommagement. Il est alors nécessaire de reconstituer ces fonctions sur
différentes hypothèses ou bien d’utiliser des fonctions d’endommagement d’autres pays en
faisant des recoupements hydrologiques, atmosphériques ;
Dans la pratique les résultats des simulations sont utilisés dans les pays anglo-saxons comme
support à la discussion et à la négociation entre assureurs et réassureurs sur les catastrophes
naturelles car il s’agit d’outils riches en information permettant de donner plus de lisibilité sur
l’impact potentiel des aléas.
33
http://www.propertycasualty360.com/2011/01/21/rms-air-eqecat-respond-to-near-term-model-criticis
34
Lloyds.com; Valuable research rewarded with Science of Risk prize
1.2 Des initiatives de marchés : nécessaires mais pas suffisantes pour apporter une
réponse holiste à la gestion des risques d’une société d’assurance non vie
II.1.2.i Des apports en matière d’information et de lobbying sur le champ non concurrentiel
Autre exemple d’outil laissé à disposition des assureurs, Cartorisque (prim.net), site internet
émanant du Ministère de l’Ecologie, de l’Energie, du Développement Durable et de
l’Aménagement du territoire, sur lequel sont publiées les cartes des risques naturels et
technologiques majeurs.
35
www.prim.net
Le principal objectif de cet outil est « d’améliorer l’accessibilité des cartographies sur les risques
dans une logique de culture du risque ».
Les informations disponibles sont en libre accès et proviennent principalement des services
déconcentrés de l'État, sous l'autorité des préfets concernés.
Cet outil d’information donne des informations cartographiques sur les zones inondation, la
localisation des Plans de Prévention des Risques Naturels (PPRN) et est souvent utilisé par les
professionnels du secteur de l’Assurance en tant qu’outil d’aide à la souscription ainsi que par les
populations souhaitant des précisions sur leur secteur.
informations préventives avec la publication des cartes de synthèse des inondations, des
zones de sismicité, des arrêtés catastrophes naturelles et des phénomènes avalancheux
informations acquéreurs et locataires
la liste des Plans de Prévention des Risques
Figure 38 : Base de données Gaspar, juillet 2009 - IGN, BD Carto© limites communales, Source : MEEDDM
,
Ce site est utile pour les assureurs car il permet d’obtenir une cartographie rapide de leurs
portefeuilles.
En fonction des informations recueillies comme par exemple, le nombre de PPR dans la zone, les
assureurs peuvent adapter leur politique de souscription et la tarification adéquate.
Par ailleurs, les données ne sont pas actualisées régulièrement, ce qui peut contribuer à remettre
en doute la fiabilité des informations recueillies.
La MRN, créée par la FFSA et le GEMA, a pour objet de contribuer à une meilleure connaissance
des risques naturels et de permettre à la profession de l’assurance d’apporter une contribution
technique aux politiques de prévention.
Grâce à son équipe polyvalente dirigée par Roland Nussbaum, la MRN apparaît comme la
structure légitime pour aider les assureurs et les autres acteurs dans la gestion des risques
naturels.
La MRN a des fonctions diversifiées et déploie son activité dans trois domaines qui sont fortement
interdépendants:
- Des études menées avec divers travaux portant sur la connaissance, l’analyse et la
modélisation des risques naturels
- Des services apportés aux sociétés avec la mise à disposition par exemple d’un géo service
d’aide à l’analyse de l’exposition de sites assurés aux aléas naturels pour les assureurs
intervenant dans les risques industriels et commerciaux
• Les études techniques permettent de traiter des données à la fois sur les aléas et sur les
enjeux afin de fournir aux assureurs des éléments d’observation sur l’exposition des enjeux aux
risques naturels en particulier pour l’inondation et la sécheresse.
En France l’analyse détaillée du risque est rendue difficile de part l’hétérogénéité des données qui
fait que suivant les régions les méthodes de modélisation utilisées sont parfois différentes et
l’interprétation peut donc diverger d’un point à un autre du territoire.
De plus certains bassins de risques ne sont pas modélisés ou alors la modélisation existe mais
n’est pas diffusée dans un format exploitable pour réaliser des traitements de qualité. Il n’y a
donc pas véritablement d’outil commercial ou public permettant de faire du zonage du risque ou
du diagnostic.
Cependant, comme l’explique Jérôme CHEMITTE36, la MRN a acquis depuis sa création des
connaissances aussi bien concernant les aléas en collectant l’ensemble des données numériques
auprès des pouvoirs publics que concernant les technologies exploitant l’information
géographique. Les résultats sont des valeurs quantitatives mesurables à partir de données
statistiques géoréférencées à différentes échelles (des lots d’adresses, des codes d’îlots de
recensement de l’Institut National de la Statistique et des Etudes Economiques (INSEE), des codes
Insee des communes). Les enjeux analysés sont les logements des particuliers, les sites des
professionnels et des entreprises.
Les études techniques consistent aussi à réaliser des traitements sur un portefeuille d’assuré, à
partir d’un fichier d’adresses qui sera ensuite géocodé puis confronté aux données sur les aléas
regroupées au sein de la MRN. Un rapport détaillé par type de zone est remis par la suite à la
société propriétaire du portefeuille d’assurés.
36
J.CHEMITTE ; Adoption des technologies de l’information géographique et gestion des connaissances dans les organisations, 2008
Enfin, il inclut les résultats des traitements effectué par la MRN pour la commune concernée;
nombre de logements, nombre de professionnels, nombre d’entreprises. Afin de rendre
homogène la lecture de ces rapports des seuils de vigilance ont été établis par la MRN à partir de
plusieurs critères tels que le type de modélisation de l’aléa, la qualification et la quantification de
l’intensité de l’aléa pour rendre compte du niveau de risque de la zone en s’affranchissant de la
complexité des données sources.
La limite de l’outil mise à disposition réside dans la qualité des informations récupérées par la
MRN, principalement sur les sites ministériels (Cartorisque) ou auprès des agences de bassin. Les
données actuellement disponibles sont hétérogènes et se limitent aux bassins de risque pour
lesquels des données cartographiques sur les aléas sont disponibles et exploitables ce qui n’est
pas le cas pour tous les départements français.
37
www.mrn.asso.fr
Ses travaux ont permis de montrer une progression de la part de sinistralité économique prise en
charge par les assureurs du fait par exemple d’une augmentation des constructions en zones
inondables.
Pour ce faire et dans l’optique d’aider les assureurs, la MRN met à leur disposition l’usage du
Système d’Information Géographique MRN pour leur permettre de connaître le degré
d’exposition de leur portefeuille à un risque naturel. Cependant, la MRN rencontre parfois des
difficultés pour obtenir des assureurs des données de sinistralité affectant leur portefeuille.
II.1.2.ii Les efforts fournis par les acteurs de la réassurance par la production de modèles ne
permettent toutefois pas de répondre aux besoins spécifiques des sociétés d’assurance en
matière de gestion globale des risques
Outre les initiatives prises dans le domaine non concurrentiel, les acteurs de la réassurance ont
fortement investi dans la production de modèles plus spécifiques à un marché visant à compléter
les études fournies aux cédantes sur la base des modèles de marché précédemment cités. Les
réassureurs et notamment les courtiers, y ont vu des opportunités à acquérir ou développer des
outils plus spécifiques aux portefeuilles de sociétés d’assurances et adaptés aux problématiques
de réassureurs.
Les deux principaux courtiers de réassurance présents sur le marché français sont Guy Carpenter
et Aon Benfield. Chacun se positionne différemment sur l’offre de produits et services à
destination des sociétés d’assurances mais tous concentrent leurs efforts sur les outils de
modélisation des risques naturels.
En effet, les agences de modélisation (AIR, RMS, EQECAT) n’ont à ce jour pas encore investi le
marché français des risques naturels en raison de la présence du régime Catnat, par manque de
perspectives sur un marché contraint par le partenariat avec les pouvoirs publics. Seul des
modèles tempêtes voire séisme sont disponibles (Cf. II.1.1)
Depuis l’épisode sécheresse de 2003, Guy Carpenter s’est positionné sur les risques de subsidence.
Il propose depuis 2006 un modèle (GCAT) probabiliste d’évaluation de l’exposition de portefeuille
en s’appuyant sur les données d’aléa retrait gonflement des argiles produites pour le compte des
Pouvoirs publics par le Bureau de recherches géologiques et minières (BRGM), et des données
pluviométriques de MétéoFrance.
Ce programme de modélisation est l’aboutissement d’un ambitieux projet débuté en 2008, mené
en collaboration avec le cabinet d’expertise hydrologique et hydraulique JBA Consulting et le
fournisseur de matériels numériques 3D Intermap Technologies.
Figure 41 : Modélisation des inondations par JBA pour le compte de Guy Carpenter, Source : Guy
Carpenter, 2009
Cet outil se démarque de ses concurrents car il intègre les cartes d’aléa des 80 000 km de cours
d’eau français avec 200 000 points de débordement.
Il s’agit aussi d’un Modèle Numérique de Terrain (MNT) basé sur une grille horizontale d’un pas
de 5 mètres, permettant 22 milliards de points de modélisation
Il tient compte d’un environnement bâti et des fonctions de vulnérabilités spécifiques au paysage
urbain français.
Ce modèle appelé G-CAT permet d’analyser les risques d’inondation pour un portefeuille donné et
propose une approche de modélisation probabiliste, spécifique pour chaque typologie
d’inondation.
Un système de géolocalisation permet de placer les différentes composantes d’un portefeuille sur
la carte de France ou de manière plus précise, sur le quartier d’une ville, voire une adresse.
Le jeu d’événements stochastiques inclut 4 000 scénarii potentiels et a été développé afin de
refléter la nature de la corrélation spatiale et temporelle des débits entre les bassins
hydrographiques.
Il a été construit à partir de 50 années d’observations de débits en utilisant la théorie des
statistiques des valeurs extrêmes et représente l’équivalent de 1 000 ans de données
d’observation.
Le modèle contient également les zones inondées observées lors de 14 événements historiques
qui se sont produits en France au cours des 150 dernières années.
Les événements historiques sont indépendants du jeu d’événements stochastiques, mais ils
peuvent être utilisés pour évaluer les sinistres causés par les inondations sur la base de scénarii
individuels.
Ils peuvent également être reportés sur la fonction de répartition des sinistres du portefeuille afin
de servir de points de référence permettant de valider les pertes générées par le jeu
d’événements stochastiques.
Une modélisation des autres types d’inondation a également été effectuée pour les inondations
par ruissellement des eaux pluviales et par remontées de nappes phréatiques.
Cette modélisation a été réalisée pour 43 grands centres urbains (représentant environ 50 % de la
population française), en étudiant les interactions physiques entre les composants du climat, du
sol et du niveau d’eau des rivières.
Cette approche permet d’affiner les estimations du risque de crue basées uniquement sur la
composante inondation de plaine.
L’environnement bâti est une base de données haute résolution des constructions existantes, et
constitue un composant essentiel du modèle. Cette base de données permet de redistribuer
spatialement les expositions fournies à une résolution peu élevée (code postal ou municipalité) et
fournit également une représentation précise des caractéristiques structurelles parfois
manquantes dans les données d’exposition originales.
L’aspect novateur des courbes de ce modèle est que les fonctions tiennent compte de
l’importance de la contribution de sinistres d’un montant relativement faible sur le profil global
de pertes.
Guy Carpenter collabore actuellement avec un consultant extérieur afin d’affiner les paramètres
de l’approche qui influencent le plus les dommages causés aux constructions par les inondations.
Le modèle d’inondation français accepte des données de portefeuilles à tous les niveaux de
résolution.
Le module de désagrégation à haute résolution permet l’import et le traitement de données à
basse résolution, mais le modèle permet également d’importer des portefeuilles géocodés à
l’adresse.
Figure 42 : Comparaison des données hydrauliques disponibles sur les portails publics (Cartorisque,
SIGMRN) et les données hydrauliques issues de développements privés (JBA pour Guy
Carpenter). Source: Group COVEA
En dépit d’une approche très qualitative de cet aléa, il est possible de noter 2 principales limites à
ce modèle inondation : malgré la très grande précision du MNT utilisé, et de la qualité de
modélisation hydraulique effectuée par JBA, la qualité de renseignement des portefeuilles des
cédantes et l’absence d’un véritable modèle d’endommagement spécifique à l’habitat local font
défaut.
Elle dispose:
Elle a mis en place une base de données, qui consiste à collecter systématiquement auprès des
assureurs des données sur les risques et les sinistres en retenant comme critère le lieu et le coût
des sinistres.
Cette base de données regroupe deux types de données, un fichier des risques assurés et un
fichier des sinistres.
Par la suite, le traitement des données s’ordonne autour de quatre phases qui sont la réception,
le contrôle, le géocodage et l’exploitation des données.
Figure 43 : Étapes clés du traitement des données reçues par la CCR. Source : J. CHEMITTE
• d’un outil cartographique appelé E-carte, accessible depuis Internet, visant à présenter par
commune et par péril le montant cumulé des sinistres indemnisés au titre des catastrophes
naturelles depuis 1995. Celui-ci a été remplacé courant 2008 par une version améliorée appelée
CERES permettant de se positionner à partir d’une adresse et représentant approximativement la
situation géographique des sinistres indemnisés proportionnellement à leur montant à l’aide de
zones concentriques ;
Ce site propose :
Il convient de noter que Cérès est un outil cartographique « statique », qui restitue des cartes
élaborées par les équipes de la CCR (géocodages de portefeuilles, cartographies d’aléas sur la
base des données publiques disponibles, etc.).
L’utilisateur n’a pas la possibilité d’exploiter les cartes pour mener des analyses spatiales comme
les Systèmes d’Information Géographiques le permettent. Cette limite s’explique par le souhait de
rendre ces cartes accessibles de façon simple et intuitive par des utilisateurs « grand public ».
Dans le paragraphe II.2.1.i consacré aux typologies d’utilisateurs de SIG, nous verrons que selon
Marc RIEDO38, l’utilisation d’un portail de type Cérès est destiné à des « consommateurs de
représentations spatiales et utilisateurs occasionnels » pour des fonctions de « visualisation et
représentation spatiale »
Nous étudierons dans les 2 derniers chapitres une manière de combiner accessibilité et analyse
spatiale poussée par un public non averti.
• d’un modèle d’évaluation a posteriori du coût d’un événement inondation, appelé ARTEMIS.
Les objectifs sont :
o L’estimation quelques jours après la survenance d’une crue de son coût afin de
déterminer le provisionnement nécessaire ;
o La modélisation de manière déterministe de l’exposition de l’Etat, de la CCR et des
cédantes à des crues historiques.
Ce modèle étant basé sur une approche géomatique, nous proposons de revenir sur la
modélisation effectuée par la CCR dans le chapitre dédié à la modélisation des risques Cat en
France (Cf. II.2.3.i) afin d’illustrer notre propos.
1.3 Outils internes Vs outils de marché : des attentes d’outils propres à chaque
portefeuille et dédié aux besoins spécifiques de chaque assureur
38
M.RIEDO, Typologie et connaissance des logiciels SIG, Cours de l’EPFL, 2005
Or les risques technologiques ne font pas partie du périmètre d’étude de la Mission des Risques
Naturelles. Sur la base de l’intérêt que représente le rapport d’exposition du portail de la MRN
pour un souscripteur, des initiatives d’acteurs du marché pourraient être prises pour poursuivre
les efforts entrepris et compléter les dispositifs de gestion et de connaissance des risques.
Nous pourrions également prendre l’exemple du risque tempête qui, étant hors régime CatNat,
ne rentre pas dans le champ d’étude de la MRN.
Pour ce faire, l’objectif d’un département « Gestion des risques » est double :
• Protéger l’entreprise en élaborant les stratégies adaptées pour apporter une réponse adéquate
face aux risques les plus importants ; c'est-à-dire identifier les risques potentiellement critiques et
quantifier leurs impacts afin de s’assurer que la tolérance au risque du réassureur est bien
respectée.
La gestion des risques s’inscrit donc pleinement dans la stratégie d’entreprise. Un assureur doit
principalement se focaliser sur les risques de son cœur de métier c'est-à-dire la tarification,
souscription, les cumuls et l’évaluation des réserves, la gestion sinistres et le transfert de risques.
L’un des enjeux du métier d’assureur est la souscription au cours de laquelle il faut bien
appréhender le prix réel du risque tout en veillant à maîtriser son cumul de risques sur une zone
géographique ou un marché donné.
Comme le déclare Patrick THOUROT39, Chief Operational Officer de SCOR Global P&C : «Notre
préoccupation est de gérer le contrôle et le cumul des risques, de les voir, tous et à temps![…]».
Il parait donc difficile, pour appréhender la vision globale de l’exposition d’un portefeuille de
risques à l’ensemble des aléas, de pouvoir s’appuyer sur les solutions marché existantes, même si
ces dernières présentent de véritables avancées pour le secteur.
39
Entretien accordé à L.GUERAUD en juillet 2008
Structurer la gestion des risques d’entreprise doit permettre de répondre à ces besoins. Mettre
en place un cadre ERM c’est en quelque sorte participer au besoin de pilotage d’une entreprise.
Le choix d’un modèle interne passant par l’approfondissement des risques et le renforcement de
leur gestion présente également un autre avantage majeur que les modèles de marché ne
peuvent prétendre offrir aux sociétés qui en font l’option : l’avantage concurrentiel.
En effet, disposer d’outils et de modèles en adéquation avec son portefeuille peut présenter un
fort intérêt en matière de souscription et de gestion sinistres, en optimisant les coûts de transfert
en réassurance, procurant in fine une tarification de produit pouvant être plus compétitive que
ceux proposés par la concurrence.
I.1.3.ii Valoriser les données propres à un portefeuille au regard d’éléments externes pour
une meilleure analyse d’exposition aux risques majeurs
Dans notre optique de personnaliser les solutions de marché, l’objet est ici de décrire les attentes
en termes de caractéristiques fonctionnelles pour répondre aux besoins plus spécifiques de
chaque assureur souhaitant approfondir l’analyse des risques.
L’analyse, notamment des risques majeurs, repose sur le suivi d’indicateurs sur la vulnérabilité
d’un portefeuille spécifique, de contrats et garanties propres, d’une politique de règlement
sinistres pouvant avoir un impact important sur les coûts, etc.
Un indicateur est entendu comme une variable ayant pour objet de mesurer ou d’apprécier un
état ou une évolution d’un phénomène. Ce doit être une information simple (facilement
compréhensible) qui peut-être quantifié de manière claire, reproductible et rapide et doit
synthétiser des phénomènes complexes à différentes échelles (parcelles, exploitation agricole,
région, etc.…).
Les indicateurs sont adaptés à la situation de l’entreprise et fournissent des informations au sujet
d’un système complexe en vue de faciliter sa compréhension aux utilisateurs de sorte qu’ils
puissent prendre des décisions appropriées pour l’atteinte des objectifs.
La consolidation des indicateurs repose sur l’intégration de données hétérogènes.
Afin de restituer des valeurs tangibles pour chaque indicateur, il faut que le décideur ou l’analyste
puisse s’affranchir de ces contraintes sur les données et se concentre uniquement sur l’analyse en
elle-même. Au niveau technologique cela nécessite de pouvoir en amont prendre en compte les
spécificités des données afin de les extraire, les transformer et les rendre présentables dans un
ensemble cohérent aux utilisateurs finaux.
L’analyse doit ainsi être construite « sur mesure », de facon à répondre aux besoins spécifiques de
chaque entité de l’entreprise, pour les besoins de chaque analyste.
Comme nous le verrons en détail dans la 3ème partie, la conception d’un modèle interne ou
d’outils développés pour les besoins d’entités opérationnelles impose une réflexion préalable
indispensable à la création de valeur ajoutée pour l’entreprise. Les indicateurs utilisés dans le
pilotage de chaque entité opérationnelle montre que les attentes de solutions sont spécifiques
dans chaque métier de chaque entreprise. A défaut de pouvoir développer une vision holiste du
risque, les outils de marché peuvent difficilement répondre aux besoins particuliers de chaque
utilisateur.
Les outils décrits dans ce chapitre montrent qu’il existe des services informatiques permettant
aux assureurs d’évaluer les risques avec des contraintes particulières :
- Les outils d’inventaires permettent aux assureurs de récupérer progressivement les données
publiques brutes disponibles sur le territoire et de faire en interne leurs propres évaluations de
l’exposition de leur portefeuille. Cela implique de mettre en place une méthodologie et des
modèles de calculs pour prendre en considération l’hétérogénéité et l’absence de données pour
couvrir l’ensemble du territoire.
- Les modèles de catastrophes permettent de fournir une base de négociation pour la réassurance
mais les modèles différent suivant les fournisseurs, les incertitudes sont fortes sur chacun des
modules quant aux valeurs des probabilités. En France les principaux aléas que sont la tempête,
l’inondation et la sécheresse sont modélisés plutôt suivant une approche déterministe (suivant
des scénarios majorants).
- Les outils de diagnostic et de zonage du risque n’ont pas encore fait l’objet de réflexions et
d’études suffisamment abouties dans le secteur de l’assurance française. Des outils très
spécifiques et propres à chaque société méritent d’être développés.
Les outils développés par la MRN suscitent un intérêt auprès des sociétés d’assurance françaises
qui ont amorcé une phase d’appropriation de la technologie en déployant ce module
technologique pour des populations ciblées de souscripteurs.
Toutefois, les outils et modèles de marché apportent des réponses partielles et segmentées aux
problématiques de gestion de risques d’un portefeuille d’assurance non vie. L’approfondissement
de la connaissance de ses risques passe par la valorisation des éléments propres par l’entreprise
au regard de facteurs externes, notamment par une appréhension spatiale, géographique et socio
économiques, éléments discriminants de l’exposition d’un portefeuille de risques.
A contrario, le choix des modèles de marché limite l’approfondissement de l’entreprise de sa
connaissance du risque et restreint le processus visant à intégrer la gestion du risque de façon
systématique et compréhensive.
Les systèmes d’Information Géographique, déjà largement utilisés par les services de
géomarketing des sociétés d’assurance, semblent particulièrement adaptés aux problématiques
de gestion des risques de par leur analyse spatiale.
De plus, cette technologie rend plus accessible la création d’outils ; des solutions internes peuvent
aujourd’hui être développées par les acteurs de l’assurance pour leur besoins spécifiques.
2.1 Intérêt des Systèmes d’Information Géographiques (SIG) pour l’appréhension spatiale
d’un portefeuille de risques
II.2.1.i Les SIG permettent l’intégration des données hétérogènes et leurs analyses spatiales
Le Mercator, ouvrage de référence en marketing, rappelle que « toute prise de décision nécessite
la connaissance préalable de données sur lesquelles s’appuyer. Ainsi la prise de décision en
Marketing nécessite au préalable « une connaissance du marché, pour pouvoir s’y adapter et
l’influencer ».
Cette citation s’applique à tous les métiers d’une société d’assurances dont la prise de décision
doit reposer sur des données à la fois internes et externes à l’entreprise, afin de replacer le
portefeuille de risques assurés dans son environnement et son contexte.
Selon une définition donnée par Élisabeth HABERT40- Laboratoire de cartographie appliquée- un
système d'information géographique (SIG) est un système d'information capable d'organiser et de
présenter des données alphanumériques spatialement référencées, ainsi que de produire des
plans et des cartes. Ses usages couvrent les activités géomatiques de traitement et diffusion de
l'information géographique.
Pour Jérôme CHEMITTE41, la définition du concept de SIG est rendue difficile par les nombreuses
appellations voisines qui se substituent parfois au terme de SIG et les différentes significations qui
lui sont attribuées.
J. DENEGRE J. et F. SALGE42 indiquent qu’en tant qu’outil, les SIG comportent des fonctions de
saisie des données géographiques sous une forme numérique (Acquisition), un système de
gestion de ces données (Archivage), des fonctions de manipulation, de croisement, et de
transformation de ces données spatiales (Analyse) et des outils de mise en forme des résultats
(Affichage).
40
E. HABERT, Laboratoire de cartographie appliquée –- IRD – 2000,
http://www.cartographie.ird.fr/publi/documents/sig1.pdf
41
J.CHEMITTE, Adoption des technologies de l’information géographique et gestion des connaissances dans les organisations, 2008
42
DENEGRE J., SALGE F., Les Systèmes d’Information Géographique, PUF, coll. Que sais-je? n° 3122, 2004
Figure 45 : Schéma de principe des SIG de J. DENEGRE J. et F. SALGE, 1996, Source : J.CHEMITTE
Figure 46 : Les différents types d’usage des SIG et le cycle de vie d’une application, Source : J.CHEMITTE
Un SIG de type étude ou aide à la décision a pour objet de mettre en évidence des faits spatialisés,
de réaliser des analyses, de chercher des solutions à des problématiques, de comparer des
scénarios, etc. Le type gestion-suivi exploite des informations géographiques dans le cadre de
procédures établies à des fins de gestion.
Dans le même ordre d’idée, M. RIEDO 44 suggère de partir d’une certaine hiérarchie des
utilisateurs pour mettre en évidence la segmentation du marché des logiciels de SIG.
43
P.BORDIN ; SIG concepts, outils et données. Lavoisier, 2002,
44
M.RIEDO, Typologie et connaissance des logiciels SIG, Cours de l’EPFL, 2005
Un Système d’Information Géographique permet donc de gérer des données, que l’on a placées
géographiquement sur un fond de carte. Ces bases de données peuvent ensuite être interrogées
pour effectuer des analyses statistiques, avec l’avantage supplémentaire d’une visualisation
synthétique et spatiale propre aux cartes.
Figure 48 : Illustration de données pouvant servir dans l’analyse d’un portefeuille de risques aux aléas
climatiques et technologiques ; Source : C. DUMARTINET
Un SIG stocke les informations concernant le territoire sous forme de couches thématiques
superposables pouvant être reliées les unes aux autres par la géographie.
En géomarketing, discipline la plus avancée chez leurs assureurs dans l’exploitation de SIG, les
critères démographiques, géographiques et socioculturels sont en général très opératoires, et
sont donc fréquemment utilisés.
Pour généraliser l’utilisation de SIG aux autres métiers d’une société d’assurance, il convient de
s’appuyer sur les 3 grandes catégories de variables intervenant dans la prise de décision :
- Les données de l’entreprise, internes, tels que les données de portefeuilles clients, les
bases de données risques, mais aussi les bases de données sinistres.
- Les données externes à l’entreprise, qui peuvent être socio-économiques,
démographiques, comportementales ou concurrentielles.
- Mais aussi les objets cartographiques, externes à l’entreprise, données spatiales
structurant le marché (contours administratifs, données inondations, cartes de zones
argileuses, etc.).
Les données internes à l’entreprise stockées dans les infocentres d’un assureur sont multiples et
généralement complexes. Pour les besoins d’études d’exposition d’un portefeuille, nous pouvons
regrouper ces données principalement dans 3 catégories:
- Le portefeuille des contrats actuellement en cours. Nous nous intéresserons ici plus
particulièrement aux risques assurés plus qu’à l’adresse du contrat retenue pour la
correspondance avec l’assuré ;
- Les bases de données sinistres, par garanties, par produit/contrat
- Les historiques de portefeuilles de risques assurés à une date donnée. Ces éléments sont
en effet importants si l’on souhaite mettre en exergue la sinistralité d’une année au
regard des risques qui étaient exposés la dite année. Nous insisterons ici sur l’importance
pour un assureur de sauvegarder l’ensemble des données historiques pour mener ce type
d’étude a posteriori.
Les fichiers de données contiennent des listes de données précises sur un panel d’objets tels que
les années de construction de bâtiments, les revenus des assurés selon des informations
provenant de recensements INSEE, etc.
Pour être utilisable de manière statistique sans risque d’erreur, il convient de qualifier l’exactitude,
l’exhaustivité et l’homogénéité des données. Le SIG est en effet un outil de datamining qui ne
peut souffrir de mauvaises données.
Figure 49 : Exemple de format Raster : en orange les zones périurbaines, en rouge les zones urbaines, en
noir les routes départementales. Source : l’outil Covigéo, Groupe COVEA
Les cartes vectorielles sont, elles, des ensembles d’objets modélisés géométriquement et repérés
dans l’espace par l’utilisation d’un système de coordonnées, par exemple le repère français
Lambert 2.
Figure 51 : Exemple de superposition de formats raster et vectoriels. Source : Covigéo, Groupe COVEA
Les objets sont de plus organisés en classes homogènes pour former des macro objets de plus
haut niveau (le réseau routier contient les objets routes, autoroutes, les chemins communaux),
classes qui peuvent être considérées à l’affichage comme des couches qu’il est possible ou non de
Les cartes vectorielles sont donc extrêmement utiles pour leur flexibilité d’utilisation, d’autant
plus que la modélisation mathématique des objets autorise des niveaux de zoom quelconques et
la possibilité d’interagir facilement avec la carte et ses objets, pour déplacer une agence par
exemple ou étudier localement la sinistralité d’un événement.
Afin de tirer parti de toutes ces données, il s’agit non pas de les prendre en compte
successivement et indépendamment les unes des autres, mais de les penser simultanément dans
leur globalité afin de comprendre les corrélations entre les variables internes de l’entreprise et
celles externes. Cette opération nécessite donc un croisement des données. En termes de base de
données, le croisement correspond à l’opération de jointure.
Ce croisement permet notamment de relativiser l’impact d’un événement : les risques situés sur
la commune du Calvados sont bien plus exposés que ceux situés dans la Marne. La sinistralité
vérifie cette corrélation entre l’approche aléa (ou géographique) et les données internes extraits
d’une base de données sinistres
Pour relativiser son exposition, l’entreprise se doit de croiser ses données internes avec des
données externes. Les données internes ne peuvent suffire à concevoir un zonier d’exposition. La
mise au point d’un zonier inondation n’est possible que sur la base de données externes et
géographiques sur le risque de crues. Lorsque qu’aucun événement n’est survenu, aucune
donnée interne ne sera disponible, ce qui ne signifie pas que l’exposition est nulle.
Si le croisement entre les données internes et celle du marché est depuis longtemps d’usage, ce
sont les données cartographiques qui apportent désormais une dimension supplémentaire à
l’analyse, par exemple en permettant un calcul de sinistralité suite à une tempête dont les coûts
La géomatique propose d’effectuer les croisements manquants entre ces 3 sources de données.
- Données marché
- Données cartographiques notamment pour des applications pour lesquelles l’assureur dispose
de peu d’information sur l’aléa, tel que le risque inondation par exemple, où la donnée dont
disposent les agences de bassin n’est pas rendu publique, ou n’existe tout simplement pas).
Le géocodage des sinistres par exemple est une bonne source d’information pour déterminer les
zones présentant des risques d’exposition importants en matière d’inondation, permettant ainsi
de palier la carence d’informations et modéliser et d’analyser les zones à prospecter.
D’autre part le croisement triaire, le plus porteur d’information car augmentant d’une dimension
l’espace de recherche des corrélations entre les phénomènes étudiés :
- Données portefeuille
- Données marché
- Données cartographiques
Lorsqu’on s’intéresse par exemple à la mesure de l’exposition d’un portefeuille d’assurés il est
nécessaire de croiser des données privées, concurrentielles (description des conditions
financières des contrats d’assurance, typologie des biens assurés, localisation des objets de risque,
montants des sinistres et des primes, etc.) avec des données publiques (zonages des aléas,
résultats de modélisation, informations préventives) et des données mutualisées entre assureurs
(courbes d’endommagement, taux de sinistralité). Or d’un côté la structuration et le stockage des
données dans le système d’information d’une société d’assurances varient selon les organisations:
la structuration et l’architecture des données s’alignent le schéma organisationnel de chaque
entreprise. De l’autre côté les contenus des données publiques divergent selon les régions et
selon les méthodes de modélisation choisies.
C’est particulièrement le cas pour l’inondation où chaque région a la liberté de choisir la méthode
de modélisation pour la réalisation des Atlas des Zones Inondables (méthodes hydrologiques ou
hydro géomorphologiques ou cartographie des Plus Hautes Eaux Connues). En fonction de ces
choix, la structuration des données décrivant une inondation va fortement varier : dans un cas
l’inondation sera qualifiée par un niveau d’intensité (faible, moyen, fort), de l’autre par une classe
de fréquence (fréquente, très fréquente, exceptionnelle) ou bien une période de retour
(décennale, centennale, etc.) ou simplement par la date d’un événement passé.
De plus, pour analyser la vulnérabilité les indicateurs doivent regrouper et croiser des données sur
les aléas, sur les enjeux mais aussi sur la prévention. Par exemple, si l’on souhaite analyser
Les enjeux peuvent être décrits soit par des informations sur les permis de construire, soit par des
données statistiques sur les logements, soit par toute autre information décrivant un bien assuré
ou pas (contenu dans un portefeuille). Les aléas sont décrits en fonction des méthodes de
modélisation utilisées tandis que les données sur la prévention sont contenues dans les cartes de
zonage des PPR. Chaque commune a le choix de la méthode de représentation des zones
réglementaires ce qui créé une grande hétérogénéité dans les modes de représentation.
L’hétérogénéité des contenus dépend pour l’essentiel des méthodes de réalisation des données
des producteurs mais aussi des évolutions des spécifications des données. La consolidation des
indicateurs nécessite de connaître précisément la nature des données à mobiliser pour pouvoir
les intégrer dans un ensemble cohérent.
Dans le cas des indicateurs relatifs aux risques naturels il convient de croiser des données
géographiques avec des données non géographiques. Le caractère géographique des risques
naturels nécessite d’être capable de relier des données géographiques et des données non
géographiques : que ce soit pour qualifier un enjeu ou qualifier un aléa, chaque donnée doit être
attachée à un objet géographique permettant de localiser le risque. Les données géographiques
concernent à la fois l’emprise géographique d’un aléa (AZI, zones sismiques, zones de sécheresse
géotechnique), la distribution géographique des enjeux (logements, sites assurés, etc.), le zonage
des mesures réglementaires de prévention (plan de zonage réglementaire d’un PPR) ou encore les
contours des entités administratives. Les données descriptives (enjeux, aléas, vulnérabilité
prévention, montants financiers, etc.) doivent nécessairement pouvoir être associés à un objet
géographique (zone d’aléa, localisation d’un enjeu, zone règlementaire, etc.).
L’association des données géographiques et des données non géographiques doit mobiliser un
nombre important de sources de données diverses et hétérogènes provenant de plusieurs
producteurs différents. Ainsi pour ce qui concerne les aléas il faudra regrouper des cartes
numérisées provenant des DIREN pour l’inondation, du BRGM pour la sécheresse, de la base
GASPAR du MEEDDAT pour les informations administratives et les plans de zonage PPR, de l’INSEE
pour les statistiques sur les logements et les entreprises, de l’IGN pour les contours administratifs
et les données routières. Quant aux données sur les conditions d’assurance et la distribution des
portefeuilles d’assurés il faudra mobiliser des données internes aux systèmes d’information des
sociétés d’assurances. Cette diversité nécessite d’être capable de se connecter à ces sources et de
les interroger pour en extraire le strict nécessaire pour le calcul des indicateurs. L’utilisateur final
doit s’affranchir de cette complexité et consulter les indicateurs dans un ensemble cohérent et
homogène.
L’hétérogénéité des données est un point fondamental à prendre en compte dans la mise en
place de solutions technologiques permettant de suivre des indicateurs sur les risques naturels
pour le secteur de l’assurance. Pour chaque source il faudra étudier : le modèle de données
associé, les droits d’usage et les licences, les contraintes liées aux formats et au type de stockage.
Afin de permettre l’analyse et le suivi des indicateurs il est nécessaire de pouvoir répondre à
certaines caractéristiques concernant la navigation et l’exploration des données.
Le croisement des données nécessite la constitution d’un référentiel commun à toutes les sources
de données. Comme les données portefeuille et marché peuvent être localisées dans l’espace, le
référentiel considéré est celui des données cartographiques, à savoir un référentiel spatial.
Les données cartographiques étant déjà ancrées sur ce référentiel, il convient de localiser
géographiquement les autres données grâce à un procédé appelé géocodage.
Une des composantes essentielles d’un outil de géomarketing est donc son algorithme de
géocodage, sans lequel il ne peut y avoir de croisement entre les différentes entités qu’il faut au
préalable ancrer sur le référentiel des entités cartographiques. Il fait correspondre à tout objet
son emplacement géographique dans le référentiel donné.
Le géocodage d’un objet par rapport à un référentiel spatial donné est le processus (ou
algorithme) qui, à partir de l’adresse de l’objet exprimée en langage naturel, localise ce dernier
dans le référentiel.
Le géocodage est une action qui permet d’associer aux enregistrements d’un fichier (risques
assurés, sinistres, agences commerciales, centres d’expertise, etc.) des données géographiques
exprimées sous la forme de coordonnées (X,Y).
Le géocodage d’un fichier permet d’obtenir par exemple une cartographie d’une zone de
chalandises ou un itinéraire optimum pour une tournée commerciale.
Pour pouvoir être géocodé, un fichier doit comprendre les champs correspondant à l’adresse.
Le pré -requis de tout géocodage d’une base de données interne à l’entreprise est d’avoir pour
chaque objet à localiser des données permettant de le localiser, notamment des adresses sous
forme (Adresse, Code Postal, Ville) dans le cas d’un portefeuille client. C’est la condition sine qua
non de la mise en place d’une solution de géomarketing, et elle est souvent – hélas - loin d’être
acquise.
Pour localiser l’objet, l’algorithme compare l’adresse de l’objet avec les données cartographiques
dont ils disposent (i.e. les coordonnées des rues, les bornes des numéros d’habitation en chaque
tronçon de rue, des villes, etc.). Quatre résultats peuvent alors être renvoyés :
· Adresse trouvée (elle est localisée par interpolation linéaire entre les bornes du bon tronçon de
rue).
· Numéro modifié (déplacé entre les bornes de la rue)
· Numéro et parité modifiés (donc le côté de la rue)
· Géocodage à la rue (le point est situé au milieu de la rue)
Figure 57 : Géocodage d’un objet sur le territoire français par ses coordonnées (x ;y) dans un repère
Lambertien. Source : M. RIEDO
Les maillages devront donc être une partition de l’espace, leurs différents éléments ne se
recouvrant pas. Les maillages classiques peuvent être :
· Des territoires administratifs : régions, départements, communes, cantons.
L’algorithme de géocodage associe à l’adresse de l’objet sa région, son département, etc.
· Des territoires conceptuels : îlots de 400- 700 personnes semblables, IRIS de 2000 personnes
homogènes. L’algorithme fournit le numéro unique de l’îlot, de l’Iris, …
D’une localisation à un niveau donné peuvent être déduites facilement celles aux niveaux
supérieurs: il est facile de déduire le numéro de département à partir des coordonnées d’un objet
géocodé à l’adresse. Cependant, si le numéro de l’adresse a été modifié lors de sa géolocalisation
à l’adresse, l’objet peut avoir changé d’îlot voire d’Iris (une rue pouvant en traverser plusieurs), et
ainsi biaiser les statistiques se fondant sur l’agrégation des données.
Quelle résolution prendre alors pour le géocodage ? Le niveau de finesse du géocodage dépend
d’une part de l’utilisation que l’on veut en faire, et d’autre part des données dont l’on dispose.
La modélisation d’une tempête nécessitera de disposer d’un portefeuille de risques géocodés au
code postal tandis que l’inondation implique de dispose des coordonnées du risque à l’adresse (x ;
y) et idéalement connaître l’altimétrie du risque (z) ou l’étage du bien assuré. En plus de
l’accessibilité aux données externes, la géolocalisation des portefeuilles de risques et de leurs
sinistres est souvent un obstacle à la modélisation.
Deux types d’algorithmes sont actuellement en lice : ceux fonctionnant sur un moteur d’analyse
purement syntaxique et linguistique, possédant une grammaire des possibilités d’écritures
rencontrées, et ceux ajoutant des comparaisons phonétiques pour plus de tolérance (ainsi «
avenu du Genairal Leklerc » sera corrigée en « avenue du Général Leclerc »).
Les algorithmes de géocodage sont donc propres à une langue donnée et à un territoire donné, et
permettent notamment de normaliser les adresses interprétées.
Pour une connaissance globale d’exposition de risque, notamment pour des réassureurs, le
géocodage au code postal est représentatif de l’ensemble du portefeuille de risques et explique
notamment le développement historique de l’assureur dans certaines régions où les cumuls sont
les plus forts. En revanche, un taux de rejet à l’adresse très faible de 8% peut poser problème
quand un service d’actuariat technique veut très bien connaître ses 5 millions de clients, et
procéder à une extraction du nombre de risques pour un zonier déterminé. L’opérateur doit en
effet relocaliser à la main 400.000 clients !
Remarquons enfin que plus le taux de rejet est faible, plus le géocodage pourra mettre en
exergue des disparités locales utiles à une analyse fine d’exposition aux aléas.
Appréhender l’exposition d’un portefeuille de biens assurés aux risques majeurs commence par la
localisation du risque sur un territoire donné. La dimension spatiale de l’assurance Dommage est
ainsi prise en compte. La superposition aux éléments exogènes peut dès lors déboucher sur
l’analyse d’exposition des risques aux aléas externes.
• Module Aléa :
Afin de disposer d’un échantillon significatif d’événements catastrophiques pour établir des
probabilités d’occurrence, ce module utilise un moteur stochastique pour simuler des
événements calibrés en fonction des événements historiques observés ayant des propriétés
physiques et une trajectoire géographique comparable. Chaque événement a donc une
probabilité de survenance, une trajectoire géographique et des paramètres caractérisant
l’intensité sur toutes les portions géographiques qui le compose : pour les événements
cycloniques il s’agira de la vitesse et de la direction du vent, pour les phénomènes de crue il
s’agira du débit, du volume de précipitation, de la hauteur d’eau calculée à partir des
caractéristiques du sol, enfin pour les séismes il s’agit de prendre en compte la distance à
l’épicentre.
• Module Enjeux :
L’analyse du portefeuille porte d’abord sur une étude qualitative de critères spécifique aux
portefeuilles assurés. De plus, afin d’appréhender la modélisation de dommages à l’aléa étudié, il
convient de dégager les facteurs discriminants. La qualité de l’occupant (propriétaire, locataire,
propriétaire non occupant) est elle une variable discriminante dans l’éligibilité à une
• Module Vulnérabilité :
Pour une même intensité de l’aléa, on constate que l’ampleur des dommages occasionnés peut
être très diverse : les dégâts subis par des bâtiments sont plus ou moins importants selon le type
de construction, leur ancienneté ou leur hauteur.
Le contenu du bâtiment est aussi important. Le taux moyen de sinistralité est le montant total du
sinistre par rapport à la valeur totale de tous les objets d’assurance dans la zone considérée. Il
dépend donc de l’intensité du phénomène et des spécificités des objets assurés. Ainsi on définit
une multitude de courbes de vulnérabilité encore appelées « courbes d’endommagement » qui
expriment le rapport entre l’intensité et le taux moyen de sinistralité. Ces courbes de vulnérabilité
sont appliquées pour chaque type de bâtis, d’activités ou de biens contenu dans le portefeuille
d’assurés à analyser en appliquant l’impact de chaque événement simulé (intensité de crue,
tempête, séisme) sur les localisations géographiques des sites assurés.
Afin de déterminer les montants financiers des pertes potentielles pour les besoins des services
en charge de la réassurance, ou bien le nombre de sinistres à attendre afin de mobiliser les
ressources de gestion internes et externes et prendre les mesures les plus adéquates.
Il s’agit de rattacher la valeur de remplacement des dommages ainsi que les conditions
d’assurance correspondantes pour chaque lieu de risque balayé par l’événement (primes, limites
de garantie, franchise) au nombre de dossiers attendus. Ainsi il est possible de déterminer le
sinistre brut et le sinistre net pour l’assureur. Ces conditions s’appliquent à des couvertures
d’assurance individuelles comme les logements des particuliers ou à plusieurs couvertures
d’assurance concernant un même lieu comme les professionnels ou les entreprises (machines,
stocks, marchandises et pertes d’exploitation).
Concernant les données internes au portefeuille de risques, il est souvent constaté que les
données qualifiant les habitations ou leur environnement sont insuffisamment présentes dans les
portefeuilles des assureurs. Il convient alors par croissements binaires comme précédemment
décris, de procéder à des croisements entre données internes et sources externes, notamment
marché, afin d’essayer de compléter l’information manquantes.
Les données qualitatives nécessaires peuvent être structurées en deux familles, en fonction de la
capacité des assureurs à les collecter de manière plus ou moins autonome :
• Qualité juridique des assurés (propriétaire, locataire, …) : il s’agit de données connues des
assureurs qui sont essentielles pour déterminer l’enjeu des dommages qui seront
indemnisés,
• Appréciation de la valeur des biens assurés : il s’agit davantage de capitaux assurés que
d’une estimation précise de la valeur des biens. Ces données sont renseignées de manière
forfaitaire à la souscription mais ne sont pas systématiquement mises à jour,
- Données qualifiant l’environnement du bien assuré, que les compagnies ne peuvent pas
collecter de manière autonome :
Toutes les données à recueillir par les assureurs sont donc nombreuses. Elles apparaissent par
ailleurs très différentes en fonction des périls climatiques que l’on souhaite étudier : tempête,
inondation, sécheresse, etc.
Ces différentes étapes ont contribué à la création d’un outil appelé ARTEMIS (Analyse des Risques
Traités par Evénements, Modélisation Informatique et Statistique).
ARTEMIS se compose de données statistiques issues de l’INSEE et qui permet d’estimer le coût
d’un événement inondation a posteriori et d’évaluer le montant des sinistres tout en contribuant
à une meilleure appréciation des engagements de la CCR et des assureurs.
Pour modéliser une inondation pour un portefeuille donné, il a été indispensable d’utiliser
plusieurs modules comme décrits précédemment et de mobiliser des compétences diverses telles
que des économistes, des ingénieurs spécialisés, des scientifiques.
Le premier module aléa utilise un moteur stochastique pour simuler une inondation en
s’appuyant sur la topographie et le réseau hydrographique.
Ce module tient aussi compte des observations enregistrées au cours de l’événement, telles que
la pluviométrie et les débits hydrométriques.
Chaque événement se caractérise donc par une probabilité de survenance associée à une
trajectoire géographique donnée.
Le troisième module de dommage permet de déterminer les pertes potentielles en incluant dans
le modèle la valeur de remplacement des biens et les conditions contractuelles correspondantes
pour une estimation proche de la réalité.
Suivant le type d’aléa, le catalogue d’événements est constitué sur une base historique ou bien
sur une base probabiliste. Concernant les inondations il y a débat sur le choix d’un catalogue
historique ou probabiliste.
La réalité historique fait apparaître une répétition d’événements d’ampleur moyenne de l’ordre
de quelques centaines de millions d’euros. Ces répétitions se sont faites souvent dans les mêmes
bassins hydrographiques. Les ingénieurs ont plutôt développé leurs activités en direction des
événements de période de retour centennale, bi centennale, cinq centennale.
Figure 61 : Crue du Rhône en 2003, coût historique de cet événement pour le marché par commune,
Source : E risks, CCR
Il s’agit donc de prioriser les événements suivant leur période de retour ; si l’on reste sur des
périodes trop grandes on restera sur une approche purement historique ou déterministe, dans le
cas contraire si l’on prend des périodes de retour trop courtes alors le risque est de ne pas
prendre en compte les catastrophes mais seulement les risques de moyenne ampleur. Le débat
ne semble pas être tranché.
Le module d’aléa utilise pour chaque événement reconstitué des données pluviométriques de
Météo France, des données hydrométriques du MEEDDAT et enfin des données topologiques
permettant en tout point de la zone affectée de calculer une hauteur d’eau. Cette approche est
limitée à la reconstitution uniquement de quelques événements naturels de grande ampleur tel
que la crue du Rhône, les crues du Gard en 2002 ou encore la crue de la Seine de 1910. Le reste
du réseau hydrographique n’est pas couvert.
Après la réalisation d’une analyse comparative des outils de modélisation existants sur le marché
français et à l’étranger, le groupe COVEA a développé le premier outil de prévisions de dommages
adapté aux besoins d’un assureur français dans le cadre de la gestion des tempêtes.
Conscient des difficultés inhérentes à la quantification de ce risque majeur, et pour mieux anticiper
l'impact d'une tempête, le groupe Covéa a élaboré le premier modèle météo d’extrapolation des vents
extrêmes en France servant de base à l’Outil de modélisation du risque Tempête sur un portefeuille
d’assureur MRH. Ce modèle de prévisions baptisé Coventéo est une avancée importante pour un
assureur qui ne dispose actuellement d’aucun outil adapté à son activité.
Coventéo permet de simuler le nombre de sinistres par zone géographique, leurs coûts, ainsi que
les cadences d'arrivée des déclarations.
Cet outil a nécessité la mise en place d’une équipe interne pluri disciplinaire composée de
consultants, d’ingénieurs BTP et de statisticiens / actuaires.
Un partenariat a été mis en place avec la société de prévisions Agate France avec la mise à
disposition d’un météorologue pour les prévisions météorologiques.
La Tempête est un aléa complexe dont la modélisation nécessite la prise en compte de paramètres
spécifiques au territoire français comme l’occupation du sol, la rugosité des vents, l’exposition du
territoire et de sa géographie physique ainsi que la diversité du bâti qui caractérise nos portefeuilles
MRH.
L’outil modélise dans un 1er temps l’écoulement du vent sur l’ensemble du territoire, déterminant ainsi
la vitesse des rafales de vents au niveau de chaque code postal avant une tempête sur la base des
prévisions du modèle, mais après l’événement à partir des relevés des stations Météo France.
Ainsi, en associant une rafale de vent à un code postal, en fonction des paramètres du modèle (normes
de construction, type de bâti, etc.) et des portefeuilles géoréférencés de chaque enseigne du groupe
Dès la détection d’une tempête par le météorologue d’astreinte de la société Agate France, une cellule
de crise composée du responsable de programme et du météorologue est mobilisée immédiatement,
chargée du suivi de l’évolution météo et de l’information deux fois par jour du Comité de Direction
COVEA. Le modèle est dès lors alimenté en prévision de vent.
Ces prévisions permettent de donner à l’outil une dimension prédictive et d’anticiper l’organisation
adéquate, de mobiliser en amont les acteurs de la chaîne d’indemnisation, facilitant ainsi la gestion des
sinistres.
Le modèle Coventéo donne automatiquement 3 scénarii, dont un scénario haut, médian et bas. Le
pilotage de l’événement implique de privilégier un scénario. Pour ce faire, l’interprétation du modèle
météo par le prévisionniste et le savoir-faire de toute l’équipe Coventéo sont nécessaires.
Aujourd’hui, à partir d’une pré-alerte météo, Coventéo permet d'estimer le nombre et le coût des
sinistres pour chaque enseigne et chaque code postal 5 jours avant la survenance de l'événement et ce,
par type d’habitat. Ces prévisions permettront donc d’anticiper le déclenchement des Plans
d’Intervention Exceptionnels. Par ailleurs, les gestionnaires pourront consulter sur le portail extranet
Coventéo les alertes météo et, une fois l’événement survenu, vérifier la vitesse réelle du vent
permettant ainsi de faciliter l’appréciation des garanties.
Aléa : Le modèle d’interpolation des vents extrême Coventéo, afin de reconstituer l’écoulement
des vents à l’échelle nationale, prend en compte les variables d’occupation des sols, de rugosité,
de relief pour chacun des codes postaux, ainsi que des variables météorologiques liées au facteur
de vent en rafale, à la direction et au comportement des vents en altitude.
Caractéristique du bâti : Afin d’être spécifique au marché français de l’assurance, Coventéo a pris
en compte les spécificités du bâti sur l’ensemble du territoire en procédant par typologie de
bâtiments et par normes de constructions locales. Ces distinctions permettent une modélisation
fine de la sinistralité d’un portefeuille MRH.
Figure 63 : Endommagement d’un portefeuille de risques spécifique aux caractéristiques du bâti français.
Source : Coventéo, Groupe COVEA
Résultats : Le modèle Coventéo permet d’évaluer l’exposition d’un portefeuille de risques MRH à
l’échelle d’un code postal et de prévoir, pour chaque type de biens, le nombre de risques faisant
l’objet d’une déclaration. De plus, afin d’organiser ses forces, COVEA AIS pourra estimer la
répartition du volume de dossiers par acteurs de la chaîne d’indemnisation et d’en déduire le
montant global indemnitaire.
À l’image de l’abondante littérature relative à l’introduction des TIC dans les organisations, Jérôme
CHEMITTE45 a mis en exergue les facteurs clés de succès pour l’introduction des SIG dans les
organisations publiques et privées a accouché de nombreux éléments.
La composante « procédures et méthodes » regroupe toutes les règles, méthodes, pratiques qui
relient et coordonnent l’ensemble de ces composantes pour atteindre les objectifs fixés.
De plus, J. CHEMITTE souligne que, bien qu’autonomes dans la nature de leur fonctionnement,
ces composantes sont en interaction, que chacune est vecteur d’innovation (nouvelles
compétences, nouveaux outils techniques et nouvelles données disponibles), mais qu’elles
constituent aussi des contraintes les unes pour les autres.
45
J.CHEMITTE, Adoption des technologies de l’information géographique et gestion des connaissances dans les organisations, 2008
46
T. JOLIVEAU, Géomatique et gestion environnementale du territoire. Recherche sur les usages des SIG. HDR, 2004
Selon S. ROCHE et B. RAVELEAU47, s’il semble ainsi que les SIG offrent un potentiel pour améliorer
la performance des organisations, encore faut-il réussir leur adoption ce qui implique
inévitablement une volonté et une stratégie organisationnelle visant des changements dans la
dynamique de l’organisation professionnelle.
Outre leur capacité à faciliter la compréhension du territoire, J. CHEMITTE rappelle au travers des
travaux réalisés par C. CARON que les SIG constituent de précieux outils pour apporter de
l’information aux décideurs.
En retraçant plus largement l’évolution du rôle des SIG, J. CHEMITTE insiste plus particulièrement
sur le potentiel de ces systèmes à offrir un avantage concurrentiel stratégique face à des
organisations concurrentes. Ces nouvelles technologies revêtent un avantage stratégique en
permettant à une organisation de se différencier.
Différentes façons de déterminer la valeur d’un SIG se dégagent mais peuvent être regroupées en
deux grands approches distinctes : les approches quantitatives et les approches qualitatives.
Concernant les approches quantitatives, C. CARON48 note qu’il s’agit essentiellement de répondre
à la question : « l’investissement dans un SIG produit-il suffisamment de profits pour en justifier le
coût?».
Elles font appel notamment aux méthodes d’évaluation d’un investissement du type ratio
coûts/bénéfices, valeur actualisée nette (VAN) ou encore du type de taux de rendement.
J. CHEMITTE en dresse un inventaire détaillé, soulignant toutefois que de nombreux paramètres
ne peuvent être évalués monétairement.
Cette difficulté est encore plus caractéristique des approches qualitatives. Tout en justifiant
l’intérêt de dissocier la valeur de l’outil (le SIG) de celle du résultat produit (l’information
géographique), elles se trouvent cependant confrontées à l’évaluation de la valeur sociale d’usage
de l’information.
En effet, J. CHEMITTE considère que la valeur symbolique de l’information créée reste sans valeur
tant qu’elle ne s’inscrit pas dans la réalité physique d’un service. Autrement dit il faudrait pouvoir
évaluer:
Selon ces facteurs, la valeur sociale d’usage serait donc plus élevée pour les biens de première
nécessité et c’est cette caractéristique qui relie indissociablement les concepts de rôle et de
valeur des SIG.
47
S.ROCHE et B.RAVELEAU, Aspects organisationnels des SIG, Lavoisier 2004
48
C. CARON, Cadre descriptif des projets d’implantations de technologies géomatiques dans les organisations, CGR, Université de
Laval, 1996
Sur la base de ce schéma, le rôle principal des cadres intermédiaires dans le management milieu-
haut-bas est d’offrir à leurs collaborateurs un cadre conceptuel qui les aide à donner un sens à
leur propre expérience. Dans le schéma milieu-haut-bas, la direction générale crée une vision
tandis que les cadres intermédiaires développent les concepts concrets que les services
opérationnels peuvent comprendre et mettre en œuvre.
Le rôle de la direction est donc de créer une théorie générale alors que les cadres intermédiaires
tentent de créer une théorie intermédiaire qu’ils peuvent tester empiriquement dans l’entreprise
avec l’aide des opérationnels. Ainsi, le but de l'organisation n'est pas seulement d'accroître la
performance de l'entreprise au niveau de sa capacité d'innovation, mais également de la doter
des moyens d'apprentissage qui lui permette de s'améliorer sans cesse.
Pour ce faire, l'organisation comporte une troisième structure ou "couche" qui est sa base de
connaissances.
Cette couche comporte la masse des connaissances créées et accumulées par l'entreprise: sa
culture, ses technologies, ses bases de données etc. C'est en fait la "mémoire" de l'organisation
qui est gérée, de sorte à rendre ces connaissances disponibles à tous les collaborateurs.
Enfin, en forme de synthèse opérationnelle, J. CHEMITTE présente les lignes directrices qu'un
praticien peut suivre pour mettre en œuvre un programme de création de connaissances
organisationnelles au sein d'une entreprise.
L’introduction de technologies telles que les SIG fait des sociétés d’assurances des organisations
apprenantes.
J.L. ERMINE 50 définit les contours de l’organisation apprenante par la capacité à générer
l’explicitation des connaissances tacites, à définir et modifier un modèle de connaissances clés, à
construire un schéma d’orientation, à piloter des communautés de savoirs, à mettre en œuvre
des techniques « support ».
49
J.CHEMITTE, Adoption des technologies de l’information géographique et gestion des connaissances dans les organisations, 2008
50
J.L. ERMINE, La gestion des connaissances, Hermès-Lavoisier, 2003
L’objet est ici de souligner l’intérêt qu’à une société d’assurances à développer ses propres
solutions. L’organisation apprenante comme décrite précédemment se met en mouvement afin
d’être en capacité à générer l’explicitation des connaissances mobilisées et ainsi d’améliorer sa
connaissance de son exposition aux risques.
Les modèles de risques sur lesquels reposent l’appréciation d’expositions de portefeuilles par
branches ne correspondent pas suffisamment à la réalité. Les surprises sont fréquentes : les
tempêtes hivernales Lothar et Martin de décembre 1999, les attentats terroristes du 11
septembre 2001 ou encore les crues du Rhône en 2003 en sont des exemples.
Les prévisions liées à la nature et à l’ampleur de la perte de marché se sont révélées inexactes
pour chacun de ces cas. S’agissant de modèles de risques, la prudence reste donc de rigueur,
même si leur validité est vérifiée régulièrement et s’ils sont remaniés en fonction de chaque
« surprise ».
En fin de compte, la maîtrise de données tangibles et l’appréciation des résultats par un regard
critique restent le seul moyen de contrôle véritable.
Sans données tangibles, les concepteurs de modèles doivent travailler sur celles livrées par de
grands réassureurs comme Munich Re ou Swiss Re. Ces derniers ne publient le plus souvent que
le montant global des pertes assurés pour chaque sinistre, sans fournir de détails, comme les
chiffres par pays, par région, par commune. Les évaluations permettant d’établir les modèles les
plus courants pour les risques majeurs se basent sur des données générales et imprécises.
Comme nous l’avons abordé au début de cette seconde partie, les modèles de marché
d’évaluation de sinistres sont l’exposition de portefeuilles. Mais comment décider de l’achat
d’une couverture de réassurance si un modèle indique un besoin en couverture de 50 M€ pour
faire face à un sinistre dont la période de récurrence est de deux cents ans alors qu’un autre
modèle évalue la même risque à 100 M€ ?
De telles divergences ne sont pas rares, tant sur le marché français que le marché européen.
L’intérêt pour un acteur du marché comme une cédante est de développer son propre modèle à
partir des données qui lui sont propres et palier ainsi à l’approche globale et approximative des
modèles de marché.
Emmanuel DUBREUIL et Eric PAIRE51, lors d’une journée consacrée au rôle de la réassurance dans
le calcul du SCR Cat, ont démontré les divergences de résultats entre chaque modèle avec les
mêmes profils ; la charge sinistre pour l’événement 200al est extraite à l’échelle de la CRESTA
pour EQE, RMS et QIS5.
Les estimations des modèles sur les dommages aux bâtiments, en pourcentage de sommes
assurées pour une vitesse de vent donnée, peuvent être testées avec des données tangibles
issues de l’expérience de l’assureur. Avec le temps, les modèles élaborés pour ce type
d’événements devraient fournir une évaluation plus précise et plus substantielle de l’exposition
aux risques puisqu’ils reposent sur des données tangibles. Ceci serait à l’avantage de tous les
acteurs du marché et conforme à l’esprit de la directive Solvabilité 2 en matière de transparence
entre les fonds propres et les risques encourus.
La modélisation interne est donc un premier pas vers le modèle interne préconisé par le
régulateur.
Les modèles Cat utilisés en réassurance ont donc un impact sur le capital requis.
51
Conférence sur le rôle de la réassurance dans le calcul du SCR Cat Journées IARD de l’Institut des Actuaires, 31 Mars 2011
Il devient presque indispensable de se doter d’un modèle interne partiel en la matière, afin de
déterminer une charge de capital dédiée au risque Cat la plus appropriée.
Figure 66 : Comparaison des montants simulés pour un événement 200al simulé par chacun des
3 modèles de marché et pour le QIS 5, en milliards €. Source : Emmanuel DUBREUIL,
Institut des actuaires, 2011
Cette nécessité de maîtrise de l’incertitude se retrouve dans la liberté de choix accordée aux
sociétés par la future directive Solvabilité II, offrant la possibilité de se référer à un standard du
marché ou de développer un modèle interne.
Cette perspective rejoint l’intérêt de construire en interne son propre outil d’évaluation, ce que
certaines sociétés ont d’ores et déjà entrepris.
Cette démarche semble s’inscrire dans une démarche plus globale de Risk management,
l’Entreprise Risk management (ERM) vu précédemment, ou gestion globale et intégrée du risque,
de plus en plus plébiscitée par les sociétés, leurs actionnaires, les agences de notation et les
marchés financiers.
A défaut d’un apprentissage en interne des SIG par une équipe dédiée, il est important de citer
l’existence de la société PERILS AG visant à améliorer la connaissance des événements climatiques
majeurs et plus largement des catastrophes naturelles en Europe
PERILS vise ainsi à collecter, agréger et distribuer les données d’assurance catastrophes naturelles
en Europe. La collecte des données auprès des compagnies s’inscrit sur la base du volontariat.
Cette société fournit à ses clients deux principaux produits, destinés à devenir à terme des
indicateurs clés du marché de l’assurance de catastrophes naturelles :
- Données d’exposition « marché » (sommes assurées) segmentées par type de péril et par zone
CRESTA. Ces données seront fournies sur une base annuelle.
- Estimations de pertes « marché » causées par des événements naturels majeurs.
Ces pertes seront également segmentées par type de péril et zone CRESTA.
Ces deux produits doivent permettre aux clients de PERILS de mieux appréhender les
caractéristiques de fréquence et d’intensité des catastrophes naturelles, facilitant ainsi la gestion
et la souscription du risque de catastrophes naturelles. De façon générale, la superposition d’un
portefeuille d’exposition « marché » consolidé et d’une information de pertes par événement
devrait se traduire par une amélioration de la modélisation du risque de catastrophes naturelles.
Une évaluation plus transparente des pertes « marché » devrait également permettre de fiabiliser
les indices de déclenchement de couverture de type « Cat Bond », « Industry Loss Warranties »
(ILWs) ou d’autres produits financiers visant à couvrir les conséquences des catastrophes
naturelles.
En outre, les données qui seront restituées par PERILS concerneront essentiellement des
événements climatiques ou naturels de grande ampleur, ce qui s’inscrit davantage dans une
analyse de l’exposition aux cumuls de risques et une maîtrise des cessions aux réassureurs, que
dans une optique d’ajustement de la tarification ou de modification ciblée des règles de
souscription.
Cette limite est importante à souligner car l’externalisation de ces travaux prive la cédante de
l’acquisition de savoir-faire qui pourraient à terme déboucher sur l’objet de notre propos :
l’Entreprise Risk Management ou la gestion intégrée et transversale des risques d’une société
d’assurance non-vie.
Néanmoins, il sera intéressant d’observer que sur la base des Systèmes d’Information
Géographiques, dans les années à venir, les estimations de pertes fournies par PERILS faciliteront
l’accès, pour les assureurs et réassureurs, à une capacité additionnelle de couverture contre les
événements naturels extrêmes en Europe.
Comme nous l’évoquions au début de nos propos (I.2.3.ii), il est ainsi aujourd’hui possible de se
couvrir contre la tempête, au niveau français comme européen, par une couverture sur base
d’indice PERILS (couverture privée, Cat Bond).
En effet, le “Consultation Paper52 » du CEIOPS comporte l’indication suivante sur les transactions
indicielles (comme une couverture sur base PERILS) :
“For risk mitigation techniques where payout is linked to an index, no allowance shall be made
unless the undertaking can demonstrate that the basis risk is not material compared to the
mitigation effect. If allowance is made, it should allow for basis risk commensurate with the
99.5th percentile level”
52
CEIOPS, CP 52: Draft L2 Advice on SCR Standard Formula – Reinsurance mitigation
Comme cela a été évoqué, la survenance d’événements majeurs a exacerbé les lacunes des
modèles de catastrophe présentés précédemment. Ces outils « presse bouton », souvent qualifiés
de « boîte noire », sont de plus en plus remis en question par leurs utilisateurs.
Pour expliquer ces critiques, plusieurs raisons ont été avancées par J.CHEMITTE:
• les données d’assurance requises sont parfois difficiles à mobiliser. Ce peut être le cas
lorsque le modèle nécessite des données géoréférencées en (x ; y) alors que les assureurs
et réassureurs ne disposent bien souvent que des données agrégées à l’échelle d’une
zone administrative (au mieux la commune), ce qui réduit d’autant plus la précision des
résultats ;
• le temps nécessaire pour la modélisation ;
• leur incapacité à combiner les événements. Par exemple les effets du vent et l’inondation
lors de XYNTHIA ;
• leur non concordance avec les données produites par les pouvoirs publics ;
• etc.
Entachées de nombreuses incertitudes, il apparaît nécessaire que l’utilisateur puisse les apprécier
et les corriger à chaque étape du processus de modélisation, en fonction de ses besoins et à partir
de ses propres données.
Nous avons vu que les systèmes d’Informations Géographiques permettent une prise en main des
outils et des modèles par les équipes. La société d’assurances peut ainsi bénéficier de la création
de connaissances (II.3.1.ii).
Ainsi :
• Une segmentation très fine par type d’enjeux (différentes catégories de logements et de leurs
contenus, différentes catégories d’entreprises et de leurs équipements, etc.) ou par type de
risques (dommages directs, indirects du type pertes d’exploitation, etc.) est nécessaire lorsque
l’on bâtit les hypothèses d’un modèle. Cette segmentation est rendue possible par une étude fine
• La transposition d’un modèle ou outil d’un marché à l’autre peut poser question : les
constructions britanniques n’obéissent pas aux mêmes règles que les constructions françaises, les
pertes d’exploitation d’une certaine catégorie d’activités dépendent de son ancrage dans le tissu
économique plus ou moins local, etc. Les modèles globaux ne présentent pas le même niveau de
finesse qu’un outil développé avec les connaissances des normes techniques, notamment par la
mobilisation d’experts bâtiment.
• Des critères ou hypothèses peuvent être remis en cause et porter atteinte à la crédibilité du
modèle. Un utilisateur qui ne serait pas familier des problématiques de géocodage risque de
passer à côté d’hypothèses importantes qui feront la crédibilité ou non du modèle exploité.
L’apprentissage résulte d’un regard critique sur les données utilisées, les hypothèses prises en
compte et doit permettre d’apporter un regard plus critique sur le résultat d’une modélisation ou
l’exploitation d’une information à des fins opérationnelles.
A ces incertitudes et limites et face aux avantages que procure le développement interne par un
assureur, il convient aussi d’exposer les perspectives qui s’offrent aux assureurs en matière de
données et de connaissance des risques et qui faciliteront sa compréhension de l’exposition des
ses risques.
La plupart des bassins hydrographiques étant partagés entre plusieurs pays, une concertation au
niveau communautaire a été menée pour renforcer la coordination entre les Etats membres.
Cette directive s’inscrit donc dans la continuité d’un processus en cours et constitue une
opportunité pour faire progresser la gestion de ces risques en tenant notamment compte des
effets du changement climatique.
- Le premier volet traite de l’évaluation des risques. Les préfets ont l’obligation d’établir une carte
des bassins hydrographiques et des zones côtières et un document faisant le bilan des
inondations passées ayant eu des impacts négatifs sur l’environnement ou les populations.
- Le second volet qui consiste à établir une cartographie précise des inondations en retenant les
cartes des zones inondables et les cartes des risques d’inondation qui devront être achevées au
22/12/2013.
Les cartes des zones inondables couvrent les zones géographiques susceptibles d’être inondées
en distinguant 3 scénarii :
• l’étendue de l’inondation
• les hauteurs d’eau ou le niveau d’eau, selon le cas
• le cas échéant, la vitesse du courant ou le débit de crue correspondant
Les cartes des risques d’inondation montrent les conséquences négatives potentielles associées
aux inondations selon les scénarii en retenant deux critères principaux :
- Le dernier volet consiste à réaliser des plans de gestion des risques inondations.
Cette directive permet de traiter plus efficacement les risques d’inondation par submersion
marine et ceux liés au ruissellement causant des dommages importants en milieu urbain.
Par ailleurs, l’Etat souhaite par l’intermédiaire de cette directive concentrer les efforts sur les
zones à risques afin d’y renforcer l’action publique.
On peut constater que l’État français est très en retard dans ce travail du fait d’un manque de
coordination évident entre les différents acteurs. Les assureurs n’ont pas été très sollicités même
s’ils sont principalement concernés par la gestion des sinistres consécutifs à une inondation et
malgré le fait qu’ils disposent de modèles et d’outils fiables.
Cette directive présente donc un intérêt non négligeable pour les assureurs bien que les dernières
inondations ont marqué les esprits et ont concentré les recherches sur le risque de submersion
marine, sans tenir compte d’autres priorités essentielles, comme par exemple l’augmentation des
sinistres inondations.
Ils ont en effet pris conscience que la fréquence d’une inondation risquait d’être cent fois plus
importante que celle d’un incendie. Ils ont ainsi alerté les pouvoirs publics sur le fait que « la
prime inondation devrait augmenter de 25 à 50% d’ici 15 ans ».
• Directive INSPIRE
La directive INSPIRE, approuvée par le Conseil des ministres de l'Union européenne et par le
Parlement européen puis publiée au Journal officiel des Communautés européennes (JOCE) le
25 avril 2007, est entrée en vigueur le 15 mai 2007. Elle vise à favoriser l'échange des données au
sein de la Communauté européenne dans le domaine de l'environnement pris dans un sens large.
La directive s'articule en trois parties complémentaires : les obligations créées, les données
concernées, les acteurs impliqués.
L'ensemble de ces obligations s'appuie en principe sur les normes et standards internationaux, et
du point de vue opérationnel sur les règles de mise en œuvre en cours d'élaboration sous l'égide
de la Commission européenne. Ces règles deviennent peu à peu des règlements européens, qui
• les données nécessaires au repérage sur le territoire, telles que systèmes de coordonnées,
unités administratives, réseaux de transport, hydrographie, parcellaire cadastral, adresses
et noms de lieux ainsi que des données relatives aux sites protégés. Cet ensemble
constitue l'annexe 1 de la directive.
• les données générales complémentaires, telles que l'altimétrie, l'occupation des terres, la
géologie et l'ortho-imagerie. Ces données constituent l'annexe 2.
• les données thématiques telles que bâtiments, vocation des sols, santé et sécurité des
personnes, services d'utilité publique et services publics, données sur l'environnement
(nombreuses et variées), installations industrielles, agricoles, démographie, périmètres de
réglementation, données météorologiques, données maritimes, sources d'énergie et
ressources minérales. Ces données constituent l'annexe 3.
INSPIRE n'oblige pas à produire de nouvelles données ni à numériser des données actuellement
sous forme papier. La Directive et ses règles de mise en œuvre ne s'appliquent qu'aux données
numériques et publiques existantes.
INSPIRE ne crée pas d'obligations pour les Etats membres de combler des lacunes dans tel ou tel
domaine thématique. Ceci pourrait, dans les années à venir être partiellement réalisé par des
programmes européens tels GMES ('Global Monitoring for Environment and Security', soit
'Observation Mondiale pour l'Environnement et la Sécurité") ou SEIS ('Shared Environmental
Information Service', soit 'Système Partagé d'Informations Environnementales'). Ces deux
programmes sont en cours de développement (voir liens externes).
L'application de la directive INSPIRE constitue une étape importante pour les acteurs concernés.
Ceux-ci se sont certes déjà appropriés les technologies de l'information géographique numérique,
mais l'intégration de ces données dans leurs systèmes d'information et la mise à disposition de
données, tant pour le grand public que pour les autres services publics, sont encore, sauf
exception, peu développées et peu mutualisées.
INSPIRE constitue une opportunité pour permettre aux organismes d'utiliser davantage les
informations géographiques numériques, et notamment aux assureurs qui font le choix de
développer des outils internes. Ces données devraient contribuer à l’enrichissement des analyses
de risques.
II.3.3.ii Les incertitudes inhérentes aux modèles doivent être compensées par une intégration
du modèle au système d’information de la société d’assurance
Les souscripteurs et les actuaires impliqués dans la souscription des traités Catastrophe ont
longtemps tarifé les risques sur la base de modèles statistiques, c’est-à-dire fondés sur la
sinistralité historique. Or comme nous l’avons vu, ces modèles, bien qu’extrêmement utiles en
tant que modèles de référence, n’offrent pas la fiabilité voulue pour permettre une évaluation
précise du risque de catastrophe, une des raisons étant le manque de données statistiques
concernant les événements historiques.
Même en disposant de plus de cinquante ans de statistiques de sinistres détaillées pour tout un
marché, comme les États-Unis, on n’obtient plus de résultats fiables une fois qu’ils sont extrapolés
sur une période de récurrence de 100 ou 250 ans, souvent nécessaire pour les couvertures
Catastrophe Non Proportionnel.
D’autres facteurs viennent encore compliquer l’indexation des sinistres historiques, comme
l’évolution du code de la construction, les changements dans les pratiques d’assurance, la densité
démographique et la concentration des valeurs. Le champ d’application du modèle statistique ne
dépasse généralement pas la palette d’événements représentée dans l’échantillon statistique ;
une extrapolation visant à déterminer les scénarios du pire est alors problématique.
Il y a malgré tout encore bien des régions et des périls qui pourraient représenter une
composante importante dans de nombreux programmes, mais pour lesquels on ne trouve aucun
modèle Cat sur le marché. Dans ce cas, la tarification doit s’appuyer sur des méthodes statistiques.
L’autre problème lié à l’emploi des modèles réside dans leur séduisante précision, notamment
quand l’utilisateur adopte un seul modèle, ce qui lui permet d’obtenir une réponse « exacte ». Or,
les professionnels le savent, en comparant plusieurs modèles, on obtient, notamment pour
l’événement centennal ou survenant tous les 250 ans, des écarts considérables, parfois même des
La prime pure applicable à un risque donné peut varier de façon substantielle d’un modèle à
l’autre. Malgré cela, bien des utilisateurs demeurent tentés de faire confiance à des modèles
experts successifs, en particulier parce que cette solution peut paraître plus économique, moins
confuse et par conséquent plus facile à présenter à leur Direction. Une situation typique se
dessine alors sur le marché : l’optique d’un modèle, généralement perçue comme supérieure,
devient prédominante et les autres modèles en vente adoptent des points de vue largement
convergents.
Figure 70 : Comparaison des primes de risque pure pour un péril donné proposé par 3 modèles de marché.
Source : Partner Ré
Cette évolution débouche sur une réduction, en apparence, de l’incertitude, si bien que même les
résultats de modèles multiples bien équilibrés perdent de leur valeur.
Les utilisateurs ne réalisent qu’ils ont accordé une trop grande confiance au modèle dominant
que lorsqu’une nouvelle version de ce modèle vient contredire ses résultats ou que la sinistralité
démontre qu’il a tort. Plusieurs réassureurs ont sciemment évité cette perspective simplifiée de la
modélisation, en choisissant des stratégies qui s’appuient sur la mise en œuvre de modèles Cat
multiples.
Toutefois, c’est l’étape suivante du processus qui a été la plus difficile et la plus passionnante:
comment, avec quel degré de précision, interpréter les résultats multiples et comment intégrer
ces données dans l’analyse globale du risque catastrophe ?
Il appartient aux souscripteurs de prendre du recul par rapport aux résultats du modèle
Catastrophe, en s’appuyant sur leur propre expérience pour éclairer, voire expliquer, l’écart entre
la sinistralité observée sur le marché et le point de vue du modèle pour un portefeuille client.
Les souscripteurs en retirent un double bénéfice : ils peuvent obtenir des conseils sur la façon
d’exploiter les données des modèles commerciaux et ils disposent des résultats fournis par
l’ensemble de modèles Cat, qui constituent une perspective modélisée supplémentaire,
parfaitement comprise, du risque.
Les souscripteurs doivent être en mesure de conseiller leurs clients en se basant sur un point de
vue tout à fait unique, d’identifier de possibles distorsions dans la tarification usuelle du marché
et de souscrire plus résolument des affaires sur des marchés pour lesquels il n’existe pas de
modèle commercial crédible.
Enfin, l’équipe de recherche dédiée peut aider les souscripteurs à maîtriser le problème de la
pléthore d’informations en développant des instruments pour analyser la qualité des données et
pour résumer les résultats fournis par les modèles en les présentant sous une forme plus digeste.
Ainsi, ce support nous permet de faire le lien entre les idées développées précédemment : la
gestion des connaissances de l’entreprise et le développement d’un savoir faire par
l’apprentissage de modélisation faite par des équipes internes.
Conclusion : les modèles et outils doivent être intégrés à l’ensemble des métiers d’une société
d’assurances afin de gagner en partage, recul et expérience de chaque entité.
Dans notre exemple, la souscription et la modélisation doivent s’équilibrer. De notre point de vue,
la façon la plus sûre et la plus défendable d’analyser les risques catastrophe consiste en une
approche combinée, dans laquelle la modélisation et la souscription, étroitement associées, se
testent et se contrebalancent mutuellement. Le juste équilibre entre ces deux disciplines est
extrêmement important mais pas facile à obtenir. Si la balance penche trop d’un côté ou de
l’autre, une approche risque de présenter certains déséquilibres. Ainsi, si c’est l’approche
purement modélisée qui l’emporte, on risque de perdre la valeur du savoir-faire et de l’intuition
dans la souscription.
Les conséquences peuvent se manifester au plan des données : une incapacité à identifier le
manque d’informations sur certaines expositions, mais, plus fréquemment, une trop grande
confiance dans des résultats modélisés décalés par rapport à la sinistralité du client ou du marché.
À l’inverse, en s’appuyant trop sur ses compétences et son expérience de souscripteur, on risque
de soumettre la souscription à une analyse moins sophistiquée du risque et de lui faire subir des
distorsions subjectives.
Nous revenons au constat fait lors de notre première partie : en accord avec le pilier 2 de la
directive Solvabilité 2, la gestion des risques doit être holiste, et donc transversale à l’ensemble
des métiers d’une société d’assurances.
Les assureurs, encadrés par les piliers 1 et 2 de la directive Solvabilité II, vont devoir s’approprier
les méthodes d’analyse et mettre en place des outils pour gérer leurs expositions aux risques
majeurs.
Les souscripteurs et les actuaires impliqués dans la souscription et le transfert des risques en
réassurance ont longtemps tarifé les risques sur la base de modèles statistiques, c’est-à-dire
fondés sur la sinistralité historique de leurs données internes. Or ces modèles, bien
qu’extrêmement utiles en tant que modèles de référence, n’offrent pas la fiabilité voulue pour
permettre une évaluation précise du risque de catastrophe, la raison principale étant le manque
de données statistiques concernant les événements historiques.
La vulnérabilité a été présentée comme la confrontation des données sur les enjeux avec des
données sur les aléas. Il a été montré que l’exposition d’un portefeuille résulte de la spatialité de
l’aléa qui introduit une dimension géographique et exogène au risque assuré.
D’autres facteurs viennent encore compliquer l’indexation des sinistres historiques, comme les
normes de construction, les changements dans les pratiques d’assurance (applications de
franchises, pratiques dérogatoires, etc.), la densité démographique et la concentration des
valeurs. Le champ d’application du modèle statistique ne dépasse généralement pas la palette
d’événements représentée dans l’échantillon statistique ; une approche spatiale, géographique
en associant les factures exogènes à un portefeuille de risques sont nécessaires.
Les outils et modèles s’appuyant sur des systèmes d’Information géographiques utilisent les
sciences naturelles pour mieux circonscrire les événements possibles. En outre, ils analysent les
portefeuilles en termes de vulnérabilité des bâtiments et de distribution géographique, peuvent
intégrer des caractéristiques secondaires (âge du bâti, données socioéconomiques) et sont
capables de modéliser directement les caractéristiques du risque et des caractéristiques du
contrat d’assurance auquel il est rattaché.
Les décideurs ont pourtant besoin d’une vision globale et intégrée de la gestion des risques. Les
solutions de marché constituent indéniablement un progrès pour l’ensemble du secteur ; et les
SIG une 1ère réponse pour mieux intégrer le risque assuré dans son environnement.
Les outils SIG disponibles sur le marché français s’orientent vers la souscription des risques au
regard des risques naturels, d’autres vers la modélisation de catastrophes via de la simulation
d’événements majeurs. Toutefois, il n’existe pas d’outils polyvalents et transversaux qui
répondent à l’ensemble des métiers d’une chaîne de production. Les fonctionnalités attendues
résident dans la capacité à intégrer des données géographiques et non géographiques, de croiser
des données ayant des contenus hétérogènes, et disposer de fonctionnalités d’exploration des
indicateurs pour étudier les corrélations.
Toutefois, un modèle interne seul doit pouvoir s’apprécier au regard de l’ensemble de l’expertise
présente chez un assureur, des services techniques qui conçoivent et suivent les résultats
techniques de chaque produit, au réseau commercial qui souscrit les risques, en passant par les
experts sinistres qui évaluent et gèrent les sinistres jusqu’au service en charge de la réassurance.
Notre démarche est d’explorer le potentiel d’une technologie émergente dans le secteur de
l’assurance : géodécisionnelle. Cette technologie doit offrir la possibilité d’exploiter l’analyse
spatiale de façon plus intégrée au système décisionnel de l’entreprise d’assurances.
L’objectif de cette dernière partie est d’introduire l’intérêt que représente l’analyse spatiale d’une
exposition de portefeuille à l’ensemble des métiers concernés par la gestion des risques et d’en
faire un enjeu participatif et plus intégré au processus de décision à tous les niveaux de
l’entreprise.
Pour Laurent GUERAUD53, l’IE se définit de différentes manières. Nous retiendrons la définition
première donnée par Harold WILENSKI comme étant une « activité de production de connaissance
servant les buts économiques et stratégiques d'une organisation, recueillie et produite dans un
contexte légal et à partir de sources ouvertes». L’IE représente donc toutes les actions de
recherche, traitement et exploitation de l’information à partir de sources et de moyens légaux
(informations ouvertes). Outre les activités de veille économique, l’intelligence économique
intervient dans la stratégie d’entreprise en participant à l’anticipation et à la maîtrise des risques.
L’IE doit privilégier autant les indicateurs chiffrés que l’analyse des causes profondes du risque.
L’information joue un rôle clé dans le fonctionnement d’une entreprise. Partager l’information est
une richesse d’organisation mais ce partage accroît la vulnérabilité de l’entreprise. Il convient
53
L. GUERAUD, Quel est l’apport d’une gestion des risques d’entreprise chez un réassureur traditionnel européen ?, 2008
Un département de gestion des risques doit sans cesse travailler et développer un processus
systématique pour intégrer de nouvelles informations dans ses analyses de risque. L’intelligence
et la veille économique interviennent dans de nombreuses problématiques d’entreprise, dont la
gestion et la maîtrise des risques.
L’IE doit participer à la réalisation de trois objectifs d’entreprise : maîtriser, prévenir, optimiser.
• Maîtriser les coûts du risque opérationnel par rapport aux pertes attendues.
• Optimiser le financement de ces risques par les fonds propres adéquats (réforme du
régulateur, « Solvabilité II », etc.).
54
M. BOUCHET, Intelligence économique et gestion des risques, entretien avec Alain JUILLET
L. GUERAUD indique que la mise en place d’une solution d’intelligence économique répond à
plusieurs besoins :
Le mouvement ne peut se créer que s’il y a une demande des opérationnels, clients d’une
information fiable, au bon moment, pour faciliter leurs décisions. Le sponsor de la Direction
Générale est également indispensable ainsi que l’implication des équipes informatiques et
documentaires, ces dernières étant en charge de la mise en place de la solution d’intelligence
économique. Le mouvement se crée à partir de l’expression d’une demande opérationnelle.
L’objectif est de structurer cette démarche au sein d’une véritable culture d’entreprise. Créer
cette culture de l’intelligence économique fait partie intégrante d’une culture de la gestion des
risques. Avoir la connaissance mais surtout la partager dans l’entreprise est un challenge de taille
pour un groupe. Un autre enjeu de taille est de pouvoir passer d’une attitude défensive où les
risques sont subis à une position offensive qui permet de les anticiper et de saisir des
opportunités.
Lors d’une enquête interne menée en 2007 chez SCOR par L. GUERAUD auprès d’une centaine
d’utilisateurs faisant suite à la mise en place d’une solution d’intelligence économique, la plus-
value apportée par l’intelligence économique a été notée, à partir de dix questions qui leur
étaient posées, par critère d’importance : 1 (minime), 2 (moyenne), 3 (importante), 4 (essentielle),
5 (fondamentale):
Figure 73 : Segmentation des enjeux avec et sans Intelligence économique. Source : L. GUERAUD
Comme nous l’avons vu dans la partie précédente (II.3.1.ii) lors du schéma d’apprentissage des
SIG par les assureurs, le processus de création de connaissances organisationnelles est de fournir
le contexte adéquat pour faciliter les activités de groupe autant que de gérer l’information et
manager la connaissance.
Les données hétérogènes évoquées lors de l’intégration dans un SIG et leurs analyses spatiales
sont composées notamment de données internes à l’entreprise (II.2.1.i). Ces données métiers
internes sont exploitées notamment par les services d’actuariats des sociétés d’assurance à l’aide
de Systèmes d’Information Décisionnels (SID).
Les données applicatives métier sont stockées dans une ou plusieurs bases de données
relationnelles ou non relationnelles.
Ces données sont extraites, transformées et chargées dans un entrepôt de données généralement
par un outil de type ETC (Extraction-Transformation-Chargement).
Un entrepôt de données peut prendre la forme soit d’un Datawarehouse (ensemble des données
de l’entreprise), soit d’un Datamart (sous-ensemble d’informations concernant un métier
particulier de l’entreprise comme les données d’une direction réassurance, sinistres ou les
données contrats et portefeuilles issues généralement des Directions techniques).
Les tableaux de bord équipés de fonctions OLAP sont aujourd’hui les plus plébiscitées par des
publics comme les actuaires.
L'approche OLAP (On-line Analytical Processing) est une structure destinée à des fins d'analyses
interactives sur la base d’une représentation d'informations multidimensionnelles.
Les Datawarehouse peuvent ainsi permettre via l'OLAP l’analyse très approfondie de l’activité de
l’entreprise, grâce à des statistiques recoupant des informations relatives à des activités
apparemment très différentes.
Si l'on s'intéresse à un troisième axe d'analyse, par exemple la dimension géographique (d’une
région, d’un secteur attribué à des cabinets d’expertise), on obtient alors un axe d'analyse
supplémentaire un cube à plus de 3 dimensions, appelé hypercube.
Le cabinet de conseil Limpida56 a décrit les possibilités de « navigation » offertes par les outils
décisionnels dans les différentes dimensions du cube ou de l'hypercube :
• le drill down ou le forage avant : c'est la possibilité de « zoomer » sur une dimension (par
exemple d'éclater les années en 4 trimestres pour avoir une vision plus fine, ou de passer
du pays aux différentes régions),
• le drill up ou le forage arrière: c'est l'opération inverse qui permet d'« agréger » les
composantes de l'un des axes (par exemple de regrouper les mois en trimestre, ou de
totaliser les différentes régions pour avoir le total par pays),
• le slice and dice (que l'on peut traduire par « hacher menu ») : c'est une opération plus
complexe qui entraîne une permutation des axes d'analyse (par exemple, on peut vouloir
55
Contribution de la méthodologie et de la technologie géodécisionnelle pour l’aide à l’évaluation des risques naturels dans le secteur
de l’assurance en France, 2009
56
LIMPIDA, De l’informatique décisionnelle à la gestion de la performance
La collecte (parfois appelée Datapumping) est l'ensemble des tâches consistant à détecter, à
sélectionner, à extraire et à filtrer les données internes et/ou externes souvent hétérogènes. Elle
s'appuie notamment sur des outils d'ETL (extract-transform-load pour extraction-transformation-
chargement).
Cette alimentation utilise les données sources issues des systèmes transactionnels de production,
le plus souvent sous forme de :
L'intégration consiste à concentrer les données collectées dans un espace unifié, dont le socle
informatique essentiel est l'entrepôt de données. Élément central du dispositif, il permet aux
applications décisionnelles de bénéficier d'une source d'information commune, homogène,
normalisée et fiable, susceptible de masquer la diversité de l'origine des données. C'est
également dans cette fonction que sont effectués éventuellement les calculs et les agrégations
(cumuls) communs à l'ensemble du projet.
La fonction d'intégration est généralement assurée par la gestion de métadonnées, qui assurent
l'interopérabilité entre toutes les ressources informatiques, que ce soit des données structurées
(bases de données accédées par des progiciels ou applications), ou des données non structurées
(documents et autres ressources non structurées, manipulés par les systèmes de gestion de
contenu).
La diffusion met les données à la disposition des utilisateurs, selon des schémas correspondant au
profil ou au métier de chacun, sachant que l'accès direct à l'entrepôt de données ne
correspondrait généralement pas aux besoins d'un décideur ou d'un analyste. L'objectif prioritaire
est de segmenter les données en contextes informationnels fortement cohérents, simples à
utiliser et correspondant à une activité décisionnelle particulière.
Alors qu'un entrepôt de données peut héberger des centaines ou des milliers de variables ou
indicateurs, un contexte de diffusion raisonnable n'en présente que quelques dizaines au
maximum.
Afin de faciliter la mise en place d’une solution transversale au sein d’un groupe, nous
proposerons dans le chapitre 3 de fonctionner par étapes en privilégiant dans un 1er temps la
constitution d’un Datamart groupant des données issues des infocentres. En effet, comme cela a
été dit précédemment, la collecte de données via Datamart peut se révéler délicate en raison des
complexités d’opérabilité à opérer entre systèmes et bases de données.
1.3 Conditions pour la mise en place d’une culture ERM au sein de la compagnie
d’assurances
À la base de l’ERM, il y a la gestion des risques et leur contrôle. L’émergence du Risk Management
dans le monde de l’assurance est très récente au regard de son existence dans d’autres secteurs.
57
J.F. LEBRATY, Les systèmes décisionnels, 2006
Une étude INGEA/La Tribune 58 concernant l’état de l’art du contrôle interne et du Risk
Management dans le secteur assurance et protection sociale met en évidence les différentes
motivations :
Ces facteurs déclenchant confirment les dynamiques observées en première partie et le besoin
ressenti d’approfondir l’analyse systématique des risques.
Figure 75 : Critères de mise en place d'un contrôle interne et d'une gestion des risques. Source : INGEA /
La Tribune
Comme nous l’avons vu en première partie, le principal déclencheur de la mise en place d’une
démarche ERM chez un assureur pour la mise en place d’un ERM est la directive Solvabilité 2 et la
prise de conscience et la pression exercée sur le management au fur et à mesure que cette
échéance se rapproche.
L’étude DELOITTE59 s’appuie sur le « Risk Management Capability Maturity Model » qui définit
cinq niveaux pour la capacité ERM : lorsque les compagnies n’ont pas d’ERM, les processus
systématiques sont réactifs, la compréhension, la mesure et la gestion des risques sont faibles, le
risque lui est le plus élevé.
A contrario, le niveau « Stratégique » est caractérisé non seulement par la présence de processus
robustes et systématiques pour l’ERM mais également par l’amélioration proactive et continue
de ces processus.
58
INGEA / La tribune/ Etat de l’art de contrôle interne et du Risk Management dans le secteur de l’assurance et de la protection
sociale, 2007
59
DELOITTE, Designing a successful ERM function, 2008
Figure 76 : Capability Maturity Model framework. Source: CARNEGIE MELLON UNIVERSITY, 1993
Sur la base des études de PriceWaterHouseCoopers60 publiée en juin 2008 et de Towers Perrin en
octobre 200861, Laurent GUERAUD a mis en évidence plusieurs considérations sur la mise en place
de l’ERM chez les assureurs:
Figure 77 : Compréhension des éléments clés de l’ERM par PWHC. Source : L. GUERAUD
• Globalement, l’ERM a fait des progrès notables en quelques années chez les acteurs
européens grâce à l’influence de Solvabilité 2.
60
PriceWaterHouseCoopers, Does ERM matter?, 2008
61
Towers Perrin, Embedding ERM, a tough nut to Crack, 2008
• Des progrès ont également été accomplis dans la gestion de leurs risques et la
connaissance de leurs portefeuilles.
Les progrès à réaliser tournent essentiellement autour de la culture ERM, c’est à dire changer les
habitudes et les réflexes de tous les acteurs impliqués dans les décisions qui vont impacter un
assureur.
Comme nous l’avons décrit précédemment (I.3.1.ii), la culture ERM doit se traduire au niveau
business. Les enjeux se traduisent en termes d’application métier, d’organisation, d’outils et de
communication.
L’intégration de l’ERM dans les décisions et prises de risque quotidiennes reste encore trop
souvent limitée.
Dans l’étude PriceWaterHouseCoopers publiée en 2008 sur l’apport d’un ERM pour la gestion des
risques, les participants considèrent que l’ERM concerne plutôt leurs décisions stratégiques,
l’allocation des ressources et le management. Toutefois, il semble que des progrès restent à
réaliser dans l’implication du middle Management dans les prises de décisions quotidiennes.
Sur la base de cette étude et du travail mené par L. GUERAUD sur la gestion des risques par les
réassureurs, il semble intéressant de transposer les grands enseignements au niveau des
assureurs toute proportion gardée.
Il faut souvent composer avec les considérations d’objectifs immédiats, qui font souvent partie
des objectifs fixés par le management des opérationnels. Le critère de performance notamment
commerciale est encore préféré à n’importe quel critère basé sur une mesure du risque.
De plus, sur la base des études précédemment citées, L. GUERAUD insiste sur le besoin de
progresser sur l’identification et l’évaluation des risques.
Il semble ainsi que l’évaluation des risques ne soit pas encore jugée suffisamment développée et
notamment les risques stratégiques, pour lesquels les outils et méthodologies d’évaluation tant
quantitatives que qualitatives ne semblent pas encore suffisants.
Figure 79 : Mise en place des outils et méthodologies d'évaluation qualitative des risques par PWHC.
Source : L. GUERAUD
Laurent GUERAUD a mis en évidence que les évaluations se font souvent à très haut niveau, de
manière confidentielle entre un nombre limité d’acteurs. Les décisions doivent donc redescendre
au niveau opérationnel.
Des efforts sont donc à fournir pour rendre plus accessibles la méthodologie d’évaluation des
risques et les outils associés de façon à contribuer à une diffusion de la culture ERM à l’ensemble
des collaborateurs. Une approche holistique des risques fait partie de la culture commune qui
doit être partagée à tous les niveaux de l’entreprise. La mise en place d’outils dédiés à la gestion
de l’ERM doit permettre, en plus d’une meilleure maîtrise des risques, de faciliter et d’élargir
l’accès à cette information.
L’objectif est ici d’apporter une réponse opérationnelle à la gestion des risques majeurs en posant
les fondements méthodologiques et technologiques d’une approche géodécisionnelle au sein
d’une société d’assurances.
La gestion des risques d’un portefeuille d’assurance dommages se traduit par un certain nombre
d’éléments propres au portefeuille (le type de risque, les éléments propres au contrat, l’activité
d’un assuré professionnel, l’âge d’une personne, etc.). Ces éléments sont susceptibles d’être
impactés par des facteurs externes à l’assureur (aléa naturel, présence d’une usine Seveso, etc.).
Combinés, ces éléments génèrent un 3ème type de données : la sinistralité.
Le croisement de ces données implique la mise en place d’une structure technologique de gestion
de données visant à alimenter le SIG, de l’analyser afin in fine de restituer l’information à un
utilisateur. Ainsi, le croisement de l’information et l’analyse géographique ne sont permis que si le
SIG est couplé au Système d’Information Décisionnel (SID) utilisé dans l’entreprise, permettant
d’accéder aux diverses sources d’information et de mettre à disposition des décideurs et
utilisateurs les analyses et reporting.
Les SID s’entendent comme étant l’ensemble des moyens, des outils et des méthodes qui
permettent de collecter, de consolider, de modéliser et de restituer les données d’une entreprise
en vue d’offrir une aide à la décision et de permettre aux responsables de la stratégie d’une
entreprise de voir de façon synthétique l’ensemble de l’activité traitée (IRIS, 2009)62.
Les SIG peuvent être considérés comme des extensions technologiques aux SID permettant de
donner une dimension géographique à l’analyse des données internes et externes collectées. De
ce couplage données/ analyse géographique, le risque manager obtient un Système d’Information
Géodécisionnel (SIGD), dont Julien IRIS (2009) propose une définition : « Le Géodécisionnel
constitue une discipline regroupant l’ensemble des moyens, outils et méthode permettant de
collecter, consolider, modéliser et restituer des données en vue d’offrir des capacités d’analyse
globales et détaillées dans l’espace et dans le temps ».
62
J.IRIS, Contribution de la méthodologie et de la technologie géodécisionnelle pour l’aide à l’évaluation des risques naturels, 2009
Un SIGD s’appuie sur des outils de visualisation permettant d’interagir avec une structure de
données spatiales multidimensionnelle. Afin de garantir une certaine souplesse dans l’analyse et
la visualisation des faits, des concepts clés ont été mis en avant par la communauté des
chercheurs travaillant autour des SIGD.
Tout d’abord il apparaît que la simple visualisation sur une carte de données stockées dans un
cube OLAP offre une visibilité sur le phénomène étudié que les tableaux et les graphiques ne
permettent pas. La carte offre une représentation intuitive qui vient naturellement enrichir les
rôles des tableaux et graphiques qui parfois peuvent être rendus illisibles par la densité
d’information. La carte permet d’abstraire les données spatiales et permet ainsi aux décideurs et
aux analystes de se concentrer uniquement sur les données non géographiques.
Figure 80 : Exemple d’une plateforme géodécisionnelle développée par Pitney Bowes Business Inside
pour les besoins du pilote mené par le Pôle Risques majeurs de Covéa. Source :
Groupe COVEA
Afin de pouvoir répondre à ces besoins, l’outil de visualisation doit répondre à un certain nombre
de critères énoncés :
• Visualisation des données : Il s’agit d’un principe de base des SIGD. La visualisation des
données doit être claire, flexible, et doit permettre d’utiliser des outils autres que la
représentation cartographique. Des tableaux, des outils statistiques, des graphiques sont autant
de compléments d’informations souvent indispensables à la bonne compréhension des données.
• Manipulation des données : L’outil doit permettre d’exploiter pleinement les possibilités
de l’OLAP dans la représentation cartographique des Cubes. Il serait intéressant de pouvoir
visualiser facilement les opérations « Remonter », « Pivoter » et « Forer » dans les « Dimensions
Spatiales » autant que dans les autres « Dimensions » (temporelles, descriptives, etc.).
Les critères de visualisation SOLAP permettent dans le cadre de l’exemple des sites exposés
d’offrir plus de visibilité sur l’analyse de l’exposition des assurés d’une société d’assurances.
Ainsi une visualisation cartographique permettrait de constater la distribution spatiale des risques
assurés d’une société. Il s’agit par exemple d’étudier la densité des biens assurés dans les zones
inondables. La comptabilisation des sites et des mesures peut se faire soit sous l’angle
administratif, soit sous l’angle propre au découpage géographique de l’entreprise d’assurances.
Cela permet notamment d’identifier visuellement les zones géographiques avec une forte
concentration de sites assurés. L’utilisation de graphiques combinés à des cartes thématiques sur
les Mesures permet d’étudier les corrélations spatiales et temporelles.
Comme pour les SID, les Systèmes d’Information Géodécisionnels (SIGD) visent à proposer aux
décideurs des éléments tangibles permettant de supporter la prise de décision.
Concernant les SIG, ceux-ci permettent d’analyser de manière fine les phénomènes ayant une
composante géographique mais ils restent des outils opérationnels destinés à traiter l’information
en mode transactionnel en s’appuyant sur des systèmes de requêtages complexes (processus
OLTP). Les SIG souffrent de temps de réponse lents sans fonctionnalités de synthèse et de
regroupement d’information.
Les SIGD ont pour objectif de coupler les avantages fonctionnels et technologiques des SIG avec
ceux des processus OLAP spécifiques au décisionnel. Ce mariage a pour objectif d’offrir aux
décideurs la capacité de tirer pleinement profit de la composante spatiale des données stockées
dans le système d’information soit dans des bases de données relationnelles, soit dans des
entrepôts de données, et de pouvoir explorer des indicateurs liés à une problématique dans
l’espace et dans le temps. On distingue deux approches : d’une part simplement représenter sous
forme de cartes le contenu des entrepôts de données existants, et d’autre part construire de
nouveaux entrepôts (Datawarehouse) et magasins de données (Datamart) intégrant des résultats
de traitements géographiques et non géographiques afin de répondre à des problématiques qui
n’avaient pas pu être abordées par le passé.
Pour une plateforme géodécisionnelle, les parties « Systèmes d’Information Géographiques (SIG)
et Système d’Information Décisionnelles (SID) sont interdépendantes puisque chaque cube SOLAP
configuré doit être relié à un projet géographique créé dans la plateforme.
Ainsi le SIGD est vu comme l’ensemble des technologies capables de combiner les composantes
multidimensionnelles et les composantes géographiques. Le terme Spatial OLAP désigne aussi les
outils d’analyse de type SIGD.
Le Spatial OLAP est dédié à l’analyse et à l’exploration d’indicateurs résultant de modèle spatiaux
multidimensionnel.
Il est possible aussi de construire des Tableaux De Bord Spatiaux (TDBS) répondant au même type
de besoin que le TDB avec en plus l’intégration de la visualisation cartographique ; le tableau de
Comme pour le décisionnel, ce sont les outils d’analyse de type SOLAP et les tableaux de bords
spatiaux qui permettent de restituer de façon interactive aux analystes et aux décideurs le
contenu des structures multidimensionnelles intégrant la composante géographique (modèles
spatiaux multidimensionnels).
- dans sa souplesse d'interface utilisateur pour explorer les modèles spatiaux multidimensionnels :
l'interface permet de naviguer dans les données grâce à des opérateurs de type SIG, des
opérateurs spécifiques de type SOLAP, des opérateurs de navigation temporelle, des générateurs
de combinaisons thématiques d’états cartographiques, graphiques et tabulaires.
L’objectif de ces traitements est d’aboutir à la réalisation de premiers prototypes autour des cas
d'étude modélisée dans le chapitre précédent. Tandis que la méthode de modélisation permet de
s’assurer que les « Dimensions » s’accordent bien avec la représentation mentale que se fait
l'utilisateur du problème, l’interface de restitution géodécisionnelle doit garantir à l'utilisateur
final qu'il pourra facilement explorer les indicateurs sur ces différents axes et ce sur plusieurs
supports d’analyses possibles : graphiques, tableaux mais aussi et surtout cartographies.
2) « Réaliser les traitements » : cette phase consiste à mettre en place la chaîne d'ingénierie de
traitements informatiques permettant de charger la structure de données spatiale
multidimensionnelle (« Cube » de données). Ces traitements correspondent à ceux exécutés par
les outils ETL (Extract, Transform, Load) dans l’informatique décisionnelle. Etant donné que la
technologie choisie est SOLAP, on parle dans ce chapitre de « Cube SOLAP »
3) « Restituer les résultats» : cette étape consiste «à paramétrer l’interface de restitution pour
permettre une exploration et une analyse efficace des indicateurs stockés dans le « Cube » SOLAP.
Le paramétrage se fait à la fois par l’administrateur depuis la console web d’administration de
KMS / MapIntelligence de PBBI et par l’utilisateur lui-même depuis l’interface web de restitution.
Figure 82 : Schéma des étapes de la démarche d’implémentation d’une solution géodécisionnelle. Source:
Groupe COVEA
Comme nous l’avons étudié dans les précédents chapitres, l’analyse d’exposition d’un portefeuille
de risques aux aléas climatiques et technologiques nécessite l’intégration 2 types de données :
Informations administratives :
Commune déclarée à risque
Date du dernier arrêté CATNAT
Nombre d'arrêtés CATNAT
Nombre d'arrêtés CATNAT < 5ans
Etc.
Informations réglementaires :
Commune dotée d'un PPR
Date de prescription
Date d'approbation
Franchise au prochain arrêté CATNAT
Situé en zone réglementée
Données socio-économiques :
Taux de professionnels en zone d'aléa
Taux de logements en habitation collective en zone d'aléa
Taux de logements en maison individuelle en zone d'aléa
Années de construction
Zones Urbaines Sensibles
Revenus des ménages
Pour les données internes, des bases sont extraites des infocentres. Les requêtes restituent
ainsi les informations souhaitées en fonction du périmètre étudié.
Dans le cadre du pilote mené avec Pitney Bowes Business Inside, un jeu de données a été
rassemblé afin de fournir des données internes et externes.
Les données internes et externes sont assemblées dans un fichier Excel. Chaque onglet
présente un fichier comme ceux présentés précédemment. L’ensemble des onglets de chaque
fichier est ensuite chargé via l’assistant Qlikview.
Figure 85 : Étape de chargement des bases dans Qlikview. Source : Groupe COVEA
Une structuration automatique des données est opérée en procédant par jointure de tables
fournies et chargées dans l’assistant Qlikview.
Cette opération permet de faire communiquer des données internes avec des données externes.
Cette technologie présente l’avantage d’être très souple et de pouvoir associer différents formats
de données (xls, txt, cvs, etc.)
Afin de rendre encore plus interactif l’interface, des extensions ont été développées pour réaliser
en ligne des opérations topologiques (extractions d’objets géométriques, intersections,
inclusions), configurer des moteurs de géocodage (interrogation de référentiels routiers à partir
d’une ou plusieurs adresses pour obtenir les coordonnées géographiques) ou encore pour
intégrer des éléments multimédia aux objets géométriques tels que des images, des liens URL
vers des pages Internet ou des applications externes.
Figure 88 : Paramétrage de MapIntelligence : Calcul du coût moyen par Code Postal d’un sinistre tempête
et représentation thématique dans la cartographie dynamique de MapIntelligence.
Source : Groupe COVEA
Ainsi depuis ce module il sera possible de paramétrer les connexions à la BD GASPAR pour
l'avancement des procédures administratives sur les risques naturels, la base de données SITADEL
contenant les données sur l'avancement des permis de construire ou encore les bases de données
« Contrats » et « Sinistres » à l'intérieur du système d'information d'une société d'assurances.
Les bases de données paramétrées dans ce module vont permettre d'intégrer des données non
géographiques (sous forme d'attributs) avec des objets géométriques stockés dans des sources de
données géographiques.
Ainsi à partir de ce sous-module on va créer les connexions à toutes les sources de données
géographiques manipulées dans les cas d'étude comme les données issues de GEOFLA sur les
contours administratifs et les données sur les parcelles cadastrales IGN, les données issues de la
BD Profile Habitat de l'INSEE, les Atlas des Zones Inondables issus des modélisations hydro-
géomorphologiques, le Modèle Numérique de Terrain France entière fourni par la NASA (SRTM
avec 90m de précision), les PPR numérisés ou encore le découpage hydrographique des bassins
versants issus de la BD Carthage de l'IFEN.
Ce sous-module permet de configurer les projets qui seront publiés sous forme d'interfaces
clients Internet aux utilisateurs finaux. Un projet est un ensemble de couches d'informations
géographiques faisant appel aux sources de données spatiales configurées dans le sous module
précédent.
Figure 91 : Configuration de l’interface utilisateur avec les Charts (jauges, histogrammes, compteurs,
cartographique dynamique MapIntelligence, etc.) Source : Groupe COVEA
Ainsi, l’interface est créée. Afin de faciliter l’exploitation pour les utilisateurs, des listes
déroulantes par items définis dans le périmètre des données sont ajoutés sous forme de listes :
Le « Module de visualisation » permet de restituer les données aux utilisateurs finaux sous forme
de diagrammes (diagrammes à barres verticales et horizontales, camemberts, diagrammes de
points), de tableaux et de cartes dynamiques simples, complexes, multi échelles et directement
compatibles avec l’environnement de production SIG.
Figure 92 : Visualisation de la plateforme géodécisionnelle développée par Pitney Bowes Business Insight
pour les besoins du pilote mené par le Pôle Risques majeurs de Covéa. Source : Groupe COVEA
Afin de pouvoir apprécier l’exposition d’un portefeuille de risques assurés au regard de facteurs
exogènes (données sur les aléas, données socio économiques) qui sont facteurs explicatifs de
sinistralité, il nous fallait démontrer la possibilité d’associer les bases de données internes
(données analysées par les actuaires), avec des données externes traditionnellement intégrées
Sur la base de technologies développées par Pitney Bowes Business Insight et Qlikview, nous
avons pu démontrer la capacité à rendre accessible pour tout utilisateur une plateforme
géodécisionnelle en présentant deux modules d'interface (Modules d’administration et
visualisation).
Le résultat obtenu lors du pilote permet à la fois à tout collaborateur d’une société d’assurance de
faire des analyses cartographiques sans disposer des compétences d’un géomaticien, notamment
en matière de traitement et d’analyse de bases de données géographiques et non géographiques
mais également d’offrir à l’ensemble des services intéressés un outil d’analyse performant et
intuitif, sans disposer d’un profil d’actuaire.
De cette piste technologique pressentie, nous devons à présent chercher à décliner des
applications opérationnelles destinées à l’ensemble des métiers d’une société d’assurance non vie
de façon à atteindre l’objectif recherché au début de cette thèse : explorer les pistes d’outils en
vue de développer un ERM destiné à une gestion transversale et qualitative des risques, par une
analyse spatiale et multidimensionnelle de portefeuilles exposés aux risques climatiques et
technologiques.
Cette démarche prospective ne se veut en aucun cas exhaustive. Notre propos est ici de
rassembler les entités opérationnelles et de bâtir une démarche globale de gestion des
risques au sein d’une société d’assurances.
3.1 Répondre aux défis posés par chaque étape du cycle de vie d’un processus ERM
Les sociétés d’assurances ont en interne des besoins opérationnels afin de gérer au mieux leurs
relations avec les assurés et leur garantir la meilleure protection. Pour cela il est nécessaire de
prendre en compte la distribution géographique des risques naturels afin de maîtriser son
exposition et d’éviter une trop forte concentration de valeurs financières dans une zone à risque
élevé.
Indépendant du régime juridique, les risques climatiques sont autant de risques à traiter en
respectant les lois fondamentales de l’assurance que sont :
- la nécessité de production : avoir le plus grand nombre d’assurés pour pouvoir mutualiser les
risques de façon plus aisée.
- l’homogénéité des risques : classifier les risques dans des catégories de tarifs homogènes,
majorer le tarif pour les risques les plus graves, refuser d’assurer les risques certains.
- la dispersion des risques : éviter que les risques se réalisent en même temps. Cette loi est
particulièrement vraie pour les risques naturels lorsqu’une quantité trop importante d’assurés se
trouvent dans une zone touchée par une catastrophe.
- La nécessité de filtrer les risques identifiés dans les zones exposées, par un canal de distribution
comme Internet
Figure 93 : Schéma de mise en place d’une plateforme géodécisionnelle transversale à l’ensemble des
entités métier Covéa concernées par la gestion des risques climatiques et technologiques.
Sources : C.DUMARTINET, Pôle Risques Majeurs, Groupe COVEA
Par ailleurs l’assureur se doit aussi d’être force de proposition en matière de prévention ; il s’agit
de pouvoir orienter les ingénieurs préventionnistes vers les sites assurés les plus vulnérables afin
d’effectuer des visites d’expertises, d’analyser de façon détaillée le niveau de vulnérabilité aux
aléas naturels pour les entreprises mais aussi pour certaines catégories de particuliers.
Il convient de rappeler que les Systèmes d’Information Géographiques (SIG) sont des technologies
proches du géodécisionnel mais non substituables, tant dans leur usage que dans la compatibilité
avec d'autres systèmes (décisionnels). Par exemple, un éditeur comme Pitney Bowes Business
Insight propose dans son catalogue une offre SIG avec MapInfo et une offre géodécisionnelle avec
MapIntelligence. Les 2 technologies ont des positionnements bien distincts et des utilisations
spécifiques.
L’intérêt est ici de permettre à des non géomaticiens de mener des études spatiales en
restituant les développements géomatiques initialement développés avec un SIG tout en
apportant la capacité d'analyse et les fonctions d'un système décisionnel qui ne sont pas
présentes dans un SIG.
Par exemple, l’intégration des données internes dans le Datamart ou le traitement de couches
vectorielles sont autant de tâches qui peuvent être préparées par un géomaticien et intégrées
dans la plateforme. Ces opérations nécessitent une expertise spécifique. L’utilisateur de la
plateforme décisionnel, sans disposé de ce savoir-faire technique, peut bénéficier des travaux
préliminaires accomplis par le géomaticien et exploiter pleinement la plateforme géodécisionnelle
sans connaissance préalable en SIG ou retraitement de données.
Il est possible pour tout collaborateur, d’effectuer ces analyses spatiales quelque soit sa formation
ou ses fonctions exercées au sein de la société.
Les utilisateurs dont nous dessinerons les besoins dans les paragraphes suivants peuvent ainsi
exploiter la plateforme sans avoir à passer par la phase de préparation des bases de données et
par les étapes d’exploitation d’un SIG pour lesquelles une formation en géomatique est
indispensable. Cette facilité d’accès et la complémentarité de cette technologie permet par
conséquent une utilisation très large au sein de l’entreprise et de « démocratiser » l’usage de
l’analyse spatiale.
À ce titre, pour mener des études requérant des données géographiques et des bases de données
internes importantes, pouvoir déployer l'analyse d'exposition de portefeuille à l'ensemble des
métiers tout en améliorant la restitution de l'analyse au travers de tableaux de bord, un
département dédié à la gestion des risques, notamment climatiques et technologiques, doit
pouvoir s'appuyer à la fois sur des SIG et disposer d'une plateforme d'analyse géodécisionnelle.
• Définition de produits : les services d’actuariat technique ont besoin d’analyser les risques –
définir les garanties – concevoir les tarifs – élaborer les normes de tarification – définir les
méthodes de calcul et les procédures - prévoir les résultats.
De plus, en fonction des données disponibles, il est possible d’afficher des informations sur l’âge
du bâti, éventuellement le coût d’acquisition des biens immobiliers au niveau de la rue.
En définissant une zone (en rouge sur l’écran ci-dessous), le profil des risques assurés est restitué
sous forme d’histogramme. L’utilisateur de la plateforme peut également associer la valorisation
de son portefeuille et ou la représentativité de ses assurés par rapport aux données intégrées
(exemple : valorisation des risques présents en fonction du prix au m2, ou répartition par types de
risques).
• Adaptation de produits : concevoir les outils d’analyse – réaliser les études techniques sur le
portefeuille - évaluer l’évolution des risques – proposer des adaptations en termes de tarification
et/ ou de garanties - assurer la maintenance du système de tarification – évaluer l’évolution des
résultats.
Une fois le produit conçu, les services d’actuariat technique ont en charge la réalisation d’études
techniques, le suivi de la sinistralité et de l’équilibre technique.
Figure 95 : Exemple d’analyse d’exposition d’un portefeuille et de sa sinistralité. Phase de sélection des
champs. Source : Groupe COVEA et PBBI
L’analyse spatiale présente pour intérêt, non seulement de repérer géographiquement des faits,
mais également de les expliquer.
Une analyse des résultats peut être menée au regard des facteurs exogènes aux portefeuilles.
Ainsi des sinistres dont les coûts moyens sont supérieurs à une moyenne définie sont restitués
dans leur environnement.
Pour illustrer notre propos, il peut être détectés que des risques souscripteurs à proximité d’une
Zone Urbaine Sensibles (ZUS) voient leurs sinistralités en incendies graves augmenter de façon
sensibles. De même, un retour d’expérience tempête peut montrer que les maisons individuelles
situées en zones boisées ont des taux de sinistralité et des coûts moyens plus importants que les
pavillons situés en zones périurbaines.
La réduction d’une exposition à un aléa passe par la qualité de sélection de ses risques. Et la
sélection d’un risque de correspondre au niveau d’appétence pour le risque abordé
précédemment dans les chapitres concernant le pilier 2 de la Directive Solvabilité 2 et l’ERM.
Prenons l’exemple de l’inondation. Un modèle stochastique comme celui développé par JBA
permet d’attribuer une période de retour par rapport à des débits de fleuve. En fonction des
débits, sur la base de données géomorphologiques, la modélisation hydraulique estime
localement les zones inondées et les hauteurs d’eau associées. Ainsi, des zoniers sont définis ainsi
que leurs périodes de retour associées.
En fonction des données de l’Insee sur le nombre de risques présent sur une zone, un assureur
qui estime localement sa part de marché peut convenir qu’au regard de ses fonctions propres, les
garanties de ses contrats, ses traités de réassurance, etc., le niveau d’exposition acceptable se
situe au niveau d’une crue cinquantennale.
Une autre compagnie d’assurance à l’appétence du risque plus affirmés pourrait admettre un
seuil de souscription aux risques n’étant pas situés dans des zones considérées comme
décennales par le modèle hydraulique.
Dès lors que la règle de souscription est définie, l’accès des souscripteurs à la plateforme peut
permettre une analyse rapide de l’exposition du risque, notamment les risques industriels.
- de réduire les délais nécessaires. Les réponses aux propositions et les décisions devront être
prises dans des délais très courts ;
Il sera facile, même si le souscripteur ne connaît pas un domaine, de disposer des informations
techniques, de statistiques, de fréquences, voire de disposer de l'assistance d'un expert situé à
l'autre bout du monde.
Dans le cadre d’une politique de surveillance d’un portefeuille de risques professionnels, une
compagnie pourrait être amenée à extraire d’une plateforme les risques qui lui semblent
dépasser un niveau acceptable d’exposition et procéder à leur identification.
Sur cette base, le service en charge de la surveillance pourrait envisager des visites sur sites,
mieux définir une politique d’acceptation du risque correspondant à l’appétence de la société.
Suite à une vérification par des équipes de préventeurs d’une exposition trop élevée d’un site, des
mesures pourraient être envisagées au cas par cas :
- soit pour refuser d’assurer ou résilier le contrat si le niveau trop élevé d’exposition ne permet
pas une réduction de l’exposition par une politique de prévention
Pour les besoins de la Directive Solvabilité 2 ou les besoins d’achats de capacité en réassurance,
une société d’assurances doit pouvoir estimer où se situent ses cumuls de risques et estimer
l’exposition maximale de son portefeuille à des aléas comme le risque de conflagration par
exemple.
À la question : quel est votre cumul de risques dans un rayon de 300 m par rapport à une usine
Seveso, la plateforme peut fournir une estimation des cumuls de risques pour une zone et/ou un
aléa donné.
L’intégration d’un portefeuille géocodé permet de détecter les cumuls de risques sur un territoire.
La superposition d’un aléa comme une zone inondable peut ainsi attirer l’attention du
souscripteur sur l’exposition d’un portefeuille donné à un aléa.
Les capacités d’analyse du géodécisionnel permettent, sur la base d’une analyse spatiale,
d’extraire avec le module décisionnel de la plateforme la liste des cumuls de risques, les détails
des risques et les informations associées.
De plus, la connaissance de son exposition à des périls donnés permet de mieux appréhender le
calcul des réserves obligatoires et d’adopter une approche interne plus adaptée à la réalité de
l’exposition des risques assurés par l’entreprise. Ainsi, nous rejoignons notre souci d’optimiser les
fonds propres au regard des calculs fournis par la formule standard (I.2.1.i).
Figure 100 : Exemple de modélisation d’une crue et de l’exposition d’un portefeuille de risques
localement assurés. Source : Groupe COVEA
En fonction des évaluations de dommages qui peuvent être réalisées par extraction des
risques assurés sur la zone impactée (avec toutes les limites exposées sur la modélisation,
II.3.3.i), des décisions peuvent être prises d’ouvrir une agence commerciale à proximité
pour accueillir les sinistrés et faciliter l’ouverture des dossiers.
C’est également la possibilité d’orienter les forces d’expertises salariées et libérales sur
les zones en fonction de critères comme l’intensité de l’événement, le concentration de
risques assurés ou des typologies de risques comme les résidences principales pour la
prise en charge du relogement des sinistrés.
La survenance d’un événement comme une tempête, outre les problématiques sinistres de
gestion de crise, pose le problème du provisionnement de l’événement, surtout lorsque ce
dernier survient en fin d’exercice comme c’est fréquemment le cas.
Là encore, le géodécisionnel peut permettre d’apporter des éclairages sur l’événement, les taux
d’endommagement et la volumétrie de sinistres attendus, la localisation des expertises mais aussi
sur les coûts moyens.
L’intérêt du géodécisionnel est de pouvoir associer des données très diverses, aux formats de
données hétérogènes et de pouvoir, sur la base d’une analyse spatiale, effectuer une analyse
poussée comme la répartition des coûts moyens attendus par départements en fonction des
Des rafales à 150 km/h provoqueront des taux de dommages naturellement supérieurs à des
vents plus faibles, mais la typologie des dommages sera également très différente. Pour des
dommages différents, l’impact sur le coût moyen peut ainsi varier de simple ou double suivant
qu’il s’agit de quelques tuiles arrachées avec des infiltrations d’eau.
De même, pour des vitesses de vent équivalentes sur 2 départements aux normes de
constructions différentes, une analyse spatiale s’appuyant sur des analyses de type OLAP (III.2.2.i)
à partir de données internes et externes complexes, permet une estimation plus fine des
provisions techniques qui peut contribuer à aider une direction technique à prendre les décisions
adéquates.
Figure 102 : Exemple de fonctionnalités d’analyses de sinistralité tempête. Source : Groupe COVEA
La modélisation interne et l’Entreprise Risk Management (ERM) est une révolution des
esprits autant que des structures. Aucune entreprise d’Assurances ne pourra demain faire
l’économie d’une organisation performante du contrôle de son exposition aux risques. A
terme, cela signifie que des modèles internes seront nécessaires, pour définir et
démontrer le contrôle de cette exposition, au-delà des obligations créées par la Formule
Standard (SCR). Elle offre en outre des perspectives considérables d’amélioration de la
qualité du management, bien au-delà des sécurités sur la solvabilité.
Définir « l’appétit pour le risque » de l’entreprise est l’acte fondateur de l’ERM. Cet
appétit se définit dans la logique de Solvabilité II, en termes d’exposition des fonds
propres de l’entreprise mais aussi d’aversion aux risques. Cela revient à définir la part des
fonds propres perdus ou la perte d’exploitation maximale tolérable, dans le cas d’une
année marquée par de nombreux sinistres, compte tenu des protections tirées de la
réassurance. Cela revient aussi, et ce sera sans doute la conséquence majeure de
Solvabilité II, à définir le portefeuille de souscription de manière optimale par rapport au
niveau des fonds propres et à la marge de solvabilité disponible, sous une contrainte de
résultat d’exploitation attendu, de rémunération du capital (ROE). Les besoins optimaux
de fonds propres et de marges de solvabilité sont mesurés en fonction du portefeuille de
souscription. A contrario, c’est une analyse d’exposition de portefeuilles qui permet de
déterminer les besoins en fonds propres.
Le constat couramment partagé a été posé du manque d’outils robustes en France pour
l’évaluation des risques majeurs dans l’assurance dommages, de proposer des solutions
techniques permettant le développement d’outils répondant spécifiquement aux besoins
des assureurs dommages en France, tant sur la maîtrise d’exposition de portefeuille, que
la mise en place d’un ERM pour améliorer la gestion des risques au niveau de l’ensemble
de métier d’un compagnie.
Du fait du caractère spatialisé des risques naturels et technologiques, tout outil d’analyse
ne peut s’affranchir de la composante géographique des biens exposés (enjeux) et des
dangers naturels (aléas). Les risques naturels sont ceux ayant la plus forte dépendance
géographique, comme en témoignent les nombreux ouvrages dédiés à la gestion spatiale
des risques naturels et les outils exploitant l’information géographique.
Les Systèmes d’Information Décisionnels (SID), utilisés au sein des systèmes d’information
d’entreprise, permettent aux décideurs d’accéder à des fonctionnalités d’analyse et de
reporting à partir de données collectées dans les diverses sources de données distribuées
dans le système d’information de l’entreprise. Les SID sont entendus comme l’ensemble
des moyens, des outils et des méthodes qui permettent de collecter, consolider,
modéliser et restituer les données d’une entreprise en vue d’offrir une aide à la décision
et de permettre aux responsables de la stratégie d’une entreprise de voir de façon
synthétique l’ensemble de l’activité traitée. Ils reposent sur une méthode de modélisation
de données dite multidimensionnelle permettant de construire des structures de
données orientées par thème afin de pouvoir explorer et analyser les données pour la
prise de décision.
Les systèmes d’information Géodécisionnels (SIGD) sont une technologie émergente qui
n’a pas encore fait l’objet d’une véritable appropriation par le monde économique des
entreprises tout spécialement le secteur de l’assurance dommages.
Cette technologie tend à apporter une réponse opérationnelle à la gestion qualitative des
risques, par une analyse spatiale et multidimensionnelle de portefeuilles de risques,
rendant possible la mise en place d’un ERM au sein d’une compagnie d’assurances non
vie.
1.1 Diagnostic de vulnérabilité des risques majeurs sur les portefeuilles d’assurance
dommages
I.1.1.i Risques climatiques : définition du périmètre d’étude et analyse chiffrée de l’impact 7
I.1.1.ii Évolution des fréquences et de l’intensité des risques majeurs 14
1.3 Pour faire face à ce constat, les stratégies de transfert de risques se développent
I.1.3.i La réassurance traditionnelle 23
I.1.3.ii Les Cat Bonds : vers une nouvelle couverture des risques 23
Conclusion Chapitre 1 25
2.1 Vers une réforme à moyen terme du régime Catnat pourrait changer la donne
I.2.1.i Le système d’assurance « catastrophes naturelles » en France 26
I.2.1.ii Anticiper un désengagement possible de l’État 29
2.2 Les nouveaux besoins de marges de Solvabilité 2 introduit une approche globale des
risques et de l’exposition d’une compagnie d’assurance
I.2.1.i Solvabilité II présente une approche globale de l'appréciation des risques 32
I.2.1.ii Maîtriser la marge par une politique globale de gestion des risques 34
2.3 Prochaine étape : une approche qualitative de la gestion des risques amènera les
assureurs à revoir profondément la gestion des risques
I.2.3.i L’ORSA (Own Risk and Solvabilité Assessment): vers le développement
d’une culture de la gestion de risque 38
I.2.3.ii Passer du modèle standard au développement d’un modèle interne 39
3.3 Intégrer les risques et leur gestion au pilotage de l’activité de l’entreprise d’assurance
I.3.3.i Analyser l’exposition d’un portefeuille de risques au vu de ses caractéristiques
propres et de son environnement externe 46
I.3.2.ii Intégrer l’analyse du risque à l’ensemble des métiers 47
1.1 Les modèles de marché : une 1ère réponse à l’évaluation d’exposition de portefeuilles
II.1.1.i Benchmark des modèles de marché RMS, EQECAT, AIR: l’approche traditionnelle issue
des besoins en réassurance 50
II.1.1.i Limites de ces “Black boxes” 51
1.2 Des initiatives de marchés : nécessaires mais pas suffisantes pour apporter une
réponse holiste à la gestion des risques d’une société d’assurance non vie
II.1.2.i Des apports en matière d’information et de lobbying
sur le champ non concurrentiel 52
II.1.2.ii Les efforts fournis par les acteurs de la réassurance par la production de modèles ne
permettent toutefois pas de répondre aux besoins spécifiques des sociétés
d’assurance en matière de gestion globale des risques 57
2.1 Intérêt des Systèmes d’Information Géographiques (SIG) pour l’appréhension spatiale
d’un portefeuille de risques
II.2.1.i Les SIG permettent l’intégration des données hétérogènes et leurs analyses spatiales 67
II.2.1.ii La géolocalisation des portefeuilles permet d’intégrer le risque dans son
environnement78
1.3 Conditions pour la mise en place d’une culture ERM au sein de la compagnie
d’assurance
III.1.3.i Facteurs clés pour la mise en place d’une démarche ERM 117
III.1.3.ii Efforts à produire et culture ERM 120
3.1 Répondre aux défis posés par chaque étape du cycle de vie d’un processus ERM
III.3.1.i Mise en place d’une plateforme d’identification des risques et d’analyse globale
d’exposition de portefeuille 139
III.3.1.ii Intégration de la gestion des risques et diffusion généralisée de l’analyse spatiale au
sein de l’entreprise 140
Conclusion 151
Actuaris, Comment mettre en place et conduire un processus ERM ? Congrès IA, le 23 Juin 2010
Augros et M. Querel, 2001, Les dérivés climatiques et naturels : de nouvelles opportunités pour les
investisseurs. http//www.cdcixis-cm.com/Federal/TauxEtChange/doc/derives_climatiques.pdf
AMRAE, Modélisation des Risques : Enjeux et Couvertures des Catastrophes Naturelles, Deauville
2008
Aon Benfield, Event Recap Report, Windstorm Klaus – Jan. 23-24, 2009
Aon Global Risk Consulting, Enterprise Risk Management : intégrez la gestion des risques au cœur
du pilotage de vos activités, 2011
Aon Global Risk Consulting ; Solvabilité 2 : les assureurs à l’épreuve du deuxième pilier et de
l’ORSA ; 2010
BECK, La société du risque sur la voie d’une autre modernité, Flammarion, octobre 2003
BOUCHET, Intelligence économique et gestion des risques, entretien avec Alain JUILLET
CAREY, "Storm Warnings: Extreme Weather Is a Product of Climate Change ", Scientific American,
28 juin 2011
CARON, Cadre descriptif des projets d’implantations de technologies géomatiques dans les
organisations, CGR, Université de Laval, 1996
CHIROIU, Modélisation de dommages consécutifs aux séismes. Extension à d’autres aléas naturels.
Janvier 2004
CHARBONNIER ; BRIANT, Impact du changement climatique sur les assurances, ENPC 2008
DENEGRE J., SALGE F., Les Systèmes d’Information Géographique, PUF, coll. Que sais-je? N° 3122,
2004
DERIEN ; Solvabilité 2: Une réelle avancée?, Ecole Doctorale Sciences Economiques et de Gestion,
septembre 2010
DUPUY, Modèles de tempête sur l'Europe, Groupe de travail ENSAE – Actuariat, 22 juin 2009
EQECAT : http://www.eqecat.com
European Commission, 2000, Assessment of Potential effects and Adaptations for Climate Change
in Europe, The Europe Acacia Project
FAESSEL, « Le Rôle des TIC dans la pratique de l’IE à l’heure du Web 2.0 », mémoire de master
Intelligence économique et création de valeur, université Paul Cézanne, 2008
GUERAUD, Quel est l’apport d’une gestion des risques d’entreprise chez un réassureur
traditionnel européen ?, Février 2009
Guy Carpenter’s Enterprise Risk Analysis for Property & Liability Insurance Companies Recognized
as Essential ERM Reading, 2007
GIEC / Eurapco ; Etude d’impact du changement climatique sur les produits, leurs tarifications et
leurs fréquences
GIMOND, Le cycle de l’assurance Non-Vie, Une opportunité stratégique, L’exemple du marché des
risques d’entreprises, 2010
MARIN, L’usage des Systèmes d’Information PLM (Product Life-Cycle Management) contribue t-il à
l’innovation collaborative?, 12 mai 2009
MUNICH Ré, « TOPICS GEO – Catastrophes naturelles 2010, Analyses – Évaluations – Positions » ,
2010
Guy Carpenter, le rôle de la réassurance dans le calcul du SCR Cat Journées IARD de l’Institut des
actuaires; 31 Mars 2011
Guy Carpenter’s Enterprise Risk Analysis for Property & Liability Insurance Companies Recognized
as Essential ERM Reading; November 2007
INGEA / La tribune/ Etat de l’art de contrôle interne et du Risk Management dans le secteur de
l’assurance et de la protection sociale, 2007
Institut des Actuaires Conférence sur le rôle de la réassurance dans le calcul du SCR Cat Journées
IARD, 31 Mars 2011
IPCC, 2001 : Climate change, Working group II, Impacts, adaptation and vulnerability, chapter 8,
insurance and other financial services, http://www.grida.no/climate/ipcc_tar/wg2/321.htm
L’Echos des actuaires, Enterprise Risk Management au sein de Solvabilité II, Décembre 2009
Les Echos ; Solvabilité II forcera les assureurs à changer de « business model », n°20682 du 21
mail 2010
MILLIMAN, Report on the possible impact of the likely Solvency II QIS 5 Standard formula on the
European Market, June 2010
JOLIVEAU, Géomatique et gestion environnementale du territoire. Recherche sur les usages des
SIG. HDR, 2004
Pitney Bowes Business Insight, Five Steps Toward Solvency II and Beyond; Meeting Long Term
Goals and Commitments within New Regulatory and Risk Management Requirements, White
Paper, 2011
http://www.ensae.org/gene/main.php?base=38&base2=1&detail_article=748
http://www.propertycasualty360.com/2011/01/21/rms-air-eqecat-respond-to-near-term-model-
criticis
Sous
la direction de :
Richard REY
Président du Jury :
François EWALD
L’Ecole nationale d’assurances s’organise pour répondre le mieux possible à cette mission en
direction de ses élèves d’abord, mais aussi de la profession de l’assurance et de ses partenaires :
• les « séminaires innovation » animés par les auditeurs du Centre des Hautes Etudes
d’Assurance (CHEA), permettent aux professionnels de suivre les grandes innovations en assurance telles
qu’on peut les observer à l’étranger ;
• « les travaux de l’Enass » sont destinés à faire bénéficier la profession des travaux menés au sein
de l’Enass par ses professeurs et ses élèves, à tous les niveaux, dans la mesure où les jurys qui les ont
évalués ont noté leur qualité et leur originalité. Ces travaux vous seront adressés par Internet, certains
d’entre eux pouvant faire l’objet d’un tirage sur papier ou même, être édités.
François Ewald
Directeur de l’Ecole nationale d’assurances