Vous êtes sur la page 1sur 169

l’Enass

Ecole nationale d’assurances

Analyse spatiale d’exposition d’un


portefeuille de risques :
vers une nouvelle gestion des risques
majeurs en assurance dommages

Charles DUMARTINET

www.enass.fr
Remerciements

Mes premiers remerciements s’adressent tout d’abord à Richard REY, Directeur Cessions
Réassurance du groupe COVEA. La rédaction de ce manuscrit me donne l’occasion d’exprimer ma
reconnaissance pour la confiance qu’il m’a accordée dans le cadre de mes fonctions chez COVEA
et pour la qualité de ses conseils au cours de ce travail de recherche effectué sous sa direction.

Je tiens ensuite à remercier Michel GOUGNARD, Directeur Général Délégué du Groupe COVEA
dont le projet d’entreprise a permis de porter et soutenir l’innovation, l’ensemble des équipes de
COVEA AIS et tout particulièrement celle du Pôle Performance IRD sous la direction de François
JOSSE puis de Juliette BAUDOT.

C’est aussi l’opportunité de remercier tout particulièrement Dominique LEBEAU pour les riches
échanges que nous avons pu avoir sur la gestion sinistres ces dernières années, Martial PONCOT
et Jean-Louis SIMON pour leur contribution dans la relecture de cette thèse.

Je voudrais adresser ma reconnaissance à l’ensemble des collaborateurs avec qui j’ai le plaisir de
travailler et qui ont considérablement enrichi ce travail de réflexion au cours des nombreux
échanges et chantiers portant sur ces problématiques de gestion des risques majeurs, et
notamment :
• Les collaborateurs de la Direction Centrale Réassurance du Groupe COVEA ;
• Les équipes d’actuariat technique MAAF, MMA et GMF;
• L’équipe de préventeurs de COVEA Risks ;
• Le Pôle décisionnel de MAAF et l’équipe d’OSIA,
• L’équipe des souscripteurs de MMA Entreprises ;
• La société Agate France et son Directeur Patrick MARLIERE ;
• L’ensemble des collaborateurs travaillant pour des courtiers et des réassureurs dont les
échanges ont été d’une grande richesse

Mes remerciements vont également à toute l’équipe de la MRN, et notamment à son Directeur
Roland NUSSBAUM pour avoir été un vecteur de connaissances et un support technique pour les
travaux menés au cours de ces dernières années.

Je souhaite remercier les partenaires technologiques et scientifiques et tout particulièrement


David POUTIER de Pitney Bowes Software qui a réalisé les maquettes du Cogéorisks présentées
dans cet ouvrage ainsi que Nicolas LOUIS-AMEDEE de Territoires & Marketing pour ses conseils
avisés en matière de géodécisionnel.

Je remercie Monsieur François EWALD Directeur de l’ENASS et Olivier de LAGARDE, Directeur


général délégué de l’ENASS ainsi que les membres de la commission de sélection pour avoir
accepté ma candidature au MBA de l’ENASS.

Un merci tout particulier à Madame Anne RAMIN, Responsable du MBA de l’ENASS, pour son
professionnalisme, sa gentillesse et ses encouragements tout au long du cursus.

Enfin, je voudrais faire part de toute ma reconnaissance à la GMF qui m’a permis pendant 18 mois
de suivre ce programme de MBA.

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


2
Résumé

Face à la recrudescence des principaux risques menaçant la solvabilité d’une compagnie


d’assurances non vie, que sont les risques naturels et technologiques, les compagnies
d’assurance doivent revoir de façon radicale la gestion de leurs risques, d’autant que le
cadre juridique et prudentiel les y contraint (Directive Solvabilité 2, évolution du régime
Catnat).

2 défis se présentent aux assureurs :


- Être en mesure de mieux connaître leur exposition afin de déterminer leur niveau
d’engagement et leurs besoins en fonds propres.
- Être capable d’améliorer transversalement la gestion de leurs risques, de la tarification
à la gestion sinistres en passant par la souscription avec la mise en place d’une démarche
Entreprise Risk Management (ERM).

L’ERM est une révolution des esprits autant que des structures. Aucune entreprise
d’Assurances ne pourra faire l’économie d’une organisation performante dont la maîtrise
est de contrôler son exposition aux risques.

Plus que jamais, l’ensemble des métiers seront impliqués dans l’évaluation, la tarification
et le transfert des risques. L’ERM et Solvabilité II imposeront aux entreprises, même non
cotées, des obligations de transparence et de reporting qui nécessiteront des systèmes
d’information plus centralisés et plus sophistiqués.

Après avoir posé le constat couramment partagé du manque d’outils robustes en France
pour l’évaluation des risques majeurs dans l’assurance dommages, l’objet de la thèse est
de proposer des solutions techniques permettant le développement d’outils répondant
spécifiquement aux besoins des assureurs dommages en France afin d’améliorer la
gestion des risques au niveau de l’ensemble des métiers d’une compagnie.

Du fait du caractère spatialisé d’un portefeuille de risques et des risques naturels et


technologiques auxquels ils sont associés, tout outil d’analyse ne peut s’affranchir de la
composante géographique.

L’objectif est de présenter les fondements du géodécisionnel et d’explorer cette piste


technologique par la mise en place d’outils et de modèles intégrés.

Cette technologie émergente qui n’a pas encore fait l’objet d’une véritable appropriation
par le monde économique des entreprises, tout spécialement le secteur de l’assurance
dommages, peut apporter des réponses aux problématiques transversales de l’ensemble
des métiers d’une société d’assurance exposée aux risques majeurs.

Ainsi, la piste technologique pressentie réside dans les solutions géodécisionnelles. Ces
systèmes reposent sur une méthode de modélisation dite spatiale multidimensionnelle.

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


3
Executive summary

Faced with the resurgence of major risks, insurance companies must review their
management of these risks, especially given today’s regulatory and jurisprudential
requirements.

As such, insurers are faced with two main challenges:


- To be able to better understand their exposure in order to determine the necessary level of
commitment and capital needs.
- To be able to improve the management of their transversal risk, pricing management claims
in line with the Enterprise Risk Management (ERM) process.

The ERM is a revolution both in terms of approach and structures. Today’s insurance
companies cannot do without an efficient organization to control its risk exposure.

More than ever, information systems will be involved in the assessment, pricing and
reinsurance risk. In addition, the ERM and Solvency II will impose on companies, even unlisted
ones, transparency and reporting requirements that will require more centralized and
sophisticated information systems.

Beyond simply highlighting the absence in France of robust tools for the assessment of major
risks in life insurance, the aim of this thesis is to offer technical best practices for the
development of tools that specifically and comprehensively address the needs of insurers in
France to improve their risk management company-wide.

Geo-data technological solutions are the key. These systems rely on a modeling method
called ‘multi-dimensional space’.

Given the spatial character of a portfolio of risks in addition to natural and technological
hazards considerations, risk analysis need to include a geo-data component.

This paper will present the basic thinking behind using track geo business Intelligence in
support of methodological and technological exploration for the development of tools and
integrated models.

This emerging technology which has yet to be taken up by business, particularly the hazards
insurance sector, could bring answers to issues common to all insurance companies exposes
to major risks.

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


4
Sommaire
Remerciements 2

Résumé 3

Executive summary 4

Sommaire 5

Introduction 6

Partie 1 : Les assureurs dommages, confrontés à des évolutions majeures, sont


contraints de revoir leur approche en matière de gestion des risques
Chapitre 1 : L’assurance dommage voit son exposition croissante aux risques majeurs 7
Chapitre 2 : Les évolutions législatives et réglementaires contraignent les assureurs à mieux
maîtriser leur exposition face aux risques majeurs 26
Chapitre 3 : Pour relever ces défis et améliorer la gestion des risques, les assureurs doivent
entreprendre une démarche structurante : imaginer et mettre en place l’Entreprise
Risk Management (ERM) dédié à l’assurance dommage 40

Conclusion de la 1ère partie

Partie 2 : Le développement de technologies comme la géomatique permet d’apporter


des solutions de nouvelles générations plus adaptées à la maîtrise d’exposition
de portefeuilles Dommage
Chapitre 1 : Mesures d’exposition de portefeuilles : des solutions de marché répondent
partiellement aux besoins de sociétés d’assurances 50
Chapitre 2 : La géomatique : une nouvelle approche de l’analyse d’exposition de risques
et une première réponse technologique aux développements d’outils internes 67
Chapitre 3 : Opportunités de développement de modèles internes pour un assureur 91

Conclusion de la 1ère et 2nde parties

Partie 3: Le géodécisionnel permet la mise en place d’une véritable démarche ERM par un
management transversal de la gestion des risques

Chapitre 1 : Partage des connaissances internes : pour une gestion plus transversale des risques
chez un assureur 110
Chapitre 2 : Le géodécisionnel : une solution émergente dans la gestion des risques
d’un assureur 122
Chapitre 3 : Intérêt transversal à l’ensemble des métiers d’une société d’assurance 139

Conclusion 151

Bibliographie 155

Table des matières 160

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


5
Mots clés :

Gestion des risques, risques majeurs, climatiques, technologiques, Entreprise Risk Management,
Solvabilité 2, ORSA, modélisation, Systèmes d’Information Géographique (SIG), Business
Intelligence, Géodécisionnel, SOLAP, portefeuilles de risques, MRH

Introduction

Ces dernières années, les fréquences des différentes garanties MRH sont globalement stables, à
l’exception des garanties liées aux événements climatiques dont les fréquences enregistrent des
variations erratiques alors que les coûts augmentent de façon continue.

12 ans après les tempêtes Lothar et Martin et une succession d’événements (Klaus et Quinten en
2009, Xynthia en 2010 et Joachim en 2011), les compagnies d’assurance tardent à s’équiper
d’outils et de modèles, qui restent principalement de ressort des courtiers en réassurance et des
réassureurs. Or les modèles disponibles sont des outils à mailles larges destinés aux besoins de
réassureurs et peu adaptés aux besoins d’un assureur intervenant sur un territoire national.

De leur côté, les équipes internes de compagnies d’assurances impliqués dans la souscription, la
tarification, la gestion sinistres et les services de réassurance ont longtemps géré leurs risques sur
la base de modèles statistiques, c’est-à-dire fondés sur la sinistralité historique de leurs données
internes. Or ces modèles, bien qu’extrêmement utiles en tant que modèles de référence,
n’offrent pas la fiabilité voulue pour permettre une évaluation précise du risque de catastrophe,
la raison principale étant le manque de données statistiques concernant les événements
historiques.

Les outils internes semblent aujourd’hui faire défaut pour anticiper l’impact de tels événements
ou affiner les critères de tarification.

Au moment où les assureurs s’interrogent sur la rentabilité des contrats MRH et cherchent à
fidéliser leurs clients en se différenciant en matière de qualité de service, une meilleure gestion
des risques majeurs apparait comme une opportunité de premier choix. Il semble donc être
temps pour les assureurs d’investir dans ce domaine stratégique.

Face à un environnement qui se régule de plus en plus et fait sa mutation, comment se


comportent les assureurs face à la gestion des risques ?
Quels moyens déploient-ils pour répondre aux nouvelles exigences prudentielles et pour rester
compétitifs ? Quelle est la place de la gestion des risques? Quel est l’apport d’une structuration
de la gestion des risques au sein d’une compagnie d’assurances ? Comment structurer la gestion
du risque et quels sont les outils à disposition ?

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


6
Partie 1 : Les assureurs dommages, confrontés à des évolutions majeures,
sont contraints de revoir leur approche en matière de gestion des
risques

Selon Ulrich Beck1, nous sommes passés d’une société industrielle centrée sur la répartition des
richesses à une société centrée sur la répartition du risque. L’univers des risques est en expansion.
Une bonne gestion des risques passera obligatoirement par une évolution ou une transformation
de certains métiers.

Le risque est la matière première de l’assurance2, sa connaissance et sa maîtrise sont les


fondements du métier d’assureur.
Ainsi les métiers d’assureur et de réassureur se nourrissent de leur environnement. Leur matière
première, le risque est en perpétuelle évolution, en expansion. De nouveaux risques apparaissent,
parfois inconnus ou plus complexes, voire plus massifs.

Avec la concentration de populations sur certains territoires et l’augmentation globale des


richesses, les risques sont plus que jamais présents. Les risques majeurs, et plus particulièrement
les catastrophes naturelles ne cessent d’augmenter en fréquence et en coût.

Face à toute cette complexité, l’assureur et le réassureur doivent affiner leur perception et leur
relation au risque, et donc leur connaissance. Toute leur stratégie sera déterminée par leur
appétence et leur tolérance au risque.

Chapitre 1 : L’assurance dommage voit son exposition croissante aux risques


majeurs

1.1 Diagnostic de vulnérabilité des risques majeurs sur les portefeuilles d’assurance
dommages

L’objet des développements qui suivent est de souligner la dimension spatiale qui
caractérise un portefeuille d’assurance dommages et les aléas naturels et technologiques
facteurs de sinistralité. Les réalités physiques et géographiques sont des composantes
essentielles de la gestion des risques en assurance non-vie.

I.1.1.i Risques majeurs: définition du périmètre d’étude et analyse chiffrée de l’impact

Définition de périmètre des risques majeurs

Un risque majeur est la possibilité de survenance d’un événement d’origine naturelle ou


anthropique et se caractérise par sa faible fréquence et par son énorme impact en matière de
dommages.
Un événement majeur est fonction de l’intensité de l’événement et des zones concernées par
l’événement.

1
Ulrich Beck, La société du risque sur la voie d’une autre modernité, Flammarion, octobre 2003
2
Laurent GUERAUD, Quel est l’apport d’une gestion des risques d’entreprise chez un réassureur traditionnel européen ?, Février 2009

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


7
L’existence d’un risque majeur est liée :
• d’une part à la présence d’un événement, qui est la manifestation d’un phénomène naturel ou
anthropique ;

Figure 1 : Nombres de catastrophes naturelles de 1990 à 2010, Source : Munich Re Topics Geo 2010

Bien que fort variable d’une année à l’autre, le nombre total de catastrophes naturelles a nettement
eu tendance à augmenter au fil des dernières décennies. Alors que le nombre d’événements
géophysiques (en rouge) est relativement stable, les phénomènes météorologiques (en vert, bleu et
orange) sont en nette progression.
• D’autre part à l’existence d’enjeux, qui représentent l’ensemble des personnes et des biens
pouvant être affectés par un phénomène. Les conséquences d’un risque majeur sur les enjeux se
mesurent en termes de vulnérabilité.

Figure 2 : Géocodage des risques assurés par GMF Assurances, Source : Covéa

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


8
La dimension spatiale d’un portefeuille de risque est essentielle pour appréhender l’exposition
d’un portefeuille de risques pouvant être impactés par des événements localisés. Sur la carte ci-
dessus, il apparait nettement en rouge les zones à enjeux où se situent les plus grandes
concentrations de risques assurés, en l’occurrence, les agglomérations situées sur le littoral ainsi
que le bassin parisien et les grandes métropoles régionales.

Les risques majeurs se caractérisent par le fait qu’ils mettent en jeu les fonds propres d’une
compagnie d’assurance.
Les risques majeurs imposent :
- la nécessité de mesurer le risque
- les moyens de protection de fonds propres

Parmi ces moyens de protection, la réassurance est le premier moyen de protection des fonds
propres. Toutefois, il convient de distinguer la réassurance qui repose sur un socle législatif et de
la réassurance de marché.
Comme nous le verrons au chapitre 2, le régime CatNat est une loi protectrice qui mutualise le
risque dans un système de solidarité avec une garantie illimitée de l’Etat qui fait de lui in fine le
réassureur en dernier ressort. L’environnement législatif permissif n’a pas encouragé les
assureurs à faire de la prévention et à maîtriser leurs risques.
À contrario, les risques de tempêtes et de conflagrations qui sont hors régime CatNat, relèvent de
la réassurance de marché avec une obligation d’assurance dès lors qu’une assurance incendie est
souscrite dans un contrat. Pour ces aléas, privés du cadre protecteur offert par le régime CatNat,
l’intégralité du risque est supportée par l’assureur et le réassureur qui doivent protéger leurs
fonds propres et maîtriser leurs expositions.

D’après une nomenclature retenue par le ministère de l’Ecologie3, du Développement durable et


de l’Aménagement du territoire, sept risques naturels principaux sont prévisibles sur le territoire
national :
- Les tempêtes,
- les inondations,
- la subsidence,
- les séismes,
- les mouvements de terrain,
- les feux de forêt,
- les cyclones

Les risques technologiques, d’origine anthropique, sont au nombre de cinq :


- le risque nucléaire,
- le risque industriel,
- le risque de transport de matières dangereuses,
- le risque de rupture de barrage,
- le risque terroriste

Du fait de la distinction entre les 2 socles sur lesquels reposent la réassurance, de l’ampleur qui
caractérisent chaque aléa et leur impact fort sur la préservation des fonds propres, cela nous
conduit à hiérarchiser les risques majeurs, la tempête est le premier d’entre eux.

3
Guide général, Les risques majeurs, Ministère de l’Ecologie, du Développement durable et de l’Aménagement du territoire

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


9
Quelques événements récents
Les événements qu’a connu la France récemment (tempêtes Lothar et Martin (1999), Klaus
(2009) et Xynthia (2011), inondations du Var, du Rhône, explosion de l’usine AZF de Toulouse)
montrent qu’en de telles situations, les préjudices humains et matériels peuvent être
considérables.

Figure 3 : Principaux événements majeurs en France depuis 1999, Source : FFSA 2012

a- Présentation des principaux risques naturels

 Le risque tempête

Les tempêtes concernent une large partie de l’Europe, et notamment la France métropolitaine.
Celles survenues en décembre 1999 ont montré que l’ensemble du territoire est exposé, et pas
uniquement sa façade atlantique et les côtes de la Manche, fréquemment touchées.

Les tempêtes se caractérisent par l’étendue des territoires concernés par leurs trajectoires.
Contrairement aux autres aléas naturels, il est fréquent qu’une grande partie des départements
métropolitains soient affectés par des rafales pouvant générer d’importants dommages.

Figure 4 : Étendues des tempêtes, Source : Coventéo, Groupe Covéa

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


10
Figure 5 : Trajectoires de tempêtes sur la France, Source : La Chaîne Météo

 Le risque inondation

Les inondations constituent un risque majeur sur le territoire national. En raison de pressions
économiques, sociales, foncières ou encore politiques, les cours d’eau ont souvent été aménagés,
couverts, déviés, augmentant ainsi la vulnérabilité des hommes et des biens.

Figure 6 : Caractéristiques d’une crue par débordement : Source : Prim.net, Ministère de l’Ecologie et du
Développement Durable

Figure 7 : La typologie d’inondation retenue en France, Source : Prim.net, Ministère de l’Ecologie et du


Développement Durable

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


11
Figure 8 : Exposition au risque inondation en France, Source : Prim.net, Ministère de l’Ecologie et du
Développement Durable

 La subsidence (le retrait gonflement des argiles)

Certains sols argileux peuvent gonfler et se tasser du fait de variations de teneur en eau.
L’apparition des tassements différentiels peut occasionner des dégâts parfois importants aux
constructions et en particulier à celles dont les fondations sont superficielles.

L’appréciation du risque de subsidence s’apprécie à une maille très fine, généralement


cartographique par le BRGM au niveau de la parcelle de terrain.

Figure 9 : Schéma de retrait / gonflement des argiles, Source : Prim.net, Ministère de l’Ecologie et du
Développement Durable

Depuis 1989, ce sont près de 15 000 communes françaises, réparties dans 89 départements, qui
ont été reconnues en état de catastrophe naturelle vis-à-vis du retrait-gonflement.

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


12
Figure 10 : Cartographie du risque de subsidence en France, Source : BRGM

 Le risque sismique

Le risque sismique est présent partout à la surface du globe, son intensité variant d’une région à
une autre. La France n’échappe pas à la règle, puisque l’activité peut être négligeable ou faible
dans certaines régions de métropole, et forte dans les Antilles.

Figure 11 : Cartographie de sismicité en France, Source : Prim.net

Figure 12 : Schéma d’endommagement par la sismicité, Source : Prim.net, Ministère de l’Écologie


et du Développement Durable

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


13
b- Les risques technologiques

 Le risque de conflagration

Figure 13 : Schéma de conflagration, Source : Prim.net, Ministère de l’Ecologie et du Développement


Durable

Un risque industriel majeur est un événement accidentel se produisant sur un site industriel et
entraînant des conséquences immédiates graves pour le personnel, les populations avoisinantes,
les biens et/ou l’environnement.
• Les générateurs de risques sont regroupés en deux familles :
- les industries chimiques
- les industries pétrochimiques

Qu’ils soient d’origine naturelle ou technologique, les risques majeurs présentent une
dimension spatiale qui caractérise le risque sur un territoire donné. L’intégration de la gestion
de ces risques doit passer par une approche géographique de façon à cartographier le péril et
l’enjeu associé.

I.1.1.ii Évolution des fréquences et de l’intensité des risques majeurs

Le contexte conjoncturel est très largement marqué par la survenance d’événements climatiques,
même si l’explosion du site industriel AZF en 2001 rappelle la nécessité de prendre en compte les
risques technologiques dans les études d’exposition de portefeuilles, notamment pour les besoins
des services de réassurance qui seront examinés plus loin.

Les assureurs sont concernés par trois principaux risques majeurs qui affectent régulièrement leur
sinistralité :
 Les tempêtes
 Les inondations
 Les vagues de sécheresse

Les garanties couvrent les dommages causés par les aléas naturels sur le territoire métropolitain :

 Catastrophes naturelles : extension obligatoire depuis 1982 à tout contrat dommage


couvrant les événements naturels d’intensité anormale, sauf le vent.
 Tempêtes : extension obligatoire depuis 1990

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


14
En matière de catastrophes naturelles, le graphique suivant, issu du bilan annuel 2010 de Munich
Ré, représente le nombre d’événements majeurs depuis 1980.

Figure 14 : Nombre de catastrophes naturelles classées comme « grandes » et « dévastatrices de 1980


à 2010. Source : Munich Re Topics Geo 2010

Figure 15 : Coûts des catastrophes naturelles classées comme « grandes » et « dévastatrices »


en dollar constant. Source : Munich Re Topics Geo 2010

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


15
Le graphique montre clairement une augmentation importante de la fréquence des événements
durant les deux dernières décennies.

Toutefois, deux types d’événements sont à l’origine des dommages indemnisés : les «événements
locaux » et les « événements extrêmes » qui in fine, même s’ils n’ont pas la même intensité,
génèrent des impacts significatifs sur la sinistralité d’un assureur.

Les événements locaux

Ils sont fréquents, localisés, d’une intensité relative. Ils représentent 60% des indemnités versées
par les assureurs au titre des aléas naturels4.

Les événements extrêmes

Ils sont particulièrement dévastateurs et se caractérisent par une très forte intensité et une faible
fréquence. Ils représentent 40% des indemnités versées par les assureurs. Les événements
extrêmes ont un poids plus ou moins important selon leur nature : 60% du coût des tempêtes est
dû aux tempêtes extrêmes, 25% pour la sécheresse et 20% pour les inondations.
Une « période de retour », exprimée en années, est attribuée à ces événements. Elle correspond
à la fréquence à laquelle les météorologues estiment qu’un tel événement peut se reproduire. De
1988 à 2010, un grand nombre d’événements extrêmes ont touché la France.

Néanmoins, il faut bien noter que sont prises en compte les pertes économiques associées. Or la
densification de la population, l’augmentation du niveau de vie, la concentration de valeurs dans
les agglomérations et l’utilisation de technologies de plus en plus coûteuses contribuent à une
augmentation des dommages causés par un événement. Un événement d’amplitude donnée non
répertorié en 1955 peut donc être considéré en 2000 comme une catastrophe majeure.

Les pertes économiques associées aux catastrophes naturelles suivent bien évidemment la même
tendance. Celles-ci passent ainsi de 39,6 milliards de dollars dans le monde entre 1950 et 1959 à
608,5 milliards de dollars entre 1990 et 1999. Plus révélateur encore, sur 30 événements ayant eu
un coût de plus d’un milliard de dollars par l’industrie de l’assurance depuis 1980, 27 ont eu lieu
depuis 19905.

1.2 Impacts sur le marché français de l’assurance dommages et perspectives d’évolution

I.1.2.i Impacts des événements climatiques sur la sinistralité

Les coûts des catastrophes naturelles dépendent fortement du type des catastrophes et des zones
qu’elles affectent6.

4
CAREY John, "Storm Warnings: Extreme Weather Is a Product of Climate Change ", Scientific American, 28 juin 2011
5
Eurapco Executive Program, Action on climate change, June-October 2007
6
S.Charbonnier ; A. Briant, Impact du changement climatique sur les assurances, ENPC 2008

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


16
Figure 16 : Répartition des coûts par typologies d’événements naturels. Source : FFSA, avril 2009

Figure 17 : Répartition des dommages par branches entre des inondations et des tempêtes,
Source : Argus de l’assurance, février 2011, chiffres Géma / FFSA

L’évolution des coûts

L’augmentation des pertes dans les années 1990 témoigne de la densification des zones urbaines
à risques.

Les réglementations en vigueur restent laxistes en matière d’occupation des sols et les contrôles
peu fréquents ne suffisent pas à empêcher l’arrivée de nouvelles habitations ou usines dans des
zones dangereuses (zones inondables, risques de glissements de terrain). Une catastrophe
survenant dans une telle zone provoque naturellement plus de dommages que quelques années
auparavant, même si son ampleur reste la même.

Parallèlement à cette densification des régions à risques, l’augmentation du niveau de vie moyen
et l’utilisation de technologies de plus en plus coûteuses par les entreprises ou les particuliers
accroissent la sensibilité des sociétés modernes.

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


17
Figure 18 : Poids relatifs des principaux événements naturels en France. Source : Argus de l’assurance,
février 2011, chiffres Géma / FFSA

Figure 19 : Coûts des catastrophes naturelles relevant du régime Catnat et des tempêtes en millions
d’euros constants. Source : Argus de l’assurance, février 2011, chiffres Géma / FFSA

Selon une étude de la FFSA7 sur l’impact du changement climatique, au cours des 20 dernières
années, le coût global des aléas naturels en France se chiffre à 34 milliards d’euros, et ce pour les
seuls assureurs. Rapporté au budget assurance dommages des ménages et entreprises français,
cela représente 16% de leurs dépenses.

I.1.2.ii Les projections imposent aux assureurs des adaptations face à la survenance
d’événements d’ampleur

Le territoire français est donc exposé aux risques majeurs, et tout particulièrement aux
événements climatiques.

Qu’en sera-t-il dans les 20 prochaines années ?


Quelles répercussions le changement climatique aura-t-il sur ces phénomènes ?
Quel sera l’impact des mouvements de population et des richesses vers des zones à risque ?

7
FFSA, Etude relative à l’impact du changement climatique et de l’aménagement du territoire sur la survenance d’événements
naturels en France

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


18
Comment cela se traduira-t-il sur les coûts de l’assurance ?

Une étude relative à l’impact du changement climatique et de l’aménagement du territoire sur la


survenance d’événements naturels en France réalisée par la FFSA en 2007 dresse un bilan
d’exposition des risques en France et tente d’en dégager des perspectives.

2007 – 2030 : projection sur les effets socioéconomiques8


Depuis vingt ans, la physionomie de la France évolue avec comme principales tendances :

 Un accroissement de la population globale.


 Un enrichissement des ménages et entreprises.
 Des flux migratoires internes montrant des tendances à s’implanter plus particulièrement
dans certaines régions comme l’Ouest ou le Sud-ouest.

Tout cela n’est pas sans conséquence d’un point de vue assurantiel. Avec une vision
macro-économique, l’enrichissement du pays est neutre si l’on souhaite évaluer ce que sera le
coût de l’assurance aléas naturels. Si la richesse globale passe de 100 à 120, le coût de l’assurance
passant de 1 à 1,2 continue de représenter 1%. Il ne s’agit ici que d’un effet qui porte sur la masse
assurable. En revanche, avec une croissance qui bénéficie davantage à des zones exposées aux
aléas naturels, le coût de l’assurance s’en retrouve multiplié.

Sur la base d’une poursuite au cours des vingt prochaines années des tendances enregistrées
entre 1988 et 2007, l’étude conclut à un surcoût de 16 milliards d’euros. Ce montant
supplémentaire de dommages causés par les aléas naturels ne s’établit que sur la seule évolution
socioéconomique, ainsi qu’à événements naturels strictement équivalents. Ces 16 milliards
d’euros se décomposent de la manière suivante :
 14 milliards correspondent à l’augmentation de la masse assurable. Ils sont donc sans effet sur
le coût relatif de l’assurance contre les aléas naturels.
 2 milliards correspondent à l’effet « surcroissance » des zones vulnérables. Ils auront donc un
impact direct sur le coût relatif de l’assurance.

2007-2030 : projection sur les effets du changement climatique


Aux effets socioéconomiques s’ajoutent ceux d’une aggravation des événements naturels liés au
changement climatique. Pour rappel, ces événements se segmentent en deux catégories :
 Les événements locaux : fréquents et ciblés.
 Les événements extrêmes : intenses et de plus grande ampleur.

Les événements locaux


L’hypothèse retenue dans l’étude veut que le changement climatique puisse entraîner des effets
sur la survenance d’événements locaux à l’horizon 2030. La fourchette envisagée va d’une
absence d’effet supplémentaire à un accroissement de la fréquence de ces événements dans
certains départements.
 Ainsi pour la sécheresse, il faut s’attendre à une augmentation de 10% de la fréquence entre
2007 et 2030 par rapport à la période de référence. Cette prévision concerne les départements
identifiés en zone argileuse.
 Pour les inondations, un accroissement de 15% de leur fréquence est vraisemblable. Elles
toucheraient les régions sujettes aux risques de débordement de cours d’eau, de remontées de
nappes phréatiques ou encore de ruissellement urbain.

8
FFSA, Synthèse de l’étude relative à l’impact du changement climatique et de l’aménagement du territoire sur la survenance
d’événements naturels en France, avril 2009

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


19
 Enfin pour les tempêtes, 10% d’accentuation de leur fréquence est prévue pour les
départements du tiers nord de la France (Martin et Klaus qui ont ravagé le Sud de la France
relèvent d’événements extrêmes).

Les événements extrêmes


Les hypothèses retenues pour le modèle de l’étude vont d’une absence d’effet due au
changement climatique à un doublement des fréquences des événements extrêmes.

L’hypothèse du doublement de la fréquence est cohérente avec les tendances du dernier rapport
du GIEC (Groupe d’Experts Intergouvernemental sur l’Evolution du Climat). La sécheresse de 2003
dont la période de retour est de vingt ans se reproduirait alors tous les dix ans par exemple.

De même que Lothar et Martin qui toucheraient la France tous les soixante dix ans selon un
consensus de marché au lieu des cent vingt estimés. Certains événements ne doivent pas non plus
être oubliés. Ce n’est pas parce qu’au cours des vingt dernières années ils ne se sont pas produits,
qu’entre 2007 et 2030 ils n’auront pas lieu.

Ainsi, trois inondations sont envisagées :


 Une de la Seine, dont le coût est évalué à 9 milliards d’euros.
 Une de la Loire, avec pour conséquence 4 milliards d’euros de dommages indemnisés.
 Une de la Garonne, dont la facture dépasserait les 2 milliards d’euros.
Ces trois sinistres auraient une période de retour de cinquante ans.

Conclusions sur les effets du changement climatique et les évolutions socio-économiques et


leurs impacts sur l’exposition d’un portefeuille de risques en France

60 milliards d’euros sur vingt ans, telles sont les conclusions de cette étude. A l’horizon 2030,
l’indemnisation des dommages matériels liée aux événements naturels peut aller jusqu’à un
doublement. Cette charge se décompose sous la forme suivante :

Figure 20 : Facteurs d’impacts sur les coûts indemnitaires. Etude relative à l’impact du changement
climatique et de l’aménagement du territoire sur la survenance d’événements naturels en
France, Source: FFSA 2010

Le changement climatique, hors effets socioéconomiques, entraînerait selon l’hypothèse


cohérente avec les tendances retenues par le GIEC, une augmentation de la charge des sinistres
évaluée à 14 milliards d’euros pour les vingt prochaines années. Ce qui se traduirait par une

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


20
hausse de 47% par rapport à ce qui a été observé sur le passé. 13 milliards d’euros seraient liés à
une fréquence accrue des événements extrêmes, 1 milliard à celle d’événements locaux.

Comme cela a été mis en exergue par l’étude la FFSA, l’augmentation de fréquence des
événements naturels se cumule avec une évolution socio économique ayant un impact fort sur le
coût éventuel d’un événement, tant en matière d’exposition des risques et de leur localisation,
que de la valorisation des portefeuilles.

Cette hausse sera certes répartie sur une population et un nombre d’entreprises plus important,
mais elle aura tout de même un effet significatif sur le budget des ménages et les comptes des
entreprises. Et ce, quelle que soit la nature de l’événement naturel considéré. Sur les 30 milliards
d’euros supplémentaires estimés, 16 milliards auraient un impact direct sur le prix relatif de
l’assurance contre les aléas naturels. Ainsi la part de la couverture contre les événements naturels
dans le budget assurance dommages des ménages et des entreprises passerait à près de 25 %
(contre 16% initialement).

La mesure la plus simple que peut être prise les assureurs pour limiter leur exposition financière à
des événements climatiques répétés ou de très grande ampleur est bien sûr l’adaptation des
contrats qu’ils proposent à leurs assurés. Ceci revient donc à refuser une partie du risque et à
laisser les particuliers le supporter. Il s’avère que dans un secteur fortement concurrentiel sans
barrière à l’entrée comme l’est celui de l’assurance, de telles mesures semblent difficiles à mettre
en place sans l’accord de l’ensemble des intervenants ou le soutien des autorités publiques.

Nous développerons ici trois adaptations possibles des contrats, et les mettrons en lien, en France,
avec les évolutions législatives en matière de protection et prévention.

La hausse des primes d’assurance 9


Comme ce fut le cas pour les primes MRH en 2010 après une série de tempêtes et d’événements
climatiques (grêles, inondations localisées), le premier et le plus simple des mécanismes à
disposition des assurances pour diminuer leur exposition financière, est d’augmenter le prix des
contrats, les primes. Ainsi les remboursements se faisant essentiellement à partir des primes, les
assureurs pourront faire face à des pertes plus élevées sans risque de faillite. Cependant, deux
problèmes se posent alors. Le premier étant que si une telle mesure peut permettre aux
assureurs de continuer à se protéger contre des événements peu intenses et de périodes de
retour élevées (par exemple les inondations dans le Sud de la France), il ne leur permet
absolument pas de régler le problème d’une catastrophe naturelle de très grande intensité mais
peu fréquent (par exemple, des inondations des bassins de la Loire ou de la Seine ou bien un
événement sismique dans la région de Nice). Cette solution peut donc positionner les assureurs
dans une situation de relative confiance sans pour autant régler le problème. Ceci semble être
partiellement la situation des assureurs français, maîtrisant les risques récurrents d’inondations
dans le Sud mais peu préparés à un événement plus substantiel. Le risque reste alors supporté par
l’État et donc les contribuables.

Un second problème concerne la nature même du marché de l’assurance. Ce marché est très
ouvert et très compétitif. Aussi toute hausse de tarif verra l’arrivée de nouveaux concurrents
attirés par les gains réalisables au détriment d’une couverture efficace. Du fait de la concurrence,
cette protection via la hausse des primes d’assurances semble peu envisageable. Un exemple
intéressant vient étayer cet argument. L’évolution de la valeur des primes est généralement un
bon indicateur de la sévérité d’une catastrophe. Ainsi a-t-on vu en France après la tempête de

9
IPCC, 2001 : Climate change, Working group II, Impacts, adaptation and vulnerability, chapter 8, insurance and other financial
services, http://www.grida.no/climate/ipcc_tar/wg2/321.htm

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


21
décembre 1999 le prix des primes de contrats d’assurance et de réassurance « multirisque
Habitation » (MRH) augmenter. Ceci est la conséquence d’un phénomène d’ « oubli » collectif.
Ainsi la quote-part prévue dans le contrat MRH pour provisionner des pertes dues aux tempêtes
était, avant l’événement, complètement absente, à savoir que les assureurs et les réassureurs
offraient la protection aux particuliers sans la provisionner. Cette pratique permet, tant
qu’aucune catastrophe ne survient, de proposer des prix plus compétitifs. Cependant au moment
de l’événement, la charge des pertes revient à l’Etat, et les assureurs et réassureurs doivent
mécaniquement rehausser la valeur des primes les années suivant la catastrophe pour renflouer
leurs provisions.

 La limitation de la valeur des biens assurés ? 10


Ce second mécanisme consisterait soit à augmenter les franchises dans les contrats d’assurances
soit à ne rembourser qu’une valeur maximale après une catastrophe, laissant ainsi une partie du
risque et donc des pertes encourues à la charge des assurés. Là encore dans un marché de forte
concurrence de tels processus sont peu viables, car ils permettent à de nouveaux entrants de
proposer des contrats plus complets à des prix attractifs.

On note au contraire, sous la pression des pouvoirs publics, la multiplication de dérogations


contractuelles lors de la survenance d’événements médiatisés (abandon de franchises, etc.) est
devenue la règle.
Il conviendrait plutôt d’envisager des options à inclure au contrat afin de proposer une couverture
élargie dans les cas où la modulation de la prime soit possible.

De tels mécanismes auraient cependant l’avantage de pouvoir inciter les assurés à une plus
grande prévention et protection et ainsi limiter les effets de biais de sélection.

 La maîtrise des pertes 11


Selon une piste envisagée par la Commission européenne, cette stratégie consisterait à utiliser les
spécificités de chaque sociétaire pour réduire le risque qu’il encourt et donc la valeur des pertes à
assurer. Cette démarche est particulièrement utilisée avec les industriels sont plus enclins à une
plus grande prévention et protection des risques. Ainsi dans ces contrats des clauses stipulent les
règles que doivent respecter les industriels en matière de protection aux risques pour pouvoir
être indemnisés.

Concernant les particuliers, ce mécanisme est plus difficile à mettre en place. Les particuliers sont,
sans l’occurrence d’une catastrophe majeure, moins enclins à la protection et à la prévention.

Les deux sous parties précédentes sont arrivées aux conclusions suivantes.

Les pertes économiques assurées ont augmenté ces vingt dernières années. Si une augmentation
dans la fréquence et l’ampleur des événements climatiques ne peut être exclue, cette
augmentation des pertes est plus largement due aux trois facteurs suivants :

 La concentration des activités humaines,


 L’augmentation de la valeur des biens assurés, du fait des développements
technologiques,
 La très grande pénétration de l’assurance dans les modes de vie.

10
European Commission, 2000, Assessment of Potential effects and Adaptations for Climate Change in Europe, The Europe Acacia
Project
11
Idem European Commission, 2000

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


22
Face à ces adaptations des assureurs dont les effets resteraient limités, comment le secteur de
l’assurance peut-il réagir face à ces deux types d’événements qui comptent approximativement
chacun pour moitié dans les pertes enregistrées ?

1.3 Pour faire face à ce constat, les stratégies de transfert de risques se développent

En plus des adaptations précédemment proposées, deux philosophies d’actions peuvent


permettre de limiter les charges du secteur de l’assurance face au risque d’une catastrophe
naturelle.

I.1.3.i La réassurance traditionnelle

La première consiste à réduire la part du risque supporté par le secteur pour le transférer à
d’autres acteurs économiques (Etats, particuliers, marchés financiers)

Le principe de la réassurance est qu’une société d’assurances cède tout ou partie de son
portefeuille, et donc de son risque mais aussi de sa prime et des sinistres, auprès d’un ou
plusieurs réassureurs. La société d’assurances est alors appelée la cédante car elle réalise une
cession auprès d'un ou plusieurs réassureurs, ces derniers effectuant quant à eux une acceptation.

L’assurance et la Réassurance partagent la même finalité : la mutualisation des risques.


Les pertes assurées sont essentiellement remboursées grâce aux primes d’assurances, et aux
différents surplus que les sociétés tirent de leurs actifs. Cependant, la capacité à reconstituer des
surplus importants, à travers des primes ou autres, est assez lente en comparaison de
l’augmentation tendancielle des pertes assurées. Aussi, que ce soit dans le cas de catastrophes
de faible ou moyenne sévérité souvent répétées, ou de catastrophes moins fréquentes mais plus
sévères, les assureurs disposent d’un ensemble de mécanismes pour réduire leur vulnérabilité
financière.

Figure 21 : Part des réassureurs dans l’assurance des catastrophes, Sources : Insurance Information
Institute, Avril 2008

Elle facilite la redistribution et la dispersion des risques importants tout en allégeant la trésorerie
de l’assureur dans les cas de sinistres ou d’événements de grande ampleur. La réassurance aide
finalement l’assureur à surveiller ses risques en lui permettant par exemple de compenser les plus
catastrophiques.

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


23
I.1.3.ii Les Cat Bonds : vers une nouvelle couverture des risques

Si les capacités financières dans le secteur de l’assurance et de la réassurance apparaissent au


niveau macro économique surcapacitaires depuis plusieurs années, ces capacités apparaissent par
contre limitées voire insuffisantes lorsqu’il s’agit de couvrir les risques de pointe les plus volatils
comme les catastrophes naturelles. Au contraire, les marchés financiers disposent eux de
capacités très importantes12.

Une forme de complémentarité émerge donc entre les solutions de marchés et les couvertures
traditionnelles13
La titrisation via l’émission d’obligations catastrophes (cat bonds) constitue un instrument de
financement alternatif pour les assureurs et réassureurs leur permettant d’atténuer leurs besoins
de fonds propres supplémentaires pour couvrir des risques extrêmes.

Christophe GIMOND a montré que le principe de base des Cat bonds est le suivant: l’entreprise
cédante du risque émet une dette obligataire dont le remboursement est conditionné à la
survenance d’un événement donné (séisme, tempête,…). Les détenteurs touchent un taux
variable (produit du placement des fonds levés et prime payée par l’assureur) et le principal
lorsque les titres arrivent à échéance (sous réserve que l’événement spécifié ne se soit pas
produit).

D’après l’auteur, chaque partie y trouve son intérêt : pour les assureurs et réassureurs l’émission
d’obligations « catastrophes » présente l’avantage de réduire le besoin en capital réglementaire
(et donc d’améliorer le rendement des fonds propres grâce à une plus grande efficacité du
capital) : pour les investisseurs, les «CAT bonds», par essence largement décorrélés des autres
actifs financiers représentent une source intéressante dans une optique de diversification de
portefeuille.

En effet, en cas de survenance de ce type d’événements, les dégâts pourraient être énormes en
termes humain et financier. A titre d’illustration, les dommages causés par l’ouragan Katrina en
2005 ont été estimé à plus de 80 milliards de dollars par le gouvernement Américain

Ce marché, dominé aujourd’hui par le réassureur Suisse Swiss Ré, est resté relativement
confidentiel avec des émissions annuelles de l’ordre de 10 milliards de dollars par an. D’une durée
relativement courte (en général 2/3 ans), ces obligations ne semblent toujours pas avoir trouvé
les faveurs des investisseurs, en raison vraisemblablement de leur caractère aléatoire. Pourtant,
leurs avantages sont multiples: tout d’abord, des taux de rémunération attractifs car supérieurs à
ceux offerts par des obligations d’Etats ou d’entreprises, affichant pourtant les même « rating »
par les agences de notation, mais aussi et surtout une corrélation faible par rapport aux autres
classes d’actifs.

Nous avons montré au paragraphe précédent que la survenance de risques catastrophes


constituait un facteur essentiel des cycles qui affectent le marché de la réassurance. La titrisation
des risques catastrophes constitue donc un phénomène positif pour la stabilité financière dans
son ensemble en permettant de combler des insuffisances de garantie en phase de marché tendu
et en contribuant ainsi à limiter voire à éviter les pics tarifaires affectant le marché de l’assurance.

12
J.C. Augros et M. Querel, 2001, Les dérivés climatiques et naturels : de nouvelles opportunités pour les investisseurs.
http//www.cdcixis-cm.com/Federal/TauxEtChange/doc/derives_climatiques.pdf
13
C. GIMOND, Le cycle de l’assurance Non-Vie, Une opportunité stratégique, L’exemple du marché des risques d’entreprises, 2010

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


24
Ces instruments de transfert des risques impliquent de disposer d’outils et de modèles de façon à
mieux estimer son exposition aux risques.

Conclusion du chapitre 1
En matière climatique, le secteur de l’assurance doit face à deux types de risques :

 Des catastrophes de faibles ou moyennes sévérités, de faible période de retour, affectant un


nombre conséquent d’assurés (ex : tempêtes) mais sur une zone géographique limitée (ex : crues
cévenoles dans le Sud-est de la France). Face à de tels risques les instruments traditionnels offerts
par les contrats, multirisques habitation notamment, et le fonctionnement normal du secteur
(assurance puis réassurance (voir supra)) permettent un équilibre des comptes financiers du
secteur. Cependant, le marché de l’assurance atteint sur ce genre de risque un équilibre précaire,
certaines petites sociétés cédantes ne peuvent faire face à une fréquence des pertes plus élevées
et l’on voit émerger de grands groupes.

 Des catastrophes de très forte intensité, avec des périodes de retour supérieures à 10 ans.
L’occurrence de telles catastrophes, si elle ne met pas en péril le secteur de l’assurance dans son
ensemble, l’affecte fortement (ex : augmentation des primes d’assurances après les tempêtes
Klaus et Quinten en 2009).

Dans tous les cas, les sociétés d’assurances doivent s’adapter à la survenance d’événements
climatiques et technologiques. Les assureurs doivent développer des protections et les mesures
propres pour limiter leur exposition sont insuffisantes et limitent leur compétitivité par rapport à
la concurrence.

Des stratégies de transferts de risques sont donc nécessaires. Toutefois, la réassurance


traditionnelle et la titrisation des risques par les marchés impliquent une bonne maîtrise de leur
exposition afin d’optimiser ces choix stratégiques.
Quels sont aujourd’hui les outils mis à disposition des assureurs?
Comment les acteurs du marché estiment ils l’exposition de leurs portefeuilles aux risques
majeurs ?
Face à un environnement qui se régule de plus en plus et fait sa mutation, comment se
comportent les assureurs face à la gestion des risques ? Quels moyens déploient-ils pour
répondre aux exigences des différents acteurs de l’ERM et pour rester compétitifs ? Quelle est la
place de l’ERM ? Quel est l’apport d’une structuration de la gestion des risques d’entreprise ?
Jusqu’où ira la mise en place d’un cadre ERM ? Comment structurer la gestion du risque ? Quelle
est la place du « Risk Manager » ?

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


25
Chapitre 2 : Les évolutions législatives et réglementaires contraignent les
assureurs à mieux maîtriser leurs expositions face aux risques majeurs

2.1 Une réforme à moyen terme du régime Catnat qui pourrait changer la donne

I.2.1.i Le système d’assurance « catastrophes naturelles » en France

La notion de catastrophe naturelle est précisée dans l’article L.125.1 du code des assurances :
«sont considérés comme les effets des catastrophes naturelles les dommages matériels directs
non assurables ayant eu pour cause déterminante l’intensité anormale d’un agent naturel,
lorsque les mesures habituelles à prendre pour prévenir ces dommages n’ont pu empêcher leur
survenance ou n’ont pu être prises ». En pratique, il s’agit des inondations, sécheresses, séismes,
avalanches, mouvements de terrain, cyclone, éruptions volcaniques dans les DOM, etc.

Les dommages provoqués par une catastrophe naturelle sont difficiles à évaluer et leur coût peut
être considérable. C’est pourquoi l’Etat apporte sa garantie par l’intermédiaire d’une entreprise
publique, la Caisse centrale de réassurance (CCR), auprès de laquelle les sociétés d’assurances
peuvent en partie se réassurer.

 Coût de la garantie de l’Etat pour les assureurs

La garantie de l’Etat couvre une partie des périls climatiques, notamment les inondations
majeures et les phénomènes de sécheresse.
Le montant des primes acquises réglées par les assureurs atteint plus de 700 M€ en 2008 et la
provision d’égalisation constituée par la CCR au 31/12/2008 totalise près de 1700 M€.

Figure 22 : Résultats techniques de la CCR. Source : Rencontres GEMA – FFSA – CCR, septembre 2009

Néanmoins, les tempêtes et les phénomènes de grêle qui ont sévit au cours de l’année 2009 ne
sont pas couverts par la garantie de l’Etat.

Ces modifications possibles du régime Cat. Nat. pourraient traduire un désengagement partiel de
l’Etat dans la couverture des périls climatiques, ce qui renforcerait la nécessité pour les assureurs
d’être capables d’identifier et de mettre en œuvre des leviers de différenciation concurrentielle
sur le cœur de métier : tarification, souscription, gestion des sinistres.

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


26
 Évolution des primes et des charges de sinistres

La rentabilité du régime Catnat pour le « marché », c’est-à-dire l’ensemble des assureurs de


premier rang, peut être évaluée grâce aux enquêtes que l’Autorité de Contrôle Prudentiel (ACP)
réalise chaque année auprès des compagnies d’assurance afin de connaître leurs résultats
techniques pour les principales catégories de risques.

Le graphique ci-après montre qu’après une progression rapide entre 1983 et 1984, due à un
ajustement du taux de la prime additionnelle qui avait été fixé initialement à 6%, il apparaît que le
volume des primes encaissées augmente ensuite plus lentement et diminue même à partir de
1996.

Figure 23 : Évolution des primes et des sinistres pour le marché avant et après réassurance. Source : IGF,
2005

En 1999 intervient une nouvelle augmentation de la prime additionnelle : le taux applicable aux
biens autres que les véhicules terrestres à moteur est porté de 9% à 12%.

Exception faite de 1983, qui est essentiellement une année de rodage pour le régime, il apparaît
que la charge de sinistres brute n’a dépassé le montant des primes encaissées sur la période qu’à
quatre reprises : en 1993, 1998, 1999 et 2003. Dans ces quatre cas, l’intervention de la
réassurance (CCR eu autres compagnies en sous-jacents) a permis d’atténuer le montant du
dépassement, qui a été au maximum de 88 M€ en 1999.

Le ratio sinistres sur primes, après réassurance, n’a été supérieur à 100% qu’en 1993, 1999 et
2003 et n’a jamais dépassé 111%.

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


27
Figure 24 : Évolution du nombre de dossiers CatNat et de leur coût moyen. Source : CCR pour IGF, 2005

Pour endiguer cette certaine dérive financière, les pouvoirs publics se sont contentés jusqu’ici
d’augmenter graduellement le taux de la prime additionnelle et la possibilité laissée aux assureurs
de moduler ou majorer les franchises. Les auteurs soulignent que ces mesures n’ont pas résolu la
disparité croissante de situation entre les assurés qui bénéficient du régime Catnat, parfois de
manière répétitive, comme le montre la carte ci-dessous, et ceux dont la probabilité d’en
bénéficier un jour est presque nulle.

Figure 25 : Cartographie de la fréquence des sinistres effectuées à par des données de la FFSA, Source: J.
CHEMITTE

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


28
I.2.1.ii Anticiper un désengagement possible de l’Etat

Il a été question de réformer le régime d’indemnisation des catastrophes naturelles en donnant


plus de liberté aux sociétés d’assurances et en déchargeant l’Etat d’un certain nombre de
prérogatives dont celle de fixer elle-même le montant de la prime.

Il ne s’agissait pas de remettre en cause le régime en lui-même mais plutôt d’y apporter des
évolutions permettant de renforcer son équilibre et responsabiliser les acteurs. Même si cette
réforme nationale n’est pas encore clairement définie, les lignes directrices ont tout de même été
déterminées pour constituer un avant projet de loi14. Malgré la solidité financière du régime
(jusqu’à présent tous les citoyens assurés et sinistrés ont globalement correctement indemnisés
et le régime n’est pas en faillite) il y a nécessité de réformer le régime.

Cette nécessité résulte d’une analyse critique partagée par l’ensemble des acteurs au travers un
projet de loi portant sur la du régime Catnat du 18 janvier 201215.

Ce texte vise au le renforcement de la transparence et l’équité du régime ainsi qu’à l’incitation à


la prévention. Les principaux points sont les suivantes :

• Le projet envisage de répondre à l’imprécision du cadre juridique du dispositif et au


recours insuffisant aux experts scientifiques pour permettre de déterminer ce qu’est une
catastrophe naturelle. Le texte envisage la fixation d’une liste des phénomènes éligibles
au régime d’indemnisation, une méthodologie et des paramètres permettant aux experts
scientifiques d’apprécier l’intensité anormale des agents naturels qui sont causes de ces
phénomènes ;

• En matière de sécheresse, il est envisagé d’encadrer plus clairement l’intervention de


l’assurance construction et de la garantie contre les effets des catastrophes naturelles en
matière d’indemnisation des dommages résultant d’un mouvement de terrain différentiel
consécutif à la sécheresse et à la réhydratation des sols ;

• Les conditions du bénéfice de la garantie contre les effets des catastrophes naturelles à
l’encontre des biens construits et des activités exercées sur des terrains classés
inconstructibles par un plan de prévention des risques naturels prévisibles pourraient être
revues ;

• Les dispositions envisagées renforceraient les mécanismes incitant à la prévention


contenus dans le régime d’indemnisation des catastrophes naturelles. Il est prévu
d’instaurer le principe d’une modulation des primes versées par les assurés pour la
garantie contre les effets des catastrophes naturelles en fonction de la catégorie de
contrat, de l’exposition au risque et de la mise en œuvre de mesures de prévention. Le
critère de la catégorie de contrat permet de réserver la modulation aux acteurs qui
disposent des outils en matière de renforcement de la prévention, les collectivités locales
d’une part et les entreprises à partir d’une certaine taille d’autre part.
• Il serait instauré des règles de prévention en matière de construction sur des terrains
exposés aux risques de mouvement de terrain différentiel consécutif à la sécheresse et à

14
CCSF : Consultation publique - projet de réforme du régime d'indemnisation des catastrophes naturelles
15
COMITÉ CONSULTATIF DE LA LÉGISLATION ET DE LA RÉGLEMENTATION FINANCIÈRES, note sur la présentation du projet de loi
portant réforme du régime d’indemnisation des catastrophes naturelles, 18 janvier 2012

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


29
la réhydratation des sols afin de réduire le plus possible, voire de supprimer les sinistres
causés par ce phénomène.

• Le projet de loi prévoit la définition de zones géographiques concernées par le dispositif


pose le principe, dans le cas d’une vente d’un terrain non bâti destiné à la construction
d’une maison individuelle, d’une étude de sol systématique préalable à la vente
permettant d’attester la présence ou non d’argile sur le terrain

En conclusion, les lignes directrices de ce projet montrent que les assureurs vont être amenés
dans le futur à évaluer de manière fine l’exposition aux risques naturels mais aussi l’état de la
prévention des constructions de leurs assurés afin d’être en mesure de pouvoir moduler la prime
et de participer au renforcement des mécanismes de prévention. La modulation possible de la
prime pour les professionnels aura un impact sur la politique de souscription de chaque
entreprise d’assurance afin d’optimiser les portefeuilles de contrats concernant la concentration
et la diversification des risques.

Ces modifications possibles du régime CatNat pourraient traduire un désengagement partiel de


l’Etat dans la couverture des périls climatiques, ce qui renforcerait la nécessité pour les assureurs
d’être capables d’identifier et de mettre en œuvre des leviers de différenciation concurrentielle
sur le cœur de métier : tarification, souscription, gestion des sinistres.

2.2 Les nouveaux besoins de marges de Solvabilité 2 introduit une approche globale des
risques et de l’exposition d’une compagnie d’assurance

I.2.1.i Solvabilité II présente une approche globale de l'appréciation des risques

Pour solvabilité I comme pour Solvabilité II, le régulateur demande à l’assureur de calculer une
marge de solvabilité permettant de disposer d’une couverture en fonds propres suffisante pour
couvrir la survenance de tels risques, en particuliers les risques majeurs pour un assureur
dommages et protéger ainsi les assurés contre une faillite éventuelle de l’entreprise16.

Face à cette obligation, l’assureur est contraint de mieux maitriser l’exposition des ses
portefeuilles et contenir ainsi la volatilité de son besoin de marge au travers du pilotage de son
activité.

 Sous Solvabilité I, la marge requise est un calcul très basique, forfaitaire.

En Assurance Non Vie, le montant des fonds propres requis doit être égal à 16% des primes et
18% des sinistres.

La détermination de cette marge ne tient donc pas compte l’exposition aux risques de l’entreprise,
en dehors du fait qu’elle peut être minimisée par la réassurance.

En effet, la réassurance permet de réduire les exigences de marge (50% en non vie).

De plus, sous solvabilité I, le pilotage des compagnies se fait au travers du résultat de l’exercice et
des provisions techniques. Le risque est apprécié par les provisions mathématiques.

16
Les Echos ; Solvabilité II forcera les assureurs à changer de « business model », n°20682 du 21 mail 2010

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


30
 Sous Solvabilité II, la définition de la marge de solvabilité ou SCR (Solvabilité Capital
Requirement) est fondamentalement différente de celle issue de Solvabilité I.

En effet, la solvabilité doit être appréhendée au travers d’une mesure effective et aussi directe
que possible des risques pris par l’assureur.
Le risque se retrouve directement en charge de capital17.

Cette marge peut être calculée à partir d’un modèle standard ou d’un modèle interne
spécifiquement développé par l’entreprise, qui permettra de réduire le besoin.
Quelque soit la méthode de calcul retenue, ce besoin de fonds propres doit ou « est supposé »
permettre à l’assureur d’éviter la ruine dans 99.50% des cas à l’horizon d’un an.

Cette méthode de calcul est relativement complexe, du fait qu’elle contraint l’entreprise à
quantifier un besoin en capital pour chaque risque, en tenant compte des corrélations éventuelles.
Cette approche ne contraint plus l’assureur à tenir compte de contraintes telles que les ratios
(congruence, dispersion,...), mais à allouer une part de capital pour couvrir chaque risque.

Le pilotage de l’entreprise tient dorénavant compte du calcul de marge

La technique du calcul du modèle standard permettra de mieux appréhender toutes les


évolutions des risques et donc de mettre en œuvre une nouvelle approche de la gestion des
risques.

Le BSCR (Basic Solvabilité Capital Requirement) est calculé à partir d’une matrice de corrélation de
plusieurs modules.
Chaque module représente le besoin en capital permettant de couvrir un risque inhérent à
l’activité de l’assureur (risque de souscription, risque de marché…).

Au sein de chaque module, des sous-modules prennent en compte les différents paramètres
influant sur le risque pour calculer une charge de capital (ex : le risque de souscription d’un
produit d’assurance vie varie en fonction de la mortalité) mesurée à partir de l’écart entre les
fonds propres nécessaires avant et après un choc.

Calcul du SCR CAT dans le QIS 5

Rappel historique : en vertu des CP48 et CP50, l’EIOPA a proposé l'élaboration de scénarios
standardisés pour l'estimation de la charge des risques de catastrophe requis en vertu de l'article
111.1 (c) de la directive Solvabilité II.
En effet, la méthode proposée lors du QIS4 avait de multiples problèmes, notamment de
standardisation, et suscité nombre de critiques.
L’EIOPA a donc proposé la création d'une Catastrophe Task Force.
Guy Carpenter 3
L’objectif de la CFT composée de participants externes et du CEIOPS (Swiss Re, Lloyd’s of London,
Munich Re, CCR, SCOR, Guy Carpenter, Willis, RMS) avait pour objectif de fournir à l’EIOPA des
conseils sur la mise en place et l'étalonnage des scénarios catastrophe Non-Vie en ligne avec les
recommandations des CP48 et CP50. La proposition a été bien accueillie et soutenue par la
Commission européenne.
En Juillet 2009, l’EIOPA a envoyé une lettre à un certain nombre d'intervenants pour les inviter à
faire partie de la CTF. La CTF a été créé à la fin du mois d'août 2009.

17
Guy Carpenter, le rôle de la réassurance dans le calcul du SCR Cat Journées IARD de l’Institut des actuaires; 31 Mars 2011

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


31
Le traitement retenu pour le risque Catastrophe dans le QIS5

Évolutions principales :

- Une logique par « péril » plus que par « branche »


- Des scénarios européens beaucoup plus étoffés que dans le QIS 4
- La Solvabilité II va exiger de connaître ses expositions de manière beaucoup plus détaillée
qu’auparavant (par exemple à l’échelle de la zone CRESTA ou département pour la
France)

Catastrophes naturelles
- Tempête, Inondations, Tremblement de terre, Grêle, Subsidence, DOM/ TOM inclus
- Les valeurs assurées par zone (Cresta): Agrégation par pays

Catastrophes d’origine humaine


- Incendie, Auto, Marine, Aviation, Responsabilité civile, Crédit / caution, Terrorisme
- Les approches variables selon les périls (scénarios, facteurs…)

Figure 26 : Source : Emmanuel DUBREUIL, Guy Carpenter

• Approches retenues du Risque NAT CAT :

Deux approches abordées par le CTF :


Par simulation de multiples trajectoires de tempêtes (Footprint):
- subjectif quant au choix du scenario du footprint actuel,
- difficile d’éviter les biais,
- difficile de refléter la cohérence entre pays,
- nécessité de se détacher des modèles actuels de footprints.

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


32
Figure 27 : Illustration de l’approche « Footprint », Source : Guy Carpenter 2011

Par cartographie d’aléas (Hazard Maps) :


- moins subjectif,
- matrice de corrélation/diversification difficile à calibrer, mais réalisable.

Méthode retenue
La cartographie d’aléas avec une optique forte de prise en compte de la diversification
géographique.
C’est une :
- mesure de l’intensité du hasard dans la région,
- mesure de la vulnérabilité des bâtiments et des concentrations de l’exposition du risque

Figure 28 : Exemple des taux de dommage pour le vent, Source : Emmanuel DUBREUIL, Institut des
actuaires

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


33
Approches retenues par la CTF pour le risque NAT CAT :
Chaque zone Cresta (équivalent du département) se voit attribuer un facteur d’endommagement.

Figure 29 : Facteurs d’endommagement tempête par département retenus dans le QIS 5, Source : Guy
Carpenter

Double impact :
- mise en avant du facteur Aléa : point d’impact d’une tempête.
- mise en avant du facteur
Guy Carpenter 12
Vulnérabilité : Paris est une zone moins vulnérable que les Yvelines, alors que la trajectoire est
normalement la même (pour un tempête d’Ouest en Est) ; un immeuble est moins vulnérable
qu’un pavillon.

• Risque “Man Made”

Dans le sous-module " Man-made catastrophes", sept scénarios différents susceptibles de mettre
en danger la pérennité d'une entreprise d'assurance sont définis pour calculer le capital
nécessaire suivant la méthode 1. Les scénarios catastrophe pour les branches d’assurance
suivantes et leur couverture de réassurance correspondantes sont prises en compte, et
notamment:

- Incendie / conflagration: exposition brute calculée comme le produit de la somme assurée pour
la plus grande concentration de risques connus dans un rayon de 150 mètres par un facteur
d’endommagement de 100%.
- RC automobile : exposition représentée par des événements tels que le sinistre Tunnel du Mont-
Blanc ou un accident extrêmement grave. Un événement de 200 ans est déterminé à l'aide d'une
extrapolation de Pareto.
- Marine : 2 périls principaux, collision de navires et dommage aux plates-formes pétrolières. Le
premier comprend l'exposition brute maximale en Corps pour les pétroliers, la RC marine, la RC
pollution par les hydrocarbures et les corps de navires de croisière. Les expositions brutes
maximales pour diverses sous-couvertures rentrent également en ligne de compte pour les
plates-formes.

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


34
- Terrorisme : Comme pour l’incendie, calcul découlant du produit de la somme assurée pour la
plus grande concentration de risques connus dans un rayon de 300 mètres par un facteur
d’endommagement de 50 %.

Même dans le cas où l’entreprise utilise le modèle standard pour calculer le SCR, elle doit
également justifier ses choix, les paramètres et hypothèses retenus pour les calculs et garder une
traçabilité de tout ce qui l’a conduit au résultat (fichiers, calculs, contrôles …), celui-ci ne pouvant
être dissocié des moyens mis en œuvre.

Ce calcul n’aura de sens que si les hypothèses émises par les entreprises en matière de décision,
sont effectivement mises en œuvre en cas de survenance d’un risque.

Ceci introduit donc la problématique de gestion des risques de l’entreprise d’assurance.

I.2.1.ii Maîtriser la marge par une politique globale de gestion des risques

Le Pilier 2 impose une approche qualitative du risque18 : un système global de gestion des risques.

Dans Solvabilité II, le fait que la mesure du risque soit sanctionnée par un besoin en capital
constitue un enjeu plus important, et plus stratégique pour l’entreprise que la simple gestion des
provisions techniques19.
Afin d’éclairer les décisions qui seront prises en matière de besoin de capital, il conviendra avant
de prendre des décisions dans ce domaine, de se baser sur les préconisations fournies par les
actuaires. Au-delà du fait de « compter », et d’avoir également des jugements à porter, les
actuaires auront pour mission de convaincre les décideurs de leurs jugements sur la valeur, la
substance et la qualité des risques, en particulier avec les modèles internes et l’ORSA – Own Risk
and Solvabilité Assessment. De ce fait, les services en charge des préconisations se verront confier
la responsabilité supplémentaire du reporting de la justification et du recours à des données
internes dont ils seront les gardiens.

L’exigence en capital évolue donc tous les jours, en fonction du niveau des différents indices
financiers.

Dans Solvabilité II, les compagnies d’assurances auront le choix entre deux types de stratégie :

• Ajuster le capital disponible, en faisant appel à ses actionnaires ou à l’État, quand on a un besoin
supplémentaire. C’est ce qui s’est passé récemment avec les banques américaines que l’État a
«renflouées».
• Être massivement surcapitalisé en permanence, ce qui induit des taux de rentabilité récurrents
très faibles comme ceux que peuvent connaître certaines de nos anciennes mutuelles.

La difficulté de cet exercice de pilotage va consister pour les décideurs et les actuaires à gérer un
dialogue sur la mesure rétrospective du risque ou sur les anticipations de mesure de risques et de
leur nécessaire couverture par du capital, entre les différentes strates de l’entreprise, ses
actionnaires et la supervision.

18
Milliman, Report on the possible impact of the likely Solvency II QIS 5 Standard formula on the European Market, June 2010
19
Aon Global Risk Consulting ; Solvabilité 2 : les assureurs à l’épreuve du deuxième pilier et de l’ORSA ; 2010

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


35
Figure 30 : Synthèse de la gestion des risques mise en place dans l’entreprise, Institut des Actuaires, mai 2011

Les enjeux pour les organismes assureurs sont très importants, puisque, dans ce cadre, le
régulateur aura le pouvoir de contrôler la qualité des données et des procédures d’estimation et
les systèmes mis en place pour mesurer et maîtriser les risques au cas où ils se matérialiseraient.

Parmi ces articles deux sont particulièrement importants :

• l’article 44 (gestion des risques) qui décrit le cadre général de la gestion des risques ;

• l’article 45 (évaluation interne des risques et de la solvabilité) qui précise le cadre de


l’ORSA, plus spécifiquement consacré au contrôle de la solvabilité et dont les résultats
doivent être communiqués à l’autorité de contrôle. Il est à noter que l’article 120 dispose
que les use tests doivent montrer, entre autres, que le modèle interne est fortement
utilisé dans le cadre de l’ORSA.

Schématiquement, ces articles conduisent l’entreprise à mettre en place un dispositif structuré


qui constitue un système de gestion des risques élaboré. L’organisation générale de ce système,
sa construction et son utilisation s’appuient a priori sur une architecture générique, telle que celle
proposée par le COSO (Committee Of Sponsoring Organizations of the Treadway Commission) qui
fournit un cadre procédural complet destiné à organiser un système de gestion des risques.
L’ensemble du processus de définition, de mesure et d’évolution du profil de risque est appelé
"l’appétit pour le risque", principe défini en 2002 par le COSO 2, qui correspond au niveau de
risque maximal qu’une entreprise accepte de prendre afin d’accroître sa valeur. Ainsi, son champ
d’application dépasse celui de l’ORSA, dans le sens où les mesures de risque retenues dépassent
le cadre du seul SCR (cependant ces mesures ne sont pas à communiquer à l’ACP).

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


36
Ces différentes mesures de risque sont, la plupart du temps, les valeurs à risque pour un résultat,
un niveau de capital économique, des probabilités de réalisation de certains événements clés.

Du calcul de l’exigence de marge au pilotage du profil de risques20

La notion de profil de risque peut être appréhendée de manière intuitive à partir des montants de
SCR affectés à chaque module de risque du QIS 5 : risque de marché, risque de souscription et
risque opérationnel, par exemple.

Cependant, en accord avec l’article 44 de la directive Solvabilité II, les risques n’entrant pas dans
le calcul du SCR doivent également être pris en compte (risques stratégiques, risque de
conformité…), chose particulièrement délicate de par la faiblesse de la littérature existante.

L’analyse des risques exprimée par ces exigences de marge reflète le point de vue du régulateur,
et on conçoit que l’adoption d’un autre point de vue (celui de l’actionnaire, du dirigeant, de
l’employé, etc.) conduise à une description différente des risques portés, en fonction des objectifs
propres à chaque partie prenante. Ainsi, en intégrant dans l’analyse des risques les points de vue
de différentes parties prenantes, construit-on le profil de risque de l’entité.

Définir l’appétence pour le risque

La formulation de l’appétence pour le risque implique donc d’identifier les différentes parties
prenantes et leurs attentes, puis de décrire les principales dimensions couvertes par l’appétence
pour le risque (par exemple, les dimensions liées aux résultats comptables, à la création de valeur,
à la solvabilité, à la notation…).

Pour chacune de ces dimensions, l’entreprise doit sélectionner une ou plusieurs mesures de
risque et des seuils de tolérance qui encadreront la prise de risque.
Une fois déterminés ces mesures et les seuils associés, l’entreprise doit en déduire des tolérances
par catégorie de risques (risques de marché, risque de souscription…), fixées de telle sorte que
l’agrégation des tolérances aux risques assure que l’entreprise opère de façon cohérente avec son
appétit aux risques et ses objectifs (de rentabilité notamment).

Enfin, un point essentiel est de décliner ces tolérances en limites sur les indicateurs clés suivis par
les preneurs de risque opérationnels. Cela permet d’assurer que le cadre de l’appétit pour le
risque est bien intégré dans la gestion courante des activités de l’entreprise, et de mettre en
correspondance des indicateurs de suivi technique et des indicateurs en lien direct avec les
activités opérationnelles (gestion d’actifs, souscription, gestion des systèmes informatiques, etc.).

De manière plus synthétique, on peut observer que le déploiement d’un processus d’appétence
pour le risque dans l’entreprise conduit à mettre en place des allers-retours réguliers, d’une
appréciation globale du risque vers des contraintes opérationnelles, puis de ces contraintes, via
un processus d’agrégation, vers la mesure globale du risque.

20
PriceWaterHouseCoopers, Les assureurs français et européens face aux défis de Solvabilité, octobre 2010

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


37
2.3 Prochaine étape : une approche qualitative de la gestion des risques amènera les
assureurs à revoir profondément la gestion des risques

I.2.3.i L’ORSA (Own Risk and Solvabilité Assessment): vers le développement d’une culture de
la gestion de risque21

Les objectifs du pilier 2, qui se traduit en pratique par la mise en place d’un système de gestion
des risques et de l’ORSA (Own Risk and Solvabilité Assessment), sont d’une part, de s’assurer que
la compagnie est bien gérée et en mesure de calculer et maîtriser ses risques, et d’autre part, de
s’assurer qu’elle est suffisamment capitalisée et à n’importe quel moment. Aussi, alors que le
pilier 1 calcule la probabilité de ruine à un an sur la base d’un portefeuille en run off et via un
ensemble de risques définis par la Commission européenne, l’ORSA a pour objet de s’assurer de la
solvabilité de l’assureur sur la base d’une vision incluant le plan stratégique de développement et
adaptée aux spécificités de l’entreprise. Cette approche constitue une évolution majeure par
rapport à Solvabilité I.

Pour mener à bien ce projet les entreprises du secteur devront mettre en place une direction
indépendante dédiée à la gestion des risques qui se chargera :
 D’identifier les risques,
 De mesurer les impacts financiers en cas d’occurrence des risques pour en fixer les limites,
 De gérer les risques et proposer un plan de traitement (gestion interne et/ ou transfert via
la réassurance…)

Cette direction devra intervenir avant tout nouveau lancement de produit, toute modification de
garantie sur des contrats existants, tout changement de politique de l’allocation stratégique,
d’optimisation des charges de capital ou toute nouvelle opportunité de réassurance…

De plus, les entreprises devront renforcer le rôle du contrôle interne, qui jusqu’ici se limitait trop
souvent à la maitrise des frais généraux et à l’arbitrage des budgets et qui devra dorénavant
s’assurer de la traçabilité (sécurisation des fichiers, des calculs) et garantir le respect des
procédures ….

Par ailleurs, les sociétés d’assurance se verront dans l’obligation de :


 Se doter d’outils de suivi et de pilotage des exigences de marge (tableaux de bords,
nouveaux indicateurs…),
 Redéfinir les procédures et les outils d’allocation du capital,
 Tendre dans les meilleurs délais, vers des modèles internes (ALM, Sinistres, rachats,….)
qui leur permettent de réduire leur besoin de marge,
 Former les administrateurs des sociétés à cette nouvelle manière de gérer et de s’assurer
de la bonne compréhension des enjeux par tous.

L’objectif tient en ce que les risques soient identifiés, quantifiés, traités et suivis et que ce
management soit un outil de gestion des besoins en fonds propres.

Ceci implique que des outils d’évaluation soient intégrés à la gestion de l’activité de l’entreprise.
Des outils de pilotage qui permettent de suivre les décisions prises par l’ensemble des acteurs de
l’entreprise et d’en mesurer constamment (et en temps réel) l’impact, doivent être mis en œuvre.

Le calcul de la marge de solvabilité passe aussi et avant tout par une refonte complète de la
politique de gestion des risques des entreprises.
21
C.DUMARTINET, A.MAZZANTI ; « En quoi et comment la nouvelle marge de Solvabilité européenne -Solvency II- va-t-elle changer la
gestion des risques des entreprises d’assurance européenne ?, 2010

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


38
Les acteurs de l’assurance seront amenés à faire constamment des arbitrages entre rentabilité et
solvabilité.

Pour ce faire, la Directive Solvabilité II impose explicitement la mise en œuvre de l’ORSA (Own
Risk and Solvabilité Assessment), qui matérialise cette nouvelle organisation au sein des
entreprises.
L’ORSA qui comprend la mise en place de la gestion des risques et engage ainsi l’entreprise,
apparaît bien comme un outil indissociable tout aussi important que le SCR.
On peut ainsi affirmer que c’est la composante qualitative de la directive Solvabilité II alors que le
SCR en est sa composante quantitative.
L’ORSA permettra d’assurer une plus grande cohérence des stratégies, de renforcer la vision
prospective et le pilotage de l’activité des entreprises.
Il formalisera ainsi les engagements de l’entreprise vis-à-vis du régulateur en matière de garantie
de sa marge de solvabilité.

L’ORSA doit contenir :


• L’identification des principaux risques auxquels est exposée l’entreprise.
• L’évaluation du besoin global de solvabilité.
• La couverture permanente des exigences de fonds propres et de provisionnement.
• La bonne adéquation des hypothèses prises dans le cadre du modèle standard (ou interne)
au profil des risques de l’entreprise.

I.2.3.i Passer du modèle standard au développement d’un modèle interne

Les éléments de contrôle et de pilotage que l’organisme assureur va devoir intégrer à ce dispositif
général font appel à des indicateurs quantitatifs potentiellement nombreux, qui vont lui
permettre de définir et de piloter son profil de risque. Ces indicateurs seront, dans un premier
temps, définis d’une manière holistique, puis seront par la suite ventilé par silos (il s’agira du SCR
décliné par module de risque dans le cas de l’ORSA).

Les enjeux :
• Cartographier les risques : la détermination du profil de risque spécifique de l’entreprise
nécessite l’identification exhaustive et l’analyse approfondie de risques mal connus
souvent difficiles à appréhender
• Évaluer les risques : au-delà des risques du pilier I (relatif aux risques quantifiables), les
« autres risques » nécessita des méthodes spécifiques et ad hoc
• Mettre en place un processus ORSA intégré, dans une logique de développement
d’Entreprise Risk Management (ERM). Son succès repose sur une appréhension des
implications de la gestion des risques à l’échelle de l’entreprise et une mise en place
progressive à des fins d’appropriation.
• Respecter le formalisme réglementaire pour l’évaluation des risques et les obligations de
documentations

Les besoins :
• Évaluer de façon globale la solvabilité : détermination du capital permettant de couvrir les
provisions techniques, les capitaux réglementaires –SCR et MCR- ainsi que les besoins de
capitaux internes
• Être conforme en permanence : adéquation à tout moment du capital par rapport au
niveau des risques
• Intégrer le processus ORSA de façon continue dans les décisions stratégiques

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


39
• Communiquer les résultats de l’ORSA : les informations issues du processus d’ORSA
doivent être fournies à l’autorité et transmises dans le cadre des travaux de planification
financière

Les réponses à apporter 22 :


• Cartographie des risques : identification des risques, définition des formats de
cartographie et choix des axes analytiques pertinents.
• Analyse des différents types de risques : cadre analytique pour les risques afin de
favoriser leur modélisation dans le cadre de la cartographie et de préparer des travaux de
quantification.
• Méthode d’évaluation des risques : cadre méthodologique permettant de mettre en place
des stress tests et des méthodes de modélisation afin de proposer une valorisation
adéquate.
• Conduite du changement : définition du processus (entrées, sorties, parties prenantes,
interactions avec les services, fréquence, outils nécessaires, etc.), analyse des écarts par
rapport à l’existant, définition et suivi d’un plan d’action.

Pour conclure cette partie, la mise en place d’un dispositif global et intégré de contrôle des
risques est l’une des conséquences les plus importantes du pilier 2 de Solvabilité II. Au-delà des
aspects procéduraux, proches dans l’esprit de la logique du contrôle interne, cette mise en place
doit s’appuyer sur un ensemble d’éléments quantitatifs aptes à fixer des limites du risque
supporté, tant globalement qu’au niveau de chaque fonction de l’entreprise.

22
Aon Global Risk Consulting, Enterprise Risk Management : intégrez la gestion des risques au cœur du pilotage de vos activités, 2011

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


40
Chapitre 3 : Pour relever ces défis et améliorer la gestion des risques
notamment majeurs, les assureurs doivent entreprendre une démarche
structurante : imaginer et mettre en place l’Entreprise Risk
Management (ERM) dédié à l’assurance dommage

3.1 L’Entreprise Risk Management (ERM) : une démarche fondamentale à laquelle


devront se conformer les assureurs

I.3.1.i Définition de l’Entreprise Risk Management

Les dirigeants d’entreprise ont pour mission d’assurer le développement et la pérennité de la


compagnie qui leur est confiée. Ils doivent donc sélectionner les « bons » risques et se protéger
des risques opérationnels qui peuvent atteindre l’entreprise dans son développement. Il est donc
fondamental d’avoir une gestion et un management des risques d’entreprise les plus performants
possibles23.

Le « Risk Management » a différentes significations suivant les interlocuteurs et les domaines


auxquels on fait référence. Par exemple, en finance, le « Risk Management » peut représenter
l’utilisation de dérivés de crédit pour se protéger des variations de taux d’intérêts ou des
expositions aux taux de change. Pour d’autres24 le « Risk Management » correspond à la mise en
place de systèmes de contrôle et de procédures.

Le « Risk Management » n’est pas uniquement réduire la probabilité de ruine de l’entreprise, c’est
aussi lui permettre d’augmenter ses opportunités de gains. C’est aussi avoir les bonnes
compétences au bon endroit et une culture d’entreprise adéquate. Instaurer une gestion des
risques d’entreprise c’est mettre en place une organisation et des méthodes afin de pouvoir
maîtriser et piloter les risques. Pour un assureur traditionnel dont le métier est justement de
prendre des risques, cela paraît fondamental.

Pour un dirigeant d’entreprise, mettre en place un cadre d’«Entreprise Risk Management» (ERM)
doit lui permettre de donner un maximum de confort sur la solidité et le respect de « l’appétit au
risque » de sa compagnie à l’égard de ses actionnaires, de son conseil d’administration, des
régulateurs et de toutes les autres parties prenantes en lien avec l’entreprise.

L’ERM est un concept assez récent pour lequel Laurent GUERAUD25 a trouvé plusieurs définitions
possibles :

• Selon Aon Benfield, courtier spécialiste en réassurance :

L’ERM est une façon :


- D’optimiser le ratio risque / profit
- D’identifier les risques qui offrent la meilleure profitabilité
- De réduire les risques qui offrent une rentabilité plus profitabilité
- S’assurer de l’utilisation optimale du capital

23
M.CHARBONNIER, Pratique du Risk Management, Argus, 1983
24
INTERNATIONAL ACTUARIAL ASSOCIATION, Enterprise Risk Management, “All of life is the management of risk, not its elimination”
Walter Wriston, former chairman of Citicorp, October 2008
25
L.GUERAUD ; Quel est l’apport d’une gestion des risques d’entreprise chez un réassureur traditionnel européen?, 2009

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


41
• Selon Guy Carpenter26, courtier en réassurance : « L’ERM est le processus visant, de manière
systématique et compréhensive, à identifier les risques critiques, quantifier leurs impacts et mettre
en place des stratégies intégrées pour maximiser la valeur de l’entreprise ». Pour être tout à fait
exact cette définition pourrait se terminer par : « en prenant en compte sa tolérance au risque. »
L’ensemble de ces définitions met en lumière les deux principales notions sous-jacentes à l’ERM :

Nous proposons de retenir la définition suivante : L'Entreprise Risk Management est une
technique de management destinée à aider les entreprises à gérer tous les risques auxquels elles
doivent faire face, principalement aléatoire, financier, opérationnel et stratégique. La première
étape est d'identifier et de quantifier ces risques, la seconde vise à adopter des stratégies
organisationnelles et financières pour limiter leur impact. Le but de cette technique est un
objectif d'avantages concurrentiels pour l'entreprise.

I.3.1.ii ERM & Solvabilité 2 27 : une démarche de gestion qualitative des risques

Le pilier 2 de la Directive Solvabilité II encourage ainsi les compagnies à adopter la démarche ERM
(Entreprise Risk Management) afin qu’elles soient en mesure par elles-mêmes d’apprécier et de
mesurer leurs risques.

Les exigences décrites à l’article 43 de la Directive établissent des contraintes fortes quant à la
gestion des risques à mettre en œuvre au sein des sociétés, tant d’un point de vue
organisationnel qu’en ce qui concerne les processus à adopter ou la connaissance de
l’interdépendance des risques au niveau individuel et agrégé.

L’Entreprise Risk Management, ERM, processus systématique impliquant le conseil


d’administration de l’entité, le management et tout le personnel, par lequel les sociétés
identifient, évaluent et répondent à tous les risques susceptibles d’impacter les objectifs
stratégiques et financiers de l’organisation constitue l’outil idéal pour répondre aux exigences
ainsi établies.

L’application du processus mis en place est à la charge de l’ensemble des collaborateurs de


l’entreprise. En revanche, le pilotage de l’ERM doit être confié à une cellule indépendante des
directions opérationnelles disposant d’un rapport direct avec le Conseil d’Administration.
L’implication de ce dernier est essentielle, notamment pour construire la stratégie de l’entreprise
par rapport à la gouvernance des risques, appelée appétence au risque.

L’ERM nécessite d’identifier tous les risques importants auxquels est exposée l’entreprise. Ceci
implique la construction et la maintenance d’une cartographie des risques. Celle-ci sera souvent
conçue par une approche mixte mêlant les deux méthodologies suivantes :

• Bottom-Up : approche consistant à revoir toutes les tâches élémentaires effectuées au sein de
l’entreprise afin d’identifier les risques potentiels.
• Top-Down : les risques sont définis de manière macro tels que les appréhende le top
management.

Au-delà de cette cartographie des risques, la fonction ERM doit en extraire les principaux risques
susceptibles d’avoir un impact réel sur l’activité de l’entreprise.

26
Guy Carpenter’s Enterprise Risk Analysis for Property & Liability Insurance Companies Recognized as Essential ERM Reading, 2007
27
L’Echos des actuaires, Enterprise Risk Management au sein de Solvabilité II, Décembre 2009

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


42
L’appréciation des risques peut être réalisée de manière macro dans un premier temps, par une
approche de type fréquence / intensité.
Cette appréciation 28 permettra de concentrer les efforts sur les risques les plus adverses en
termes de fréquence et/ou d’intensité, afin de déterminer la réponse la plus adaptée en fonction
de l’appétence au risque déterminée en amont. L’assureur dispose ainsi de quatre réponses
possibles :

• Acceptation
• Transfert : par la réassurance ou la titrisation
• Réduction : par la revue des processus internes
• Évitement : par la sortie d’un marché par exemple

Figure 31 : Principes fondateurs de l’ORSA : renforcer le dispositif et la culture de gestion des risques.
Source : Actuaris

3.1 Axes de développement stratégiques d’un assureur confronté au renforcement de la


gestion de risque et la maîtrise d’exposition d’un portefeuille

I.3.2.i Structuration de la démarche de gestion des risques par le référentiel COSO

Le COSO 2, "Entreprise Risk Management Framework" est aujourd'hui le cadre de référence de la


gestion des risques. Le présent chapitre vise à en réaliser une synthèse, notamment en se basant
sur les concepts développés dans le COSO 1, "Internal Control – Integrated Framework.

28
Actuaris, Comment mettre en place et conduire un processus ERM ? Congrès IA, le 23 Juin 2010

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


43
Figure 32 : Le cube COSO 2. Source: PriceWaterHouseCoopers

Positionnement du COSO 2 par rapport au COSO 1

Le COSO 1 propose un cadre de référence pour la gestion du contrôle interne. Le contrôle interne
est un processus mis en œuvre par le conseil d’administration, les dirigeants et le personnel d’une
organisation, destiné à fournir une assurance raisonnable quant à la réalisation des objectifs
suivants :

• L'efficacité et l'efficience des opérations,


• La fiabilité des informations financières,
• La conformité aux lois et aux réglementations en vigueur.

Le COSO 2 propose un cadre de référence pour la gestion des risques de l’entreprise (Entreprise
Risk Management Framework). La gestion des risques de l’entreprise est un processus mis en
œuvre par le conseil d’administration, les dirigeants et le personnel d’une organisation, exploité
pour l’élaboration de la stratégie et transversal à l’entreprise, destiné à

• identifier les événements potentiels pouvant affecter l’organisation,


• maîtriser les risques afin qu’ils soient dans les limites du « Risk appetite » (appétence au
risque) de l’organisation,
• fournir une assurance raisonnable quant à la réalisation des objectifs de l’organisation.

Il apparaît que le COSO 2 inclut les éléments du COSO 1 au travers du troisième point et le
complète sur le concept de gestion des risques. Le COSO 2 est basé sur une vision orientée risques
de l’entreprise.

L’évolution du COSO 1 au COSO 2 a marqué le passage de la «maîtrise» au «management» des


activités au travers de plusieurs principes :

• Prise en compte de la stratégie


• Gestion par les risques
• Approche « top down » et holistique du risque
• Dispositif intégré dans les modes de fonctionnement
• Reporting étendu (et plus seulement financier)

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


44
Les concepts clés de ce référentiel peuvent être résumés ainsi :

• Prise en compte systématique des risques dans l’étude des options/scénarios stratégiques
• Intégration de la maîtrise des risques dans les objectifs des dirigeants et du management
• Processus d’anticipation par identification des événements susceptibles d’affecter la réalisation
des objectifs (positivement = opportunités, négativement = risques)

L’environnement interne

Le COSO définit l’environnement interne de la manière suivante : « L’environnement interne


englobe la culture et l’esprit de l’organisation. Il structure la façon dont les risques sont
appréhendés et pris en compte par l’ensemble des collaborateurs de l’entité, et plus
particulièrement la conception du management et son appétence pour le risque, l’intégrité et les
valeurs éthiques, et l’environnement dans lequel l’organisation opère. »

Cette définition fait clairement référence à la culture de l’entreprise, l’organisation et l’ensemble


des collaborateurs. Sont donc associés étroitement la direction générale de l’entreprise qui définit
la culture d’entreprise, les organes de gouvernance et l’ensemble des ressources humaines de
l’entreprise. Cela pourra se traduire par exemple par la mise en place d’outils communs à
l’ensemble des utilisateurs visant à les former, à les sensibiliser à la gestion des risques et leur
donner les moyens d’intégrer cette démarche dans leur quotidien.

La notion de portefeuille de risques

Au travers du référentiel COSO 2, il est demandé à l’organisation d’avoir une vision de ses risques
sous forme d’un portefeuille. Ce portefeuille doit caractériser les risques à chaque niveau de
l’organisation. La compilation du portefeuille permet donc d’avoir une vision globale des risques
de l’organisation. Cette vision pourra alors être rapprochée du ”Risk Appetite” défini pour
l’organisation.

De plus, la compilation du portefeuille de risques permet au management :

• de mettre en évidence des risques qui peuvent être tolérés au niveau d’une unité mais
qui en s’additionnant seraient plus dans les limites du « Risk Appetite » défini pour
l’organisation.
• d’appréhender des événements potentiels (au niveau global) plutôt que des risques et
donc de mieux comprendre comment les risques interagissent entre eux au niveau de
l’organisation. Par exemple, une baisse des taux d’intérêt pourrait affecter positivement
le coût du capital mais négativement les produits de taux.

I.3.2.ii Identification et évaluation des risques


Les fondamentaux du Risk Management consistent à identifier un risque (quelle est sa nature, à
qui appartient-il ?), à l’évaluer de manière qualitative ou quantitative, à lui donner une priorité et
une réponse planifiée et enfin à le suivre par un monitoring adéquat.

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


45
Ces étapes caractérisent le processus ERM qui se répète :

Figure 33 : Le processus ERM, Source : Actuaris

Identification
Identifier un risque c’est déterminer son appartenance (projet ou entité) et son importance. Il est
donc nécessaire au préalable d’avoir défini tous les niveaux de l’organisation et les différents silos
métier et unités opérationnelles de l’entreprise. C’est ensuite une approche délibérée pour
identifier, au plus fin de chaque activité de l’organisation, les risques potentiels, en se concentrant
sur les risques qui impacteraient le plus dangereusement les activités au niveau de la profitabilité
de l’entreprise.

Il existe plusieurs classifications possibles suivant les métiers, qui s’accordent toutes autour des
grandes catégories de risques suivantes :

• Les risques métiers (ou d’assurance): risques liés à l’exercice même du métier. Par exemple pour
un assureur le risque des sinistres extrêmes (comme ceux dus aux catastrophes naturelles) ou
d’insuffisance dans l’évaluation des provisions

• Les risques financiers : ce sont des risques qui ont un impact sur le résultat financier de
l’entreprise. Cela inclut les risques de marché (actions, immobilier, change, etc..), de crédit
(obligations, contreparties en réassurance ou en rétrocession), les risques de liquidité des actifs
détenus

• Les risques opérationnels : liés à des processus internes à l’entreprise (fraudes, erreurs,
interruption des systèmes d’information, perte sur portefeuille) ou à des événements externes
(sinistres catastrophes affectant les locaux de l’entreprise, évolution de la jurisprudence,…)

• Les risques stratégiques : souvent inclus dans les risques opérationnels mais qui peuvent être
considérés comme une catégorie à part entière. Ce sont les choix (ou non choix) fondamentaux
que va faire une entreprise. Certains facteurs sont externes (environnement économique,
politique et juridiques…),

L’exposition d’un portefeuille Dommage aux risques majeurs porte principalement sur le risque
métier. Toutefois dans le cadre de notre démarche, et en conformité avec la démarche holiste de
prise en compte du risque introduite par le référentiel COSO 2 et la Directive Solvabilité II, la
solution qui sera proposée dans la 3ème partie consistant à la mise en place d’une plateforme
géodécisionnelle porte sur l’ensemble des risques décrits ci-dessus.

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


46
Figure 34 : Classification des risques en assurance non-vie. Source : Guy Carpenter

Évaluation du risque:

Il existe trois approches de base pour évaluer un risque :

• Une approche déterministe, basée sur des observations de faits avec des ajustements pour
prendre en compte certaines tendances. (Cf. modèle Coventéo, II.2.3.ii)

• Une approche stochastique, basée sur une modélisation probabiliste et des simulations de
Monte Carlo. (Cf. les projections établies par le GIEC / FFSA en matière de périodes de retour
d’événements type inondations / tempêtes, I.1.2.ii)

• Une approche « scenarii extrêmes » qui fait appel aux connaissances et à l’imagination des
experts pour le risque concerné.

Des corrélations peuvent exister entre différents risques. Il faut donc les déterminer. A partir de
l’ensemble de ces éléments, il est possible d’établir une mesure.
Notons que pour établir une estimation d’exposition d’un portefeuille de risques à un aléa donné,
les approches sont cumulatives. En matière de tempête, l’approche déterministe permettra
d’établir le coût d’un événement défini par une approche stochastique ou pour un Sinistre
Maximal possible (SMP).

3.3 Intégrer les risques et leur gestion au pilotage de l’activité de l’entreprise d’assurance

I.3.3.i Analyser l’exposition d’un portefeuille de risques au vu de ses caractéristiques


propres et de son environnement externe.

Procéder à l’évaluation des risques implique une analyse des facteurs endogènes et exogènes
spécifiques au portefeuille étudié.

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


47
Les services techniques en charge de la surveillance de portefeuilles établissent des zoniers à
partir de données internes, données alpha numériques permettant le suivi de la sinistralité d’un
produit ou d’un portefeuille en associant les risques assurés et les sinistres enregistrés.

Toutefois, la connaissance du risque et plus généralement d’un portefeuille de risques ne suffit


pas à expliquer a posteriori une sinistralité, la dégradation d’un ratio ou la profitabilité d’un
produit / portefeuille. Prenons pour exemple le suivi de la garantie Dommages électriques en
MRH : l’augmentation de la fréquence des dommages électriques peut être le résultat d’activités
orageuses plus fréquente ou plus intense, ou l’augmentation de cas de fraude par la détérioration
d’une conjoncture économique ou encore par des statistiques fournis par les distributeurs
d’électroménager de l’activité de leurs Services Après Ventes (SAV) sur certaines typologies de
matériels.

Sur un mode plus prospectif, l’analyse d’un portefeuille peut permettre de mieux anticiper qu’elle
pourrait être l’exposition des risques au regard d’aléas identifiés. A défaut de sinistres ayant déjà
été enregistrés, il est ainsi possible de déterminer le niveau d’exposition du portefeuille au regard
de zones inondables, sismiques, etc.

L’exposition de risque est fonction de l’ensemble des paramètres physiques, géographiques,


juridiques, conventionnelles et socio économique qui compose l’environnement du risque.

Exemples de facteurs endogènes d’un portefeuille MRH :


- Garanties propres au contact
- Cibles commerciales faisant l’objet d’une prospection
- Valorisation du risque souscrit (sur la base de la déclaration de l’assuré)
- Nombre de pièces, superficie moyenne
- Montant de la franchise
- Qualité de l’occupant (propriétaire, locataire, Propriétaire non occupant, etc.)
- Type de bâtiment assuré (maison individuelle, appartement, copropriété, dépendance, cave, etc.)
- Etc.

Exemples de facteurs exogènes au portefeuille :


- Années de construction du bâti (données INSEE)
- Catégories socio professionnelles de la zone prospectée
- Criminalité de la zone prospectée
- Présence ou non de Plan de Prévention des Risques (PPR)
- Type d’occupation des parcelles de terrain (urbain, péri urbain, forestier, etc.)
- Relief, facteurs géographiques
- Présence ou non d’activités industrielles (type Seveso)
- Etc.

I.3.2.ii Intégrer l’analyse du risque à l’ensemble des métiers

L’appréciation du risque doit se faire sur la base d’une analyse de facteurs propres au portefeuille
(cibles commerciales, zones de souscription, typologies d’assurés, éléments socio économiques
relatifs au public assuré, etc.) et au regard des facteurs extérieurs, notamment aux aléas qui
composent l’environnement du portefeuille (I.3.2.i).

L’appréciation du risque dépend aussi de la fonction métier qui l’appréhende au sein d’une
société d’assurances.

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


48
En effet, si l’on considère le cycle de vie d’un risque, de la conception d’un produit et sa
tarification, à sa souscription au règlement du sinistre en passant par le transfert de ce risque en
réassurance, son appréciation sera différente selon qu’elle sera appréhendée par l’actuariat
technique ou de réassurance, par un souscripteur ou gestionnaire sinistre.

Nous souhaitons que le risque puisse être appréhendé de façon holiste, tant dans les spécificités
de chaque police qu’au regard de l’environnement du risque, mais également de façon intégrée et
transversale à l’ensemble des métiers et acteurs de l’entreprise.

Figure 35 : Intégration transversale du risque au sein d’une société d’assurance non vie. Source :
C.DUMARTINET, Groupe COVEA

Structurer l’intégration de la gestion des risques signifie prendre en compte l’environnement


interne et la culture de l’entreprise d’assurance, y établir le processus visant à rendre
systématique le traitement du risque.

Cela signifie que la gestion du risque est intégrée dans l’environnement de chaque collaborateur,
à chaque niveau de l’entreprise. L’intégration de la gestion du risque à chaque métier permet
d’approfondir la corrélation entre l’identification des risques et de leurs aléas, leur correcte
tarification et souscription, de sécuriser la charge sinistre par une maîtrise des coûts
indemnitaires et d’optimiser les transferts de risques par une politique de réassurance adéquate.

L’ERM tel que décrit précédemment ne peut être mis en place que par une stratégie intégrée,
cohérente avec l’environnement interne et la démarche induite par le référentiel COSO 2.

Ainsi, l’appréhension géographique d’un portefeuille et l’élaboration de zoniers de souscription et


de tarification permettent de mieux comprendre l’exposition d’un portefeuille. Une croissance
forte dans un secteur peut signifier la performance et le dynamisme d’une politique commerciale.
Elle peut aussi signifier une dégradation de l’exposition globale du portefeuille dans une zone à
risques. Les garanties intégrées au contrat, la tarification du produit, sa souscription et la gestion
du sinistre sont toutes des étapes corrélées et ont un impact in fine lors de la survenance d’un
événement majeur auquel est confronté un service en charge de la réassurance.

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


49
Conclusion de la 1ère partie :

Les risques majeurs ont une dimension spatiale et géographique dont dépend l’exposition d’un
portefeuille de risques.

Les risques majeurs sont un enjeu pour 4 principales raisons:

- l’augmentation de la matière assurable et donc de la probabilité de survenance de sinistres


technologiques ;
- l’augmentation de la fréquence de survenance d’événements climatiques ;
- l’évolution du régime Catnat et ses implications pour une société d’assurance ;
- la Directive Solvabilité II et le besoin d’optimiser les fonds propres d’une entreprise et
d’améliorer la gestion qualitative des risques

2 types de solutions doivent être apportées :


- Etre en mesure de connaître son exposition au regard d’éléments externes au portefeuille
comme la connaissance des aléas
- Etre capable d’améliorer transversalement la gestion de ses risques, de la tarification à la
gestion sinistres

Nous l’avons constaté, la dimension spatiale d’un portefeuille de risques est essentielle pour
appréhender l’exposition d’un portefeuille de risques pouvant être impactés par des événements
localisés.

Comment intégrer la dimension spatiale d’un portefeuille de risques si la géographie, les facteurs
externes au portefeuille ont un rôle impactant dans la sinistralité face aux risques majeurs ?

Les modèles de marché d'évaluation des sinistres sont fréquemment utilisés pour définir les
besoins en réassurance par rapport aux risques. Mais comment décider de l'achat d'une
couverture de réassurance si un modèle indique un besoin en couverture de 50 M€ pour faire
face à un sinistre tempête dont la récurrence est de deux cents ans alors qu'un autre modèle
évalue le même risque à 100 M€ ? De telles divergences ne sont pas rares entre les différents
modèles les plus courants. Ceci n'est pas seulement le cas en France, mais également sur tous les
autres marchés européens concernés. Les souscripteurs de réassurance ont dû apprendre à s'en
contenter. Mais la situation reste très insatisfaisante.

Les données peuvent également être exploitées pour l'analyse d'un portefeuille d'assurance
dommage, ne serait-ce que pour définir la part d'exposition par zone géographique. Une
comparaison avec les autres sinistres survenus dans la même zone géographique peut mettre à
jour certains avantages et inconvénients territoriaux au sein du portefeuille d'assurance. Ainsi, la
part d'exposition dans une zone peut être de 5 %, mais de 10 % en ce qui concerne la part des
sinistres. Pourquoi ? Cette zone présente-t-elle une plus grande vulnérabilité au risque dans le
portefeuille ? Existe-t-il des problèmes liés au règlement des sinistres ? Ces questions amènent
alors la suivante : la prime correspond-elle vraiment au risque ?

Ces constatations qui peuvent être faites à partir des données marché peuvent trouver une
première réponse dans l’analyse spatiale de données. Des outils et des modèles peuvent
s’appuyer sur des technologies comme les Systèmes d’Information Géographiques.

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


50
Partie 2 : Le développement de technologies comme la géomatique permet
d’apporter des solutions de nouvelles générations plus adaptées à
la maîtrise d’exposition de portefeuilles Dommage

À ce stade, il convient d’explorer les solutions existantes sur le marché, les expériences déjà
menées par certains acteurs et d’apprécier dans quelle mesure il est possible aujourd’hui d’en
relever les défis.

Chapitre 1 : Mesures d’exposition de portefeuilles : des solutions de marché


répondent partiellement aux besoins de sociétés d’assurance

L’objet de ce chapitre est de présenter les principaux outils et modèles du marché afin de
savoir si les solutions existantes répondent aux besoins exprimés précédemment en
matière de gestion transversale des risques, à savoir :
- Être en mesure de mieux connaître son exposition afin de déterminer son niveau
d’engagement et ses besoins en fonds propres. Ce besoin fait appel au développement de
modèles.
- Être capable d’améliorer transversalement la gestion de ses risques, de la tarification à
la gestion sinistres en passant par la souscription avec la mise en place d’une démarche
Entreprise Risk Management.

1.1 Les modèles de marché : une 1ère réponse à l’évaluation d’exposition de portefeuilles

II.1.1.i Benchmark des modèles de marché RMS, EQECAT, AIR: l’approche traditionnelle issue
des besoins en réassurance

Trois principaux modèles sont utilisés par l’ensemble des assureurs et réassureurs au niveau
mondial. Il s’agit des modèles EQECAT29, RMS30, AIR31. Ils permettent d’appréhender de manière
globale l’exposition d’un portefeuille par rapport à un péril climatique ou un événement sismique.
L’élaboration de modèles de marché de plus en plus performants constitue ainsi pour les
assureurs une grande avancée.

Ces agences de modélisation 32 construisent des modèles basés sur les sciences physiques,
l’actuariat et les statistiques afin d’estimer les dommages causés par différents scénarios de
catastrophes. De manière générale, ces modèles utilisent des techniques de type Monte-Carlo
afin de simuler un grand nombre de trajectoires de pertes causées par les ouragans dont les effets
sont appliqués à une base de données de biens assurés auxquels est exposée une obligation
donnée.

Une telle modélisation permet, in fine, d’estimer la distribution des pertes pour une obligation et
une catastrophe donnée et donc de valoriser les obligations catastrophes.
À ce titre, l’agence RMS, qui réunit depuis 2004 une cohorte de scientifiques spécialisés sur les
questions climatiques, est parvenue à dégager un consensus selon lequel au cours des 10 à 20

29
EQECAT : http://www.eqecat.com
30
Risk Management Solutions : http://www.rms.com
31
AIR Catastrophe Modeling : http://www.airworldwide.com/_Public/html/catmodeling.asp
32
http://www.ensae.org/gene/main.php?base=38&base2=1&detail_article=748

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


51
prochaines années, l’intensité des ouragans serait plus élevée que la moyenne historique. Une
conclusion qui a mené RMS à introduire un nouvel ensemble de probabilité d’événements
stochastiques en augmentant les probabilités sur les cinq prochaines années dans son modèle sur
les ouragans affectant les Etats-Unis.

I.3.1.ii Limites de ces « black boxes »

L’ensemble de la profession salue la pertinence des outils et les moyens mis en œuvre sur ces
thèmes. Cependant il est aussi admis que ces outils présentent des limites33.

La principale repose essentiellement sur l’incertitude des probabilités résultant de ces simulations.
James Orr34, spécialiste de la modélisation de catastrophe à la Lloyd’s of London, estime qu’une
des principales sources d’amélioration concerne les périodes de retours des événements. Orr
souligne les insuffisances de ces modèles :

- insuffisance de données homogènes, précises et longues sur les périls : des appareils de mesures
ont été ajoutés pour l’analyse des séismes et des tempêtes depuis quelques décennies ce qui
complique l’analyse de séries longues ;

- insuffisance des informations : manque d’information sur les sinistres par exemple pour le
calibrage de fonctions d’endommagement. Il est alors nécessaire de reconstituer ces fonctions sur
différentes hypothèses ou bien d’utiliser des fonctions d’endommagement d’autres pays en
faisant des recoupements hydrologiques, atmosphériques ;

- imperfection de la connaissance de certains périls : apparition de tempêtes et les phénomènes


induits par les inondations (remontées progressives de nappes phréatiques, affaiblissement de
fondations de bâtiments) ;

- informations insuffisantes en matières d’exposition : problème de localisation des biens assurés;


le risque est souvent localisé par l’adresse du souscripteur qui peut être ou non par l’adresse du
risque assuré comme est le cas pour les résidences principales ou secondaires. Par ailleurs le
découpage administratif au code postal ou à la commune ne permet pas une localisation précise
pour des événements comme l’inondation ou la sécheresse. Les valeurs assurées en terme de bâti
sont souvent mal ou non évaluées car la tarification est faite au nombre de pièces sans présager
de la valeur de reconstruction du bâtiment.

Dans la pratique les résultats des simulations sont utilisés dans les pays anglo-saxons comme
support à la discussion et à la négociation entre assureurs et réassureurs sur les catastrophes
naturelles car il s’agit d’outils riches en information permettant de donner plus de lisibilité sur
l’impact potentiel des aléas.

En France, du fait de la complexité des données (hétérogénéité, absence dans certains


départements, etc.) et du fait de la structure du régime Catnat, les principaux périls que sont les
inondations et la sécheresse ne sont pas modélisés par les agences spécialisées dans le domaine.
La réforme du régime pourrait pousser ces compagnies à investir pour homogénéiser les données
afin de mettre en place des modèles probabilistes.

33
http://www.propertycasualty360.com/2011/01/21/rms-air-eqecat-respond-to-near-term-model-criticis

34
Lloyds.com; Valuable research rewarded with Science of Risk prize

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


52
Aussi, les résultats de ces modèles peuvent différer de manière très significative pour un même
portefeuille.
A titre d’exemple, le graphique suivant indique les résultats obtenus par les trois modèles de
marché pour une des enseignes du groupe Covéa. Un écart de 1 à 4 est observé entre les trois
modèles.

Figure 36 : Comparaison des modèles de marché. Source : Groupe COVEA

1.2 Des initiatives de marchés : nécessaires mais pas suffisantes pour apporter une
réponse holiste à la gestion des risques d’une société d’assurance non vie

II.1.2.i Des apports en matière d’information et de lobbying sur le champ non concurrentiel

Exemple d’initiative émanant de l’Etat : Cartorisque35

Autre exemple d’outil laissé à disposition des assureurs, Cartorisque (prim.net), site internet
émanant du Ministère de l’Ecologie, de l’Energie, du Développement Durable et de
l’Aménagement du territoire, sur lequel sont publiées les cartes des risques naturels et
technologiques majeurs.

Le portail du Ministère se présente comme étant Cartorisque « la publication sur l'internet de


l'ensemble des cartes des risques naturels et technologiques majeurs. Les informations publiées
proviennent des services déconcentrés de l'Etat, sous l'autorité des préfets concernés. Celles
destinées à la prise de conscience des populations sont accessibles dans l'onglet « Information
préventive ».

35
www.prim.net

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


53
Figure 37 : Copie d’écran du portail Cartorisque. Source : Groupe COVEA

D'autres sont destinées à faciliter la mise en oeuvre de l'obligation d'information de l'acheteur ou


du locataire de tout bien immobilier situé en zone de sismicité ou dans un plan de prévention des
risques prescrit ou approuvé : c'est l'onglet « information acquéreur locataire ». Enfin, d'autres
sont des représentations de servitudes d'utilité publique, les plans de prévention des risques, qui
imposent des interdictions et des prescriptions dans certaines zones du territoire.»

Le principal objectif de cet outil est « d’améliorer l’accessibilité des cartographies sur les risques
dans une logique de culture du risque ».

Les informations disponibles sont en libre accès et proviennent principalement des services
déconcentrés de l'État, sous l'autorité des préfets concernés.

Cet outil d’information donne des informations cartographiques sur les zones inondation, la
localisation des Plans de Prévention des Risques Naturels (PPRN) et est souvent utilisé par les
professionnels du secteur de l’Assurance en tant qu’outil d’aide à la souscription ainsi que par les
populations souhaitant des précisions sur leur secteur.

Il comporte trois onglets :

 informations préventives avec la publication des cartes de synthèse des inondations, des
zones de sismicité, des arrêtés catastrophes naturelles et des phénomènes avalancheux
 informations acquéreurs et locataires
 la liste des Plans de Prévention des Risques

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


54
La carte ci-dessous met en évidence la localisation des PPR :

Figure 38 : Base de données Gaspar, juillet 2009 - IGN, BD Carto© limites communales, Source : MEEDDM
,

Ce site est utile pour les assureurs car il permet d’obtenir une cartographie rapide de leurs
portefeuilles.
En fonction des informations recueillies comme par exemple, le nombre de PPR dans la zone, les
assureurs peuvent adapter leur politique de souscription et la tarification adéquate.

Cependant, pour certaines régions comme le Bas-Rhin, la cartographie de la crue exceptionnelle


n’est pas disponible, en l’absence de données exploitables.
Sur ce secteur, les assureurs pourront rencontrer des difficultés à identifier les zones inondables.

Par ailleurs, les données ne sont pas actualisées régulièrement, ce qui peut contribuer à remettre
en doute la fiabilité des informations recueillies.

Exemple d’initiative émanant du secteur de l’assurance : La Mission des Risques Naturelles


(MRN)

La MRN, créée par la FFSA et le GEMA, a pour objet de contribuer à une meilleure connaissance
des risques naturels et de permettre à la profession de l’assurance d’apporter une contribution
technique aux politiques de prévention.

Grâce à son équipe polyvalente dirigée par Roland Nussbaum, la MRN apparaît comme la
structure légitime pour aider les assureurs et les autres acteurs dans la gestion des risques
naturels.

La MRN a des fonctions diversifiées et déploie son activité dans trois domaines qui sont fortement
interdépendants:

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


55
- Les missions d’interfaces techniques : la MRN intervient en tant qu’intermédiaire entre la
profession de l’assurance et les autres parties prenantes dans la gestion des risques
naturels

- Des études menées avec divers travaux portant sur la connaissance, l’analyse et la
modélisation des risques naturels

- Des services apportés aux sociétés avec la mise à disposition par exemple d’un géo service
d’aide à l’analyse de l’exposition de sites assurés aux aléas naturels pour les assureurs
intervenant dans les risques industriels et commerciaux

En effet, la MRN s’articule autours de deux services complémentaires:

- la réalisation d’études techniques


- la livraison de produits et de service répondant aux besoins de la profession.

• Les études techniques permettent de traiter des données à la fois sur les aléas et sur les
enjeux afin de fournir aux assureurs des éléments d’observation sur l’exposition des enjeux aux
risques naturels en particulier pour l’inondation et la sécheresse.

En France l’analyse détaillée du risque est rendue difficile de part l’hétérogénéité des données qui
fait que suivant les régions les méthodes de modélisation utilisées sont parfois différentes et
l’interprétation peut donc diverger d’un point à un autre du territoire.
De plus certains bassins de risques ne sont pas modélisés ou alors la modélisation existe mais
n’est pas diffusée dans un format exploitable pour réaliser des traitements de qualité. Il n’y a
donc pas véritablement d’outil commercial ou public permettant de faire du zonage du risque ou
du diagnostic.

Cependant, comme l’explique Jérôme CHEMITTE36, la MRN a acquis depuis sa création des
connaissances aussi bien concernant les aléas en collectant l’ensemble des données numériques
auprès des pouvoirs publics que concernant les technologies exploitant l’information
géographique. Les résultats sont des valeurs quantitatives mesurables à partir de données
statistiques géoréférencées à différentes échelles (des lots d’adresses, des codes d’îlots de
recensement de l’Institut National de la Statistique et des Etudes Economiques (INSEE), des codes
Insee des communes). Les enjeux analysés sont les logements des particuliers, les sites des
professionnels et des entreprises.

Les études techniques consistent aussi à réaliser des traitements sur un portefeuille d’assuré, à
partir d’un fichier d’adresses qui sera ensuite géocodé puis confronté aux données sur les aléas
regroupées au sein de la MRN. Un rapport détaillé par type de zone est remis par la suite à la
société propriétaire du portefeuille d’assurés.

• Le portail SIGMRN permet aux assureurs, et notamment aux souscripteurs d’accéder en


ligne à l’information recueillie par la MRN sur les aléas naturels. Il est ainsi possible de réaliser un
pré diagnostic sur l’exposition aux risques naturels site par site à partir de son adresse ou de ses
coordonnées GPS. Il est possible d’éditer en ligne un rapport d’exposition regroupant l’ensemble
des informations disponibles sur l’exposition aux inondations, à la sécheresse et aux séismes : un
traitement topologique est fait en ligne pour identifier la localisation géographique du bien et les
types de zones d’aléa ou PPR inclus ou à proximité Le rapport donne des informations sur la
situation administrative de la commune (à partir de la base de données GASPAR); documents

36
J.CHEMITTE ; Adoption des technologies de l’information géographique et gestion des connaissances dans les organisations, 2008

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


56
d’information préventive, nombre d’arrêtés Catnat, maturité du PPR (prescrit, approuvé,
approuvé depuis plus de 5 ans) ainsi que le calcul de la modulation de franchise selon la loi. Il est
possible de savoir si le bien se trouve dans une zone réglementaire (dans le cas où il existe un PPR
numérisé pour cette zone).

Figure 39 : Copie d’écran du SIGMRN. Source Groupe COVEA

Enfin, il inclut les résultats des traitements effectué par la MRN pour la commune concernée;
nombre de logements, nombre de professionnels, nombre d’entreprises. Afin de rendre
homogène la lecture de ces rapports des seuils de vigilance ont été établis par la MRN à partir de
plusieurs critères tels que le type de modélisation de l’aléa, la qualification et la quantification de
l’intensité de l’aléa pour rendre compte du niveau de risque de la zone en s’affranchissant de la
complexité des données sources.

L’exploitation du SIGMRN 37 se limite donc principalement aux souscripteurs des sociétés


d’assurances qui effectuent un pré diagnostic en ligne avant de souscrire des risques importants
(risques entreprises, industriels, professionnels). En fonction du seuil de vigilance annoncé, le
souscripteur envisagera par exemple de programmer une visite sur site d’un ingénieur
préventionniste ou bien d’envoyer un questionnaire d’analyse de risque centré sur un ou
plusieurs risques naturels.

La limite de l’outil mise à disposition réside dans la qualité des informations récupérées par la
MRN, principalement sur les sites ministériels (Cartorisque) ou auprès des agences de bassin. Les
données actuellement disponibles sont hétérogènes et se limitent aux bassins de risque pour
lesquels des données cartographiques sur les aléas sont disponibles et exploitables ce qui n’est
pas le cas pour tous les départements français.

La MRN apparaît comme un partenaire indispensable du fait de la production régulière d’études.


Ces éléments permettent en effet de renforcer le dialogue entre les pouvoirs publics, les assurés

37
www.mrn.asso.fr

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


57
et les assureurs. Une des principales réalisations porte sur «L’Evaluation de la pertinence des
PPRN Inondations » réalisée en 2009 dont l’objet est de sensibiliser les pouvoirs publics sur
l’insuffisance en matière de prévention des PPRN inondation.

Ses travaux ont permis de montrer une progression de la part de sinistralité économique prise en
charge par les assureurs du fait par exemple d’une augmentation des constructions en zones
inondables.

Pour ce faire et dans l’optique d’aider les assureurs, la MRN met à leur disposition l’usage du
Système d’Information Géographique MRN pour leur permettre de connaître le degré
d’exposition de leur portefeuille à un risque naturel. Cependant, la MRN rencontre parfois des
difficultés pour obtenir des assureurs des données de sinistralité affectant leur portefeuille.

II.1.2.ii Les efforts fournis par les acteurs de la réassurance par la production de modèles ne
permettent toutefois pas de répondre aux besoins spécifiques des sociétés d’assurance en
matière de gestion globale des risques

Outre les initiatives prises dans le domaine non concurrentiel, les acteurs de la réassurance ont
fortement investi dans la production de modèles plus spécifiques à un marché visant à compléter
les études fournies aux cédantes sur la base des modèles de marché précédemment cités. Les
réassureurs et notamment les courtiers, y ont vu des opportunités à acquérir ou développer des
outils plus spécifiques aux portefeuilles de sociétés d’assurances et adaptés aux problématiques
de réassureurs.

Les deux principaux courtiers de réassurance présents sur le marché français sont Guy Carpenter
et Aon Benfield. Chacun se positionne différemment sur l’offre de produits et services à
destination des sociétés d’assurances mais tous concentrent leurs efforts sur les outils de
modélisation des risques naturels.

En effet, les agences de modélisation (AIR, RMS, EQECAT) n’ont à ce jour pas encore investi le
marché français des risques naturels en raison de la présence du régime Catnat, par manque de
perspectives sur un marché contraint par le partenariat avec les pouvoirs publics. Seul des
modèles tempêtes voire séisme sont disponibles (Cf. II.1.1)

Exemple d’initiative d’un courtier : Guy Carpenter

Depuis l’épisode sécheresse de 2003, Guy Carpenter s’est positionné sur les risques de subsidence.
Il propose depuis 2006 un modèle (GCAT) probabiliste d’évaluation de l’exposition de portefeuille
en s’appuyant sur les données d’aléa retrait gonflement des argiles produites pour le compte des
Pouvoirs publics par le Bureau de recherches géologiques et minières (BRGM), et des données
pluviométriques de MétéoFrance.

La dernière réalisation porte sur un modèle inondation.


Guy Carpenter souhaite ainsi s’inscrire comme un courtier spécialisé dans l’offre de solutions de
modélisation des risques naturels, notamment en inondations et sécheresses qui constituent les
deux premiers postes d’indemnisation du système Catnat en l’absence d’événement sismique
significatif.

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


58
Figure 40 : Données argiles du BRGM exploitées par Guy Carpenter, Source : Guy Carpenter, 2009

Ce programme de modélisation est l’aboutissement d’un ambitieux projet débuté en 2008, mené
en collaboration avec le cabinet d’expertise hydrologique et hydraulique JBA Consulting et le
fournisseur de matériels numériques 3D Intermap Technologies.

Figure 41 : Modélisation des inondations par JBA pour le compte de Guy Carpenter, Source : Guy
Carpenter, 2009

Cet outil se démarque de ses concurrents car il intègre les cartes d’aléa des 80 000 km de cours
d’eau français avec 200 000 points de débordement.
Il s’agit aussi d’un Modèle Numérique de Terrain (MNT) basé sur une grille horizontale d’un pas
de 5 mètres, permettant 22 milliards de points de modélisation
Il tient compte d’un environnement bâti et des fonctions de vulnérabilités spécifiques au paysage
urbain français.

Ce modèle appelé G-CAT permet d’analyser les risques d’inondation pour un portefeuille donné et
propose une approche de modélisation probabiliste, spécifique pour chaque typologie
d’inondation.
Un système de géolocalisation permet de placer les différentes composantes d’un portefeuille sur
la carte de France ou de manière plus précise, sur le quartier d’une ville, voire une adresse.

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


59
Il est alors possible d’y superposer les résultats de différents scénarii de débordements,
hypothétiques ou ayant déjà eu lieu, comme la grande inondation de Paris en 1910, pour avoir
une photographie de son exposition au risque.

Le jeu d’événements stochastiques inclut 4 000 scénarii potentiels et a été développé afin de
refléter la nature de la corrélation spatiale et temporelle des débits entre les bassins
hydrographiques.
Il a été construit à partir de 50 années d’observations de débits en utilisant la théorie des
statistiques des valeurs extrêmes et représente l’équivalent de 1 000 ans de données
d’observation.

Le modèle contient également les zones inondées observées lors de 14 événements historiques
qui se sont produits en France au cours des 150 dernières années.
Les événements historiques sont indépendants du jeu d’événements stochastiques, mais ils
peuvent être utilisés pour évaluer les sinistres causés par les inondations sur la base de scénarii
individuels.
Ils peuvent également être reportés sur la fonction de répartition des sinistres du portefeuille afin
de servir de points de référence permettant de valider les pertes générées par le jeu
d’événements stochastiques.

Une modélisation des autres types d’inondation a également été effectuée pour les inondations
par ruissellement des eaux pluviales et par remontées de nappes phréatiques.
Cette modélisation a été réalisée pour 43 grands centres urbains (représentant environ 50 % de la
population française), en étudiant les interactions physiques entre les composants du climat, du
sol et du niveau d’eau des rivières.
Cette approche permet d’affiner les estimations du risque de crue basées uniquement sur la
composante inondation de plaine.

L’environnement bâti est une base de données haute résolution des constructions existantes, et
constitue un composant essentiel du modèle. Cette base de données permet de redistribuer
spatialement les expositions fournies à une résolution peu élevée (code postal ou municipalité) et
fournit également une représentation précise des caractéristiques structurelles parfois
manquantes dans les données d’exposition originales.

Le module d’endommagement permet à la fois de quantifier la probabilité qu’a un type de risque


donné de subir un sinistre suite à un événement d’une certaine intensité et d’estimer la
distribution des dommages correspondants.
Les fonctions d’endommagement ont été basées sur la hauteur des eaux sur le site et la durée de
la crue.

L’aspect novateur des courbes de ce modèle est que les fonctions tiennent compte de
l’importance de la contribution de sinistres d’un montant relativement faible sur le profil global
de pertes.
Guy Carpenter collabore actuellement avec un consultant extérieur afin d’affiner les paramètres
de l’approche qui influencent le plus les dommages causés aux constructions par les inondations.

Le modèle d’inondation français accepte des données de portefeuilles à tous les niveaux de
résolution.
Le module de désagrégation à haute résolution permet l’import et le traitement de données à
basse résolution, mais le modèle permet également d’importer des portefeuilles géocodés à
l’adresse.

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


60
Le modèle produit une vaste gamme de résultats, y compris des fonctions de répartition de la
sinistralité et des tableaux des pertes détaillées événement par événement.

Le tout nouveau logiciel de calcul de pertes de la plate-forme de modélisation de Guy Carpenter


incite les assureurs à appliquer une vaste gamme de conditions d’assurance reflétant la réalité de
chaque sinistre.
Ainsi, le modèle peut quantifier l’impact de combinaisons complexes de franchises et de limites
par garantie, site et/ou contrat.

Figure 42 : Comparaison des données hydrauliques disponibles sur les portails publics (Cartorisque,
SIGMRN) et les données hydrauliques issues de développements privés (JBA pour Guy
Carpenter). Source: Group COVEA

En dépit d’une approche très qualitative de cet aléa, il est possible de noter 2 principales limites à
ce modèle inondation : malgré la très grande précision du MNT utilisé, et de la qualité de
modélisation hydraulique effectuée par JBA, la qualité de renseignement des portefeuilles des
cédantes et l’absence d’un véritable modèle d’endommagement spécifique à l’habitat local font
défaut.

Initiatives des réassureurs : La Caisse Centrale de Réassurance (CCR)

La CCR est aujourd’hui la société de réassurance la mieux équipée en matière de technologies de


l’information géographique à destination des cédantes.

Elle dispose:

• d’une base de données nommée ATHENA (Analyse et Traitement de l’Historique des


Evénements Naturelles Associés) rassemblant l’ensemble des données de sinistres indemnisés au
titre des catastrophes naturelles depuis 1995. programme d’analyse des indemnisations avec la
participation des assureurs.

Elle a mis en place une base de données, qui consiste à collecter systématiquement auprès des
assureurs des données sur les risques et les sinistres en retenant comme critère le lieu et le coût
des sinistres.

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


61
L’objectif est de conserver la mémoire des Catastrophes Naturelles, d’analyser les causes et
conséquences en termes de coût des événements, et ainsi, de mieux cerner l’exposition de la CCR,
de l’État et des assureurs.

Cette base de données regroupe deux types de données, un fichier des risques assurés et un
fichier des sinistres.
Par la suite, le traitement des données s’ordonne autour de quatre phases qui sont la réception,
le contrôle, le géocodage et l’exploitation des données.

Figure 43 : Étapes clés du traitement des données reçues par la CCR. Source : J. CHEMITTE

• d’un outil cartographique appelé E-carte, accessible depuis Internet, visant à présenter par
commune et par péril le montant cumulé des sinistres indemnisés au titre des catastrophes
naturelles depuis 1995. Celui-ci a été remplacé courant 2008 par une version améliorée appelée
CERES permettant de se positionner à partir d’une adresse et représentant approximativement la
situation géographique des sinistres indemnisés proportionnellement à leur montant à l’aide de
zones concentriques ;

Ce site propose :

 Une présentation du régime assurantiel des catastrophes naturelles en France


 Une définition des périls inondations, séismes, sécheresse, cyclones et ouragans
 Une cartographie des zones concernées
 Un recensement chronologique des principaux événements, présentés sous forme de
fiches synthétiques

Il convient de noter que Cérès est un outil cartographique « statique », qui restitue des cartes
élaborées par les équipes de la CCR (géocodages de portefeuilles, cartographies d’aléas sur la
base des données publiques disponibles, etc.).

L’utilisateur n’a pas la possibilité d’exploiter les cartes pour mener des analyses spatiales comme
les Systèmes d’Information Géographiques le permettent. Cette limite s’explique par le souhait de
rendre ces cartes accessibles de façon simple et intuitive par des utilisateurs « grand public ».

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


62
Figure 44 : Copie d’écran du site Cérès(CCR). Source : Groupe COVEA

Dans le paragraphe II.2.1.i consacré aux typologies d’utilisateurs de SIG, nous verrons que selon
Marc RIEDO38, l’utilisation d’un portail de type Cérès est destiné à des « consommateurs de
représentations spatiales et utilisateurs occasionnels » pour des fonctions de « visualisation et
représentation spatiale »

Nous étudierons dans les 2 derniers chapitres une manière de combiner accessibilité et analyse
spatiale poussée par un public non averti.

• d’un modèle d’évaluation a posteriori du coût d’un événement inondation, appelé ARTEMIS.
Les objectifs sont :

o L’estimation quelques jours après la survenance d’une crue de son coût afin de
déterminer le provisionnement nécessaire ;
o La modélisation de manière déterministe de l’exposition de l’Etat, de la CCR et des
cédantes à des crues historiques.

Ce modèle étant basé sur une approche géomatique, nous proposons de revenir sur la
modélisation effectuée par la CCR dans le chapitre dédié à la modélisation des risques Cat en
France (Cf. II.2.3.i) afin d’illustrer notre propos.

1.3 Outils internes Vs outils de marché : des attentes d’outils propres à chaque
portefeuille et dédié aux besoins spécifiques de chaque assureur

I.1.3.i Le processus d’approfondissement de la gestion des risques passe par une


appropriation des risques via des outils/modèles internes

38
M.RIEDO, Typologie et connaissance des logiciels SIG, Cours de l’EPFL, 2005

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


63
Pour un besoin identifié (calcul d’un SMP, analyse d’exposition d’un risque spécifique pour
préventeur, etc.), les outils de marché peuvent dans certains cas proposer à une société
d’assurance une réponse ciblée à un besoin métier spécifique dont la solution mise en place est
générique à l’ensemble des sociétés opérant sur le marché. Ces solutions de marché ne peuvent
par conséquent être adaptées pour les besoins particuliers d’un assureur. Pour illustrer la
difficulté de prendre en considération des besoins spécifiques, des équipes de préventeurs ou
souscripteurs qui travaillent sur le risque de conflagration souhaiteraient voir figurer dans le
rapport d’exposition du SIGMRN des informations relatives à la présence de sites Seveso.

Or les risques technologiques ne font pas partie du périmètre d’étude de la Mission des Risques
Naturelles. Sur la base de l’intérêt que représente le rapport d’exposition du portail de la MRN
pour un souscripteur, des initiatives d’acteurs du marché pourraient être prises pour poursuivre
les efforts entrepris et compléter les dispositifs de gestion et de connaissance des risques.
Nous pourrions également prendre l’exemple du risque tempête qui, étant hors régime CatNat,
ne rentre pas dans le champ d’étude de la MRN.

L’exploitation d’outils ou de modèles de marché pour un besoin ponctuel ne peut prétendre


apporter une réponse globale à la gestion de risques au sens de l’Entreprise Risk Management
décrit précédemment (I.3.1). En effet, les outils et les modèles de marché font « l’économie »
pour l’entreprise de la mise en place d’un « processus visant, de manière systématique et
compréhensive, à identifier les risques critiques, quantifier leurs impacts et mettre en place des
stratégies intégrées pour maximiser la valeur de l’entreprise » au sens donné par Guy Carpenter
dans la définition de l’ERM.

Pour ce faire, l’objectif d’un département « Gestion des risques » est double :

• Protéger l’entreprise en élaborant les stratégies adaptées pour apporter une réponse adéquate
face aux risques les plus importants ; c'est-à-dire identifier les risques potentiellement critiques et
quantifier leurs impacts afin de s’assurer que la tolérance au risque du réassureur est bien
respectée.

• Contribuer au développement de l’entreprise en aidant à la sélection des risques les plus


profitables compte tenu de son appétence au risque.

La gestion des risques s’inscrit donc pleinement dans la stratégie d’entreprise. Un assureur doit
principalement se focaliser sur les risques de son cœur de métier c'est-à-dire la tarification,
souscription, les cumuls et l’évaluation des réserves, la gestion sinistres et le transfert de risques.
L’un des enjeux du métier d’assureur est la souscription au cours de laquelle il faut bien
appréhender le prix réel du risque tout en veillant à maîtriser son cumul de risques sur une zone
géographique ou un marché donné.
Comme le déclare Patrick THOUROT39, Chief Operational Officer de SCOR Global P&C : «Notre
préoccupation est de gérer le contrôle et le cumul des risques, de les voir, tous et à temps![…]».

Il parait donc difficile, pour appréhender la vision globale de l’exposition d’un portefeuille de
risques à l’ensemble des aléas, de pouvoir s’appuyer sur les solutions marché existantes, même si
ces dernières présentent de véritables avancées pour le secteur.

Gérer et anticiper les risques de souscription et les cumuls exigent :

39
Entretien accordé à L.GUERAUD en juillet 2008

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


64
• Une véritable politique de maîtrise des risques qui s’appuie sur une volonté de la Direction
Générale
• Une organisation opérationnelle transversale avec une capacité d’action
• Une bonne connaissance de l’information et des technologies
• Une recherche de la mesure du risque
• Des outils fiables et efficaces qui recensent toutes les données décisionnelles permettent de la
contrôler et de l’analyser.

Maîtriser ses risques est vital pour un assureur et passe par :

• la mise en place de méthodes efficaces d’identification et d’évaluation des risques


• l’utilisation d’outils et de méthodes adaptés pour la tarification et le contrôle de cette
tarification
• L’installation d’une véritable culture du risque, ce qui représente souvent un changement
culturel important à savoir passer d’une vision « chiffre d’affaires » à une vision rentabilité/risque.

Structurer la gestion des risques d’entreprise doit permettre de répondre à ces besoins. Mettre
en place un cadre ERM c’est en quelque sorte participer au besoin de pilotage d’une entreprise.

Le choix d’un modèle interne passant par l’approfondissement des risques et le renforcement de
leur gestion présente également un autre avantage majeur que les modèles de marché ne
peuvent prétendre offrir aux sociétés qui en font l’option : l’avantage concurrentiel.

En effet, disposer d’outils et de modèles en adéquation avec son portefeuille peut présenter un
fort intérêt en matière de souscription et de gestion sinistres, en optimisant les coûts de transfert
en réassurance, procurant in fine une tarification de produit pouvant être plus compétitive que
ceux proposés par la concurrence.

I.1.3.ii Valoriser les données propres à un portefeuille au regard d’éléments externes pour
une meilleure analyse d’exposition aux risques majeurs

Dans notre optique de personnaliser les solutions de marché, l’objet est ici de décrire les attentes
en termes de caractéristiques fonctionnelles pour répondre aux besoins plus spécifiques de
chaque assureur souhaitant approfondir l’analyse des risques.

L’analyse, notamment des risques majeurs, repose sur le suivi d’indicateurs sur la vulnérabilité
d’un portefeuille spécifique, de contrats et garanties propres, d’une politique de règlement
sinistres pouvant avoir un impact important sur les coûts, etc.

Un indicateur est entendu comme une variable ayant pour objet de mesurer ou d’apprécier un
état ou une évolution d’un phénomène. Ce doit être une information simple (facilement
compréhensible) qui peut-être quantifié de manière claire, reproductible et rapide et doit
synthétiser des phénomènes complexes à différentes échelles (parcelles, exploitation agricole,
région, etc.…).

Les indicateurs sont adaptés à la situation de l’entreprise et fournissent des informations au sujet
d’un système complexe en vue de faciliter sa compréhension aux utilisateurs de sorte qu’ils
puissent prendre des décisions appropriées pour l’atteinte des objectifs.
La consolidation des indicateurs repose sur l’intégration de données hétérogènes.

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


65
L’hétérogénéité se manifeste sous plusieurs formes :
- hétérogénéité des sources ;
- hétérogénéité des contenus des données ;
- hétérogénéité des formats et des modes de stockage.

Afin de restituer des valeurs tangibles pour chaque indicateur, il faut que le décideur ou l’analyste
puisse s’affranchir de ces contraintes sur les données et se concentre uniquement sur l’analyse en
elle-même. Au niveau technologique cela nécessite de pouvoir en amont prendre en compte les
spécificités des données afin de les extraire, les transformer et les rendre présentables dans un
ensemble cohérent aux utilisateurs finaux.

L’analyse doit ainsi être construite « sur mesure », de facon à répondre aux besoins spécifiques de
chaque entité de l’entreprise, pour les besoins de chaque analyste.
Comme nous le verrons en détail dans la 3ème partie, la conception d’un modèle interne ou
d’outils développés pour les besoins d’entités opérationnelles impose une réflexion préalable
indispensable à la création de valeur ajoutée pour l’entreprise. Les indicateurs utilisés dans le
pilotage de chaque entité opérationnelle montre que les attentes de solutions sont spécifiques
dans chaque métier de chaque entreprise. A défaut de pouvoir développer une vision holiste du
risque, les outils de marché peuvent difficilement répondre aux besoins particuliers de chaque
utilisateur.

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


66
Conclusion : Chapitre 1

Les outils décrits dans ce chapitre montrent qu’il existe des services informatiques permettant
aux assureurs d’évaluer les risques avec des contraintes particulières :

- Les outils d’inventaires permettent aux assureurs de récupérer progressivement les données
publiques brutes disponibles sur le territoire et de faire en interne leurs propres évaluations de
l’exposition de leur portefeuille. Cela implique de mettre en place une méthodologie et des
modèles de calculs pour prendre en considération l’hétérogénéité et l’absence de données pour
couvrir l’ensemble du territoire.

- Les modèles de catastrophes permettent de fournir une base de négociation pour la réassurance
mais les modèles différent suivant les fournisseurs, les incertitudes sont fortes sur chacun des
modules quant aux valeurs des probabilités. En France les principaux aléas que sont la tempête,
l’inondation et la sécheresse sont modélisés plutôt suivant une approche déterministe (suivant
des scénarios majorants).

- Les outils de diagnostic et de zonage du risque n’ont pas encore fait l’objet de réflexions et
d’études suffisamment abouties dans le secteur de l’assurance française. Des outils très
spécifiques et propres à chaque société méritent d’être développés.
Les outils développés par la MRN suscitent un intérêt auprès des sociétés d’assurance françaises
qui ont amorcé une phase d’appropriation de la technologie en déployant ce module
technologique pour des populations ciblées de souscripteurs.

Toutefois, les outils et modèles de marché apportent des réponses partielles et segmentées aux
problématiques de gestion de risques d’un portefeuille d’assurance non vie. L’approfondissement
de la connaissance de ses risques passe par la valorisation des éléments propres par l’entreprise
au regard de facteurs externes, notamment par une appréhension spatiale, géographique et socio
économiques, éléments discriminants de l’exposition d’un portefeuille de risques.
A contrario, le choix des modèles de marché limite l’approfondissement de l’entreprise de sa
connaissance du risque et restreint le processus visant à intégrer la gestion du risque de façon
systématique et compréhensive.

Les systèmes d’Information Géographique, déjà largement utilisés par les services de
géomarketing des sociétés d’assurance, semblent particulièrement adaptés aux problématiques
de gestion des risques de par leur analyse spatiale.
De plus, cette technologie rend plus accessible la création d’outils ; des solutions internes peuvent
aujourd’hui être développées par les acteurs de l’assurance pour leur besoins spécifiques.

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


67
Chapitre 2 : La géomatique : une nouvelle approche de l’analyse d’exposition
de risques et une première réponse technologique aux développements
d’outils internes

2.1 Intérêt des Systèmes d’Information Géographiques (SIG) pour l’appréhension spatiale
d’un portefeuille de risques

La géomatique regroupe l'ensemble des outils et méthodes permettant de représenter, d'analyser


et d'intégrer des données géographiques. La géomatique consiste donc en au moins trois activités
distinctes : collecte, traitement et diffusion des données géographiques.

II.2.1.i Les SIG permettent l’intégration des données hétérogènes et leurs analyses spatiales

Le Mercator, ouvrage de référence en marketing, rappelle que « toute prise de décision nécessite
la connaissance préalable de données sur lesquelles s’appuyer. Ainsi la prise de décision en
Marketing nécessite au préalable « une connaissance du marché, pour pouvoir s’y adapter et
l’influencer ».

Cette citation s’applique à tous les métiers d’une société d’assurances dont la prise de décision
doit reposer sur des données à la fois internes et externes à l’entreprise, afin de replacer le
portefeuille de risques assurés dans son environnement et son contexte.

Depuis quelques années, en plus des données statistiques socio-économico-démographiques sont


fournies notamment par des organismes comme l’Institut Géographique National (IGN), l’Institut
Français de l’Environnement (IFEN). De nouvelles données externes très pertinentes sont
désormais accessibles à l’entreprise : ce sont les données cartographiques, issues de l’industrie de
la navigation électronique et des Systèmes d’Information Géographiques.

Selon une définition donnée par Élisabeth HABERT40- Laboratoire de cartographie appliquée- un
système d'information géographique (SIG) est un système d'information capable d'organiser et de
présenter des données alphanumériques spatialement référencées, ainsi que de produire des
plans et des cartes. Ses usages couvrent les activités géomatiques de traitement et diffusion de
l'information géographique.

Pour Jérôme CHEMITTE41, la définition du concept de SIG est rendue difficile par les nombreuses
appellations voisines qui se substituent parfois au terme de SIG et les différentes significations qui
lui sont attribuées.

J. DENEGRE J. et F. SALGE42 indiquent qu’en tant qu’outil, les SIG comportent des fonctions de
saisie des données géographiques sous une forme numérique (Acquisition), un système de
gestion de ces données (Archivage), des fonctions de manipulation, de croisement, et de
transformation de ces données spatiales (Analyse) et des outils de mise en forme des résultats
(Affichage).

40
E. HABERT, Laboratoire de cartographie appliquée –- IRD – 2000,
http://www.cartographie.ird.fr/publi/documents/sig1.pdf
41
J.CHEMITTE, Adoption des technologies de l’information géographique et gestion des connaissances dans les organisations, 2008
42
DENEGRE J., SALGE F., Les Systèmes d’Information Géographique, PUF, coll. Que sais-je? n° 3122, 2004

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


68
De plus, ils précisent qu’en tant que système d’information, un SIG suppose une certaine
modélisation du monde réel et qu’il comprend donc des outils permettant de rendre compte de
cette abstraction de la réalité (Abstraction). Cette définition est souvent appelée les « 5A » des
SIG :

Figure 45 : Schéma de principe des SIG de J. DENEGRE J. et F. SALGE, 1996, Source : J.CHEMITTE

P. BORDIN43 propose deux types d’approche pour définir les SIG :


- la première considère le SIG comme un outil d’analyse travaillant dans le cadre d’une application,
d’une utilisation spécifique. Elle remarque que ceci peut se traduire sous la forme de la question «
pourquoi faire ? ». Cette définition par l’usage est proche de la notion des « 5A » mentionnée ci-
dessus. L’auteur en propose quatre types, résumés dans le tableau ci-dessous :

Figure 46 : Les différents types d’usage des SIG et le cycle de vie d’une application, Source : J.CHEMITTE

Le type inventaire ou observatoire a pour objet de répondre à des attentes en termes de


connaissance et de bilan sur un territoire.

Un SIG de type étude ou aide à la décision a pour objet de mettre en évidence des faits spatialisés,
de réaliser des analyses, de chercher des solutions à des problématiques, de comparer des
scénarios, etc. Le type gestion-suivi exploite des informations géographiques dans le cadre de
procédures établies à des fins de gestion.

Dans le même ordre d’idée, M. RIEDO 44 suggère de partir d’une certaine hiérarchie des
utilisateurs pour mettre en évidence la segmentation du marché des logiciels de SIG.

43
P.BORDIN ; SIG concepts, outils et données. Lavoisier, 2002,
44
M.RIEDO, Typologie et connaissance des logiciels SIG, Cours de l’EPFL, 2005

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


69
La figure suivante illustre son point de vue :

Figure 47 : Typologies d’utilisateurs selon M. RIEDO, Source : C.DUMARTINET

Un Système d’Information Géographique permet donc de gérer des données, que l’on a placées
géographiquement sur un fond de carte. Ces bases de données peuvent ensuite être interrogées
pour effectuer des analyses statistiques, avec l’avantage supplémentaire d’une visualisation
synthétique et spatiale propre aux cartes.

Figure 48 : Illustration de données pouvant servir dans l’analyse d’un portefeuille de risques aux aléas
climatiques et technologiques ; Source : C. DUMARTINET

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


70
Quelques exemples permis par l’exploitation d’un SIG et de bases de données associées :

• Faciliter les études et les prises de décision;


• Éditer des cartes thématiques et des cartes d’aide à la décision tel que le niveau
d’exposition à un aléa ;
• Connaître précisément l'exposition de risques géolocalisés ;
• Croiser des informations géographiques, économiques et sociales dans un référentiel
commun en vue d’analyser et de visualiser des phénomènes;
• Permettre la superposition de cartographies différentes offrant la possibilité de
rapprochements de renseignements;
• Comprendre des phénomènes et prévoir les risques à travers des simulations;
• Suivre la sinistralité d’un portefeuille, produit, etc.
• Doter les professionnels d’un outil métier pour la gestion et l’aménagement du territoire,
pour le suivi de l’environnement, les routes, la gestion du patrimoine...

Un SIG stocke les informations concernant le territoire sous forme de couches thématiques
superposables pouvant être reliées les unes aux autres par la géographie.

Un Système d’Information Géographique est un outil puissant permettant de visualiser, explorer,


interroger et analyser des données repérées géographiquement, offrant ainsi aux décideurs un
outil d’aide à la décision. Il permet très rapidement de croiser les données de manière à créer un
affichage cartographique de ces dernières, permettant en plus de l’analyse classique une analyse
géographique souvent bien plus explicite.

Les Systèmes d'Information géographique permettent de réaliser de nombreux traitements plus


ou moins complexes sur les données :

• Disposer les objets dans un système de références géoréférencées;


• Faciliter la superposition de cartes de sources différentes;
• Extraire tous les objets géographiques situés à une distance donnée d'un objet (ex. : une
usine Seveso);
• Fusionner des objets ayant une caractéristique commune (par exemple : toutes les
maisons situées en zones inondables);
• Déterminer l'itinéraire le plus court pour se rendre à un endroit précis;
• Définir des zones en combinant plusieurs critères (par exemple : définir les zones
inondables en fonction de la nature du sol, du relief, de la proximité d'une rivière);

En géomarketing, discipline la plus avancée chez leurs assureurs dans l’exploitation de SIG, les
critères démographiques, géographiques et socioculturels sont en général très opératoires, et
sont donc fréquemment utilisés.

Pour généraliser l’utilisation de SIG aux autres métiers d’une société d’assurance, il convient de
s’appuyer sur les 3 grandes catégories de variables intervenant dans la prise de décision :

- Les données de l’entreprise, internes, tels que les données de portefeuilles clients, les
bases de données risques, mais aussi les bases de données sinistres.
- Les données externes à l’entreprise, qui peuvent être socio-économiques,
démographiques, comportementales ou concurrentielles.
- Mais aussi les objets cartographiques, externes à l’entreprise, données spatiales
structurant le marché (contours administratifs, données inondations, cartes de zones
argileuses, etc.).

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


71
Les bases de données de l’entreprise

Les données internes à l’entreprise stockées dans les infocentres d’un assureur sont multiples et
généralement complexes. Pour les besoins d’études d’exposition d’un portefeuille, nous pouvons
regrouper ces données principalement dans 3 catégories:

- Le portefeuille des contrats actuellement en cours. Nous nous intéresserons ici plus
particulièrement aux risques assurés plus qu’à l’adresse du contrat retenue pour la
correspondance avec l’assuré ;
- Les bases de données sinistres, par garanties, par produit/contrat
- Les historiques de portefeuilles de risques assurés à une date donnée. Ces éléments sont
en effet importants si l’on souhaite mettre en exergue la sinistralité d’une année au
regard des risques qui étaient exposés la dite année. Nous insisterons ici sur l’importance
pour un assureur de sauvegarder l’ensemble des données historiques pour mener ce type
d’étude a posteriori.

Nous regroupons ces données sous le terme générique de données internes.

Les données marché

Elles décrivent l’environnement démographique, socio économique et géographique du risque.


Elles fournissent ainsi des données pour comprendre l’environnement du portefeuille.

Nous pouvons notamment y trouver :

- La démographie du territoire étudié : population par tranche d’âge, nombre d’enfants,


taux de natalité et autres indices.
- L’habitat (type de bâtiments, années de construction) et les normes de construction
- Les indices de micro économie : revenu, ménages.
- Les conditions sociales : CSP, habitat, impôts.
- L’occupation du sol (parcelles urbaines, péri urbaines, zones forestières, etc.)
- Les reliefs, les fleuves, etc.

Nous regroupons ces données sous le terme données du marché.


Notons ici que les données internes au portefeuille comme celle du marché peuvent être trouvées
sous deux formes à distinguer : d’une part sous forme de fichiers de données et d’autre part sous
forme de données statistiques, les deux pouvant être utilisées conjointement lors du croisement
des données.

Les fichiers de données contiennent des listes de données précises sur un panel d’objets tels que
les années de construction de bâtiments, les revenus des assurés selon des informations
provenant de recensements INSEE, etc.

Pour être utilisable de manière statistique sans risque d’erreur, il convient de qualifier l’exactitude,
l’exhaustivité et l’homogénéité des données. Le SIG est en effet un outil de datamining qui ne
peut souffrir de mauvaises données.

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


72
Les entités cartographiques
Les données cartographiques sont des instances d’entités qui structurent notre espace. Il peut
s’agir :
- D’entités de nature géographique : cours d’eau, fleuves, montagnes, bois, forêts, littoral.
- D’entités de l’infrastructure urbaine : réseau routier, constructions, etc.
- D’entités issues de la division administrative du territoire : en France les 36.607
communes, les cantons, les 96 départements, les 22 régions.
- D’entités de division conceptuelle du territoire : îlots (ou pâté de maisons de 400 à 700
personnes), les 49365 IRIS 2000 (ou quartiers d’environ 2000 individus homogènes), les
secteurs postaux…
Ces données peuvent être également classées selon leur forme géométrique : les points
(carrefours, gares), les lignes (routes, rivières, frontières), les zones (occupation du sol, commune),
les images (cartes numérisée, images satellites).
De même que les données internes et socio démographiques se déclinent sous des formes
différentes, il existe deux technologies principales pour représenter les données cartographiques :
les cartes dites « raster » et celles vectorielles.
Les cartes raster sont des maillages, des matrices de l’environnement géographique et de ses
objets urbains, dont toutes les cases sont liées à une information. Cette matrice, dont les
informations associées sont différenciées lors de l’affichage par leur couleur, est une véritable
image de type « bitmap ».

Figure 49 : Exemple de format Raster : en orange les zones périurbaines, en rouge les zones urbaines, en
noir les routes départementales. Source : l’outil Covigéo, Groupe COVEA

Cependant, en raison de la résolution fixe – ou taille des cellules - du maillage, d’importants


zooms rendent la carte illisible et inexploitable, chaque cellule apparaissant alors comme une
grosse case.
Couramment disponibles et peu onéreuses les cartes sont désormais surtout utilisées comme
images pour embellir les représentations.

Les cartes vectorielles sont, elles, des ensembles d’objets modélisés géométriquement et repérés
dans l’espace par l’utilisation d’un système de coordonnées, par exemple le repère français
Lambert 2.

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


73
Les 5 types d’objets vectoriels sont les points, les lignes (ou segment de droite), les polygones, les
graphiques (camemberts, diagrammes bâtons) et enfin les labels (texte). Ainsi tout arrêt de bus
pourra être modélisé géométriquement par un point à 2 coordonnées x et y, et un tronçon
d’autoroute par un segment de droite, i.e. par les coordonnées de ses deux extrémités.

Figure 50 : Exemple d’objets vectoriels. Source : Géoportail, IGN

Figure 51 : Exemple de superposition de formats raster et vectoriels. Source : Covigéo, Groupe COVEA

Les objets sont de plus organisés en classes homogènes pour former des macro objets de plus
haut niveau (le réseau routier contient les objets routes, autoroutes, les chemins communaux),
classes qui peuvent être considérées à l’affichage comme des couches qu’il est possible ou non de

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


74
visualiser. Des objets conceptuels complexes tels que les îlots, les zones tarifaires ou encore les
zones d’aléas (zones inondables, zones argileuses, site Seveso, etc.) peuvent donc être construits.

Les cartes vectorielles sont donc extrêmement utiles pour leur flexibilité d’utilisation, d’autant
plus que la modélisation mathématique des objets autorise des niveaux de zoom quelconques et
la possibilité d’interagir facilement avec la carte et ses objets, pour déplacer une agence par
exemple ou étudier localement la sinistralité d’un événement.

Le nécessaire croisement des données

Afin de tirer parti de toutes ces données, il s’agit non pas de les prendre en compte
successivement et indépendamment les unes des autres, mais de les penser simultanément dans
leur globalité afin de comprendre les corrélations entre les variables internes de l’entreprise et
celles externes. Cette opération nécessite donc un croisement des données. En termes de base de
données, le croisement correspond à l’opération de jointure.

Figure 52 : Exemple de croisements de données. Source : C. DUMARTINET

Ce croisement permet notamment de relativiser l’impact d’un événement : les risques situés sur
la commune du Calvados sont bien plus exposés que ceux situés dans la Marne. La sinistralité
vérifie cette corrélation entre l’approche aléa (ou géographique) et les données internes extraits
d’une base de données sinistres

Pour relativiser son exposition, l’entreprise se doit de croiser ses données internes avec des
données externes. Les données internes ne peuvent suffire à concevoir un zonier d’exposition. La
mise au point d’un zonier inondation n’est possible que sur la base de données externes et
géographiques sur le risque de crues. Lorsque qu’aucun événement n’est survenu, aucune
donnée interne ne sera disponible, ce qui ne signifie pas que l’exposition est nulle.

Si le croisement entre les données internes et celle du marché est depuis longtemps d’usage, ce
sont les données cartographiques qui apportent désormais une dimension supplémentaire à
l’analyse, par exemple en permettant un calcul de sinistralité suite à une tempête dont les coûts

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


75
moyens seraient fonction de la présence d’une zone boisée, les chutes d’arbres ayant provoqués
des dommages plus importants. Une telle étude permet à un actuaire de suivre l’évolution du
rapport sinistres/primes en fonction un aléa.

Figure 53 : Proportion d’endommagement par typologies de risques. Source : Groupe COVEA

La géomatique propose d’effectuer les croisements manquants entre ces 3 sources de données.

D’une part le croisement binaire manquant :

- Données marché
- Données cartographiques notamment pour des applications pour lesquelles l’assureur dispose
de peu d’information sur l’aléa, tel que le risque inondation par exemple, où la donnée dont
disposent les agences de bassin n’est pas rendu publique, ou n’existe tout simplement pas).

Le géocodage des sinistres par exemple est une bonne source d’information pour déterminer les
zones présentant des risques d’exposition importants en matière d’inondation, permettant ainsi
de palier la carence d’informations et modéliser et d’analyser les zones à prospecter.

D’autre part le croisement triaire, le plus porteur d’information car augmentant d’une dimension
l’espace de recherche des corrélations entre les phénomènes étudiés :
- Données portefeuille
- Données marché
- Données cartographiques

Le territoire, terre de confrontation

Le Géomarketing repose sur le croisement de 3 catégories de données :


· Les données internes de l’entreprise.
· Les données du marché, externes à l’entreprise, qui peuvent être socio-économiques, socio-
démographiques.
· Les données cartographiques, externes à l’entreprise, structurant l’environnement des clients,
des prospects, des magasins, etc.

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


76
Figure 54 : Croisement de données externes et internes dans un SIG. Source : C. DUMARTINET

Ce croisement confronte sur un même référentiel géographique l’entreprise et son


environnement (aléas, données socioéconomiques, etc.).

Croiser des contenus des données hétérogènes


Dans le cadre de la problématique traitée à savoir l’assurance des risques naturels, les indicateurs
nécessitent d’intégrer des contenus hétérogènes de données.

Lorsqu’on s’intéresse par exemple à la mesure de l’exposition d’un portefeuille d’assurés il est
nécessaire de croiser des données privées, concurrentielles (description des conditions
financières des contrats d’assurance, typologie des biens assurés, localisation des objets de risque,
montants des sinistres et des primes, etc.) avec des données publiques (zonages des aléas,
résultats de modélisation, informations préventives) et des données mutualisées entre assureurs
(courbes d’endommagement, taux de sinistralité). Or d’un côté la structuration et le stockage des
données dans le système d’information d’une société d’assurances varient selon les organisations:
la structuration et l’architecture des données s’alignent le schéma organisationnel de chaque
entreprise. De l’autre côté les contenus des données publiques divergent selon les régions et
selon les méthodes de modélisation choisies.

C’est particulièrement le cas pour l’inondation où chaque région a la liberté de choisir la méthode
de modélisation pour la réalisation des Atlas des Zones Inondables (méthodes hydrologiques ou
hydro géomorphologiques ou cartographie des Plus Hautes Eaux Connues). En fonction de ces
choix, la structuration des données décrivant une inondation va fortement varier : dans un cas
l’inondation sera qualifiée par un niveau d’intensité (faible, moyen, fort), de l’autre par une classe
de fréquence (fréquente, très fréquente, exceptionnelle) ou bien une période de retour
(décennale, centennale, etc.) ou simplement par la date d’un événement passé.

De plus, pour analyser la vulnérabilité les indicateurs doivent regrouper et croiser des données sur
les aléas, sur les enjeux mais aussi sur la prévention. Par exemple, si l’on souhaite analyser

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


77
l’indicateur du nombre de logements inondables dans une zone ayant un PPR appliqué alors les
logements sont «les enjeux », les zones inondables sont à « l’aléa » et l’information sur la
présence du PPR sont « la prévention ».

Les enjeux peuvent être décrits soit par des informations sur les permis de construire, soit par des
données statistiques sur les logements, soit par toute autre information décrivant un bien assuré
ou pas (contenu dans un portefeuille). Les aléas sont décrits en fonction des méthodes de
modélisation utilisées tandis que les données sur la prévention sont contenues dans les cartes de
zonage des PPR. Chaque commune a le choix de la méthode de représentation des zones
réglementaires ce qui créé une grande hétérogénéité dans les modes de représentation.

L’hétérogénéité des contenus dépend pour l’essentiel des méthodes de réalisation des données
des producteurs mais aussi des évolutions des spécifications des données. La consolidation des
indicateurs nécessite de connaître précisément la nature des données à mobiliser pour pouvoir
les intégrer dans un ensemble cohérent.

Associer des données géographiques et non géographiques

Dans le cas des indicateurs relatifs aux risques naturels il convient de croiser des données
géographiques avec des données non géographiques. Le caractère géographique des risques
naturels nécessite d’être capable de relier des données géographiques et des données non
géographiques : que ce soit pour qualifier un enjeu ou qualifier un aléa, chaque donnée doit être
attachée à un objet géographique permettant de localiser le risque. Les données géographiques
concernent à la fois l’emprise géographique d’un aléa (AZI, zones sismiques, zones de sécheresse
géotechnique), la distribution géographique des enjeux (logements, sites assurés, etc.), le zonage
des mesures réglementaires de prévention (plan de zonage réglementaire d’un PPR) ou encore les
contours des entités administratives. Les données descriptives (enjeux, aléas, vulnérabilité
prévention, montants financiers, etc.) doivent nécessairement pouvoir être associés à un objet
géographique (zone d’aléa, localisation d’un enjeu, zone règlementaire, etc.).

L’association des données géographiques et des données non géographiques doit mobiliser un
nombre important de sources de données diverses et hétérogènes provenant de plusieurs
producteurs différents. Ainsi pour ce qui concerne les aléas il faudra regrouper des cartes
numérisées provenant des DIREN pour l’inondation, du BRGM pour la sécheresse, de la base
GASPAR du MEEDDAT pour les informations administratives et les plans de zonage PPR, de l’INSEE
pour les statistiques sur les logements et les entreprises, de l’IGN pour les contours administratifs
et les données routières. Quant aux données sur les conditions d’assurance et la distribution des
portefeuilles d’assurés il faudra mobiliser des données internes aux systèmes d’information des
sociétés d’assurances. Cette diversité nécessite d’être capable de se connecter à ces sources et de
les interroger pour en extraire le strict nécessaire pour le calcul des indicateurs. L’utilisateur final
doit s’affranchir de cette complexité et consulter les indicateurs dans un ensemble cohérent et
homogène.

L’hétérogénéité des données est un point fondamental à prendre en compte dans la mise en
place de solutions technologiques permettant de suivre des indicateurs sur les risques naturels
pour le secteur de l’assurance. Pour chaque source il faudra étudier : le modèle de données
associé, les droits d’usage et les licences, les contraintes liées aux formats et au type de stockage.
Afin de permettre l’analyse et le suivi des indicateurs il est nécessaire de pouvoir répondre à
certaines caractéristiques concernant la navigation et l’exploration des données.

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


78
II.2.1.ii La géolocalisation des portefeuilles permet d’intégrer le risque dans son
environnement

Le croisement des données nécessite la constitution d’un référentiel commun à toutes les sources
de données. Comme les données portefeuille et marché peuvent être localisées dans l’espace, le
référentiel considéré est celui des données cartographiques, à savoir un référentiel spatial.

Les données cartographiques étant déjà ancrées sur ce référentiel, il convient de localiser
géographiquement les autres données grâce à un procédé appelé géocodage.

Figure 55 : Exemple de géocodage de risques. Source : Territoires & Marketing

Une des composantes essentielles d’un outil de géomarketing est donc son algorithme de
géocodage, sans lequel il ne peut y avoir de croisement entre les différentes entités qu’il faut au
préalable ancrer sur le référentiel des entités cartographiques. Il fait correspondre à tout objet
son emplacement géographique dans le référentiel donné.

Le géocodage d’un objet par rapport à un référentiel spatial donné est le processus (ou
algorithme) qui, à partir de l’adresse de l’objet exprimée en langage naturel, localise ce dernier
dans le référentiel.

Le géocodage est une action qui permet d’associer aux enregistrements d’un fichier (risques
assurés, sinistres, agences commerciales, centres d’expertise, etc.) des données géographiques
exprimées sous la forme de coordonnées (X,Y).

Le géocodage d’un fichier permet d’obtenir par exemple une cartographie d’une zone de
chalandises ou un itinéraire optimum pour une tournée commerciale.

Pour pouvoir être géocodé, un fichier doit comprendre les champs correspondant à l’adresse.

Le pré -requis de tout géocodage d’une base de données interne à l’entreprise est d’avoir pour
chaque objet à localiser des données permettant de le localiser, notamment des adresses sous
forme (Adresse, Code Postal, Ville) dans le cas d’un portefeuille client. C’est la condition sine qua
non de la mise en place d’une solution de géomarketing, et elle est souvent – hélas - loin d’être
acquise.

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


79
Figure 56 : Un exemple de fichier d’adresse géocodé. Source : Groupe COVEA

Pour localiser l’objet, l’algorithme compare l’adresse de l’objet avec les données cartographiques
dont ils disposent (i.e. les coordonnées des rues, les bornes des numéros d’habitation en chaque
tronçon de rue, des villes, etc.). Quatre résultats peuvent alors être renvoyés :
· Adresse trouvée (elle est localisée par interpolation linéaire entre les bornes du bon tronçon de
rue).
· Numéro modifié (déplacé entre les bornes de la rue)
· Numéro et parité modifiés (donc le côté de la rue)
· Géocodage à la rue (le point est situé au milieu de la rue)

Figure 57 : Géocodage d’un objet sur le territoire français par ses coordonnées (x ;y) dans un repère
Lambertien. Source : M. RIEDO

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


80
Un géocodage aussi précis est utile aux applications de navigation, mais aussi au géomarketing
lorsque l’on désire effectuer un géocodage à l’adresse, par exemple localiser de manière précise
un magasin dans une rue.

Pour le géocodage statistique, le référentiel est un maillage (ou « discrétisation ») de l’espace,


donc espace discret, et l’algorithme de géocodage fournit l’élément du maillage dans lequel se
trouve l’objet considéré.

Les maillages devront donc être une partition de l’espace, leurs différents éléments ne se
recouvrant pas. Les maillages classiques peuvent être :
· Des territoires administratifs : régions, départements, communes, cantons.
L’algorithme de géocodage associe à l’adresse de l’objet sa région, son département, etc.
· Des territoires conceptuels : îlots de 400- 700 personnes semblables, IRIS de 2000 personnes
homogènes. L’algorithme fournit le numéro unique de l’îlot, de l’Iris, …

Figure 58 : Géocodage statistique d’objet au département. Source : M. RIEDO

- l’Adresse est du type n° X, rue Y.


- Le centre d’un territoire donné est soit son barycentre, soit son centroïde.

D’une localisation à un niveau donné peuvent être déduites facilement celles aux niveaux
supérieurs: il est facile de déduire le numéro de département à partir des coordonnées d’un objet
géocodé à l’adresse. Cependant, si le numéro de l’adresse a été modifié lors de sa géolocalisation
à l’adresse, l’objet peut avoir changé d’îlot voire d’Iris (une rue pouvant en traverser plusieurs), et
ainsi biaiser les statistiques se fondant sur l’agrégation des données.

Géocodage d’une base de données

Quelle résolution prendre alors pour le géocodage ? Le niveau de finesse du géocodage dépend
d’une part de l’utilisation que l’on veut en faire, et d’autre part des données dont l’on dispose.
La modélisation d’une tempête nécessitera de disposer d’un portefeuille de risques géocodés au
code postal tandis que l’inondation implique de dispose des coordonnées du risque à l’adresse (x ;
y) et idéalement connaître l’altimétrie du risque (z) ou l’étage du bien assuré. En plus de
l’accessibilité aux données externes, la géolocalisation des portefeuilles de risques et de leurs
sinistres est souvent un obstacle à la modélisation.

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


81
D’une manière générale, le niveau de la carte et celui des analyses doivent être homogènes avec
celui des données – internes et externes - support de l’information.

Les limites du géocodage : la complexité de l’opération de géocodage

Le force et la complexité des algorithmes de géocodage résident dans :

- Leur capacité à traiter la plupart des syntaxes d’adresses communément utilisées,


i.e. leur compréhension de la langue naturelle. Ainsi boulevard peut être écrit en toutes
lettres ou encore se trouver abrégé en bd, Bd, bvd, Bld, cette dernière abréviation
n’étant pas toujours utilisée bien qu’étant la norme.
- Leur tolérance vis à vis les erreurs ou incomplétudes de saisie : 92400 PARIS sera
en effet interprété comme 92400 Courbevoie.

Deux types d’algorithmes sont actuellement en lice : ceux fonctionnant sur un moteur d’analyse
purement syntaxique et linguistique, possédant une grammaire des possibilités d’écritures
rencontrées, et ceux ajoutant des comparaisons phonétiques pour plus de tolérance (ainsi «
avenu du Genairal Leklerc » sera corrigée en « avenue du Général Leclerc »).

Les algorithmes de géocodage sont donc propres à une langue donnée et à un territoire donné, et
permettent notamment de normaliser les adresses interprétées.

Le problème des rejets et des erreurs

Les erreurs et les rejets dépendent à la fois de l’algorithme de géocodage, de l’échelle de


géocodage choisie, et de la qualité des adresses en entrée. De plus, les taux de rejets admissibles
dépendent de l’application que l’on désire faire du géocodage. En général, pour des portefeuilles
de risques d’assureurs français, 2/3 des risques sont géocodés à l’adresse, ce qui conduit à des
taux de rejet assez forts de 33%, il baisse à 4% si l’on retient comme maille le code postal.

Pour une connaissance globale d’exposition de risque, notamment pour des réassureurs, le
géocodage au code postal est représentatif de l’ensemble du portefeuille de risques et explique
notamment le développement historique de l’assureur dans certaines régions où les cumuls sont
les plus forts. En revanche, un taux de rejet à l’adresse très faible de 8% peut poser problème
quand un service d’actuariat technique veut très bien connaître ses 5 millions de clients, et
procéder à une extraction du nombre de risques pour un zonier déterminé. L’opérateur doit en
effet relocaliser à la main 400.000 clients !

Remarquons enfin que plus le taux de rejet est faible, plus le géocodage pourra mettre en
exergue des disparités locales utiles à une analyse fine d’exposition aux aléas.

Appréhender l’exposition d’un portefeuille de biens assurés aux risques majeurs commence par la
localisation du risque sur un territoire donné. La dimension spatiale de l’assurance Dommage est
ainsi prise en compte. La superposition aux éléments exogènes peut dès lors déboucher sur
l’analyse d’exposition des risques aux aléas externes.

2.2 Contribution des SIG à la modélisation d’exposition aux risques majeurs

II.2.2.i Contribution de la géomatique à la modélisation des risques

Méthodologie de modélisation d’un risque

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


82
Les outils proposés sont généralement composés de plusieurs modules mobilisant plusieurs
profils de compétences comme des actuaires ou statisticiens spécialisés dans la constitution de
courbes de vulnérabilité, des ingénieurs BTP, des géophysiciens mais aussi des experts sinistres.

Figure 59 : Modélisation de l’exposition : méthodologie d’analyse. Source : Emmanuel LEBLANC, AMRAE


2008

On trouve en général quatre modules :

• Module Aléa :

L’exposition aux aléas naturels dépend de la répartition géographique, de la fréquence


d’occurrence et de l’intensité des événements. D’une part sont pris en compte des inventaires
d’événements antérieurs et d’autre part des connaissances scientifiques concernant les
propriétés physiques des aléas.

Afin de disposer d’un échantillon significatif d’événements catastrophiques pour établir des
probabilités d’occurrence, ce module utilise un moteur stochastique pour simuler des
événements calibrés en fonction des événements historiques observés ayant des propriétés
physiques et une trajectoire géographique comparable. Chaque événement a donc une
probabilité de survenance, une trajectoire géographique et des paramètres caractérisant
l’intensité sur toutes les portions géographiques qui le compose : pour les événements
cycloniques il s’agira de la vitesse et de la direction du vent, pour les phénomènes de crue il
s’agira du débit, du volume de précipitation, de la hauteur d’eau calculée à partir des
caractéristiques du sol, enfin pour les séismes il s’agit de prendre en compte la distance à
l’épicentre.

• Module Enjeux :

L’analyse du portefeuille porte d’abord sur une étude qualitative de critères spécifique aux
portefeuilles assurés. De plus, afin d’appréhender la modélisation de dommages à l’aléa étudié, il
convient de dégager les facteurs discriminants. La qualité de l’occupant (propriétaire, locataire,
propriétaire non occupant) est elle une variable discriminante dans l’éligibilité à une

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


83
indemnisation en cas de tempête ? La typologie de l’habitat (maison individuelle, appartement) a-
t-elle un impact sur la vulnérabilité du bâti ? Cette étude préalable donne lieu par la suite au
géocodage des typologies retenues en fonctions des critères considérés comme discriminants par
le modélisateur.

• Module Vulnérabilité :

Pour une même intensité de l’aléa, on constate que l’ampleur des dommages occasionnés peut
être très diverse : les dégâts subis par des bâtiments sont plus ou moins importants selon le type
de construction, leur ancienneté ou leur hauteur.

Le contenu du bâtiment est aussi important. Le taux moyen de sinistralité est le montant total du
sinistre par rapport à la valeur totale de tous les objets d’assurance dans la zone considérée. Il
dépend donc de l’intensité du phénomène et des spécificités des objets assurés. Ainsi on définit
une multitude de courbes de vulnérabilité encore appelées « courbes d’endommagement » qui
expriment le rapport entre l’intensité et le taux moyen de sinistralité. Ces courbes de vulnérabilité
sont appliquées pour chaque type de bâtis, d’activités ou de biens contenu dans le portefeuille
d’assurés à analyser en appliquant l’impact de chaque événement simulé (intensité de crue,
tempête, séisme) sur les localisations géographiques des sites assurés.

• Module Résultats / Finance :

Afin de déterminer les montants financiers des pertes potentielles pour les besoins des services
en charge de la réassurance, ou bien le nombre de sinistres à attendre afin de mobiliser les
ressources de gestion internes et externes et prendre les mesures les plus adéquates.
Il s’agit de rattacher la valeur de remplacement des dommages ainsi que les conditions
d’assurance correspondantes pour chaque lieu de risque balayé par l’événement (primes, limites
de garantie, franchise) au nombre de dossiers attendus. Ainsi il est possible de déterminer le
sinistre brut et le sinistre net pour l’assureur. Ces conditions s’appliquent à des couvertures
d’assurance individuelles comme les logements des particuliers ou à plusieurs couvertures
d’assurance concernant un même lieu comme les professionnels ou les entreprises (machines,
stocks, marchandises et pertes d’exploitation).

II.2.2.i Traitements et analyse de données portefeuille nécessaires à la modélisation Cat

La précision et la fiabilité d’un modèle d’analyse de la vulnérabilité d’un portefeuille d’assurance


dépend beaucoup du choix des facteurs discriminants, de l’étendue et de la qualité des données
qualifiant les biens assurés composant ce portefeuille. La qualité d’un modèle est fonction du
choix des critères discriminants et des données disponibles.

Concernant les données internes au portefeuille de risques, il est souvent constaté que les
données qualifiant les habitations ou leur environnement sont insuffisamment présentes dans les
portefeuilles des assureurs. Il convient alors par croissements binaires comme précédemment
décris, de procéder à des croisements entre données internes et sources externes, notamment
marché, afin d’essayer de compléter l’information manquantes.

Les données qualitatives nécessaires peuvent être structurées en deux familles, en fonction de la
capacité des assureurs à les collecter de manière plus ou moins autonome :

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


84
Données qualifiant la nature de chaque bien assuré, que les compagnies peuvent collecter et
enrichir lors de leurs contacts avec les assurés (au moment de la souscription, pendant la vie du
contrat ou encore au moment du sinistre) :

• Qualité juridique des assurés (propriétaire, locataire, …) : il s’agit de données connues des
assureurs qui sont essentielles pour déterminer l’enjeu des dommages qui seront
indemnisés,

• Appréciation de la valeur des biens assurés : il s’agit davantage de capitaux assurés que
d’une estimation précise de la valeur des biens. Ces données sont renseignées de manière
forfaitaire à la souscription mais ne sont pas systématiquement mises à jour,

• Connaissance des caractéristiques de l’habitat : à l’exception de la distinction entre les


immeubles et les maisons individuelles, les caractéristiques de l’habitat (ex : présence de
cave, maison de plain-pied, niveau de l’étage auquel se situe l’appartement, …) sont
rarement qualifiées. Les assureurs pourraient néanmoins améliorer le recueil de ces
informations, s’ils considèrent qu’elles ont un impact discriminant sur l’enjeu des
dommages potentiels,

• Nature de la construction et résistance des matériaux utilisés (type de toiture pour la


tempête, nature et profondeur des fondations pour la sécheresse, …) : des études,
conduites par des organismes comme le CSTB, pourraient être davantage exploitées par
les assureurs si la nature de la construction était précisément recensée pour chaque bien
assuré,

• Connaissance d’éventuelles démarches de réduction des risques (actions de prévention


ou de protection mises en œuvre par l’assuré) : ce type d’informations apparaît important
notamment dans le cadre de risques industriels, mais il ne s’agit pas d’informations
renseignées systématiquement et de manière normée,

• Connaissance de la nature des réparations antérieures pouvant impacter la survenance et


l’étendue des dommages futurs (ex : sécheresse). Ce type d’informations n’est pas connu
à ce jour des assureurs.

- Données qualifiant l’environnement du bien assuré, que les compagnies ne peuvent pas
collecter de manière autonome :

• Connaissance de l’environnement géographique de l’habitat : diverses cartographies


(nature de la végétation à moins de 10 mètres, cartographie des sols et sous sols,
présence d’un cours d’eau à proximité, cartographie complète des réseaux hydrauliques),
modèles élaborés (Modèle Numérique de Terrain, modèles hydrauliques, modèles
d’écoulement des fluides, etc.),

• Données descriptives de l’environnement du bâti (présence de terrasse adjacente à


l’habitation, existence de bâtiments annexes à moins de 10 mètres de l’habitation, nature
des connexions aux réseaux de canalisations urbaines, niveau général d’urbanisation /
densité des constructions, etc.)

• Bases de données socio-économiques et administratives,

• Mise en œuvre de plans de prévention collectifs (construction de digues, …)

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


85
• Mise en œuvre d’un plan communal de sauvegarde.

Toutes les données à recueillir par les assureurs sont donc nombreuses. Elles apparaissent par
ailleurs très différentes en fonction des périls climatiques que l’on souhaite étudier : tempête,
inondation, sécheresse, etc.

2.3 Initiatives sur le marché français

II.2.3.i La modélisation des catastrophes en France : la CCR

A la demande des pouvoirs publics, la Caisse Centrale de Réassurance a initié en 1997 un


programme d’analyse des indemnisations avec la participation des assureurs. La CCR a réalisé une
modélisation interne pour reconstituer une partie de l’historique des événements
catastrophiques.

Ces différentes étapes ont contribué à la création d’un outil appelé ARTEMIS (Analyse des Risques
Traités par Evénements, Modélisation Informatique et Statistique).

ARTEMIS se compose de données statistiques issues de l’INSEE et qui permet d’estimer le coût
d’un événement inondation a posteriori et d’évaluer le montant des sinistres tout en contribuant
à une meilleure appréciation des engagements de la CCR et des assureurs.

Pour modéliser une inondation pour un portefeuille donné, il a été indispensable d’utiliser
plusieurs modules comme décrits précédemment et de mobiliser des compétences diverses telles
que des économistes, des ingénieurs spécialisés, des scientifiques.

Figure 60 : Rappel méthodologique d’une modélisation, Source : C. DUMARTINET

Le premier module aléa utilise un moteur stochastique pour simuler une inondation en
s’appuyant sur la topographie et le réseau hydrographique.
Ce module tient aussi compte des observations enregistrées au cours de l’événement, telles que
la pluviométrie et les débits hydrométriques.
Chaque événement se caractérise donc par une probabilité de survenance associée à une
trajectoire géographique donnée.

Le second module vulnérabilité intègre comme données, la vulnérabilité potentielle du


portefeuille grâce à des courbes d’endommagement qui mettent en évidence le rapport entre
l’intensité et le taux moyen de sinistralité.
Ces courbes tiennent compte du type de risque, du capital souscrit pour prévoir l’impact de
chaque événement simulé en fonction des zones géographiques choisies.

Le troisième module de dommage permet de déterminer les pertes potentielles en incluant dans
le modèle la valeur de remplacement des biens et les conditions contractuelles correspondantes
pour une estimation proche de la réalité.

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


86
La combinaison des trois modules aboutit à des courbes de sinistres de fréquence permettant aux
assureurs d’anticiper les conséquences éventuelles d’un événement futur.
Même si le modèle semble fiable, il est important de souligner qu’il repose sur des probabilités
qui par nature restent incertaines.
En effet, les spécialistes qui conçoivent ces modèles ont accès à des données qui sont souvent
insuffisantes en termes de précision et d’homogénéité.
Des axes d’améliorations sont donc envisagés, notamment sur la durée de la période analysée.

Suivant le type d’aléa, le catalogue d’événements est constitué sur une base historique ou bien
sur une base probabiliste. Concernant les inondations il y a débat sur le choix d’un catalogue
historique ou probabiliste.

La réalité historique fait apparaître une répétition d’événements d’ampleur moyenne de l’ordre
de quelques centaines de millions d’euros. Ces répétitions se sont faites souvent dans les mêmes
bassins hydrographiques. Les ingénieurs ont plutôt développé leurs activités en direction des
événements de période de retour centennale, bi centennale, cinq centennale.

Figure 61 : Crue du Rhône en 2003, coût historique de cet événement pour le marché par commune,
Source : E risks, CCR

Il s’agit donc de prioriser les événements suivant leur période de retour ; si l’on reste sur des
périodes trop grandes on restera sur une approche purement historique ou déterministe, dans le
cas contraire si l’on prend des périodes de retour trop courtes alors le risque est de ne pas
prendre en compte les catastrophes mais seulement les risques de moyenne ampleur. Le débat
ne semble pas être tranché.

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


87
Le projet ARTEMIS consiste à modéliser plus finement les catastrophes naturelles relevant du
régime, et les charges de sinistres qu’elles ont engendrées. Les objectifs sont d’estimer le coût
d’un événement et d’évaluer l’exposition de l’état, de la CCR et des sociétés d’assurances,
notamment par la simulation d’événements historiques de référence sur les portefeuilles actuels,
comme l’inondation de Paris en 1910 par exemple. Ces outils se composent de données
statistiques géoréférencées soit à l’adresse soit à l’échelle d’un îlot de l’INSEE soit à l’échelle
d’une commune.

Le module d’aléa utilise pour chaque événement reconstitué des données pluviométriques de
Météo France, des données hydrométriques du MEEDDAT et enfin des données topologiques
permettant en tout point de la zone affectée de calculer une hauteur d’eau. Cette approche est
limitée à la reconstitution uniquement de quelques événements naturels de grande ampleur tel
que la crue du Rhône, les crues du Gard en 2002 ou encore la crue de la Seine de 1910. Le reste
du réseau hydrographique n’est pas couvert.

II.2.3.i Coventéo : initiative d’un assureur français

Après la réalisation d’une analyse comparative des outils de modélisation existants sur le marché
français et à l’étranger, le groupe COVEA a développé le premier outil de prévisions de dommages
adapté aux besoins d’un assureur français dans le cadre de la gestion des tempêtes.

Conscient des difficultés inhérentes à la quantification de ce risque majeur, et pour mieux anticiper
l'impact d'une tempête, le groupe Covéa a élaboré le premier modèle météo d’extrapolation des vents
extrêmes en France servant de base à l’Outil de modélisation du risque Tempête sur un portefeuille
d’assureur MRH. Ce modèle de prévisions baptisé Coventéo est une avancée importante pour un
assureur qui ne dispose actuellement d’aucun outil adapté à son activité.

Depuis son lancement en 2009, le modèle Coventéo a pu démontrer sa performance en matière


de gestion sinistres lors des tempêtes Klaus, Quinten et Xynthia.

Coventéo permet de simuler le nombre de sinistres par zone géographique, leurs coûts, ainsi que
les cadences d'arrivée des déclarations.

Cet outil a nécessité la mise en place d’une équipe interne pluri disciplinaire composée de
consultants, d’ingénieurs BTP et de statisticiens / actuaires.
Un partenariat a été mis en place avec la société de prévisions Agate France avec la mise à
disposition d’un météorologue pour les prévisions météorologiques.

La Tempête est un aléa complexe dont la modélisation nécessite la prise en compte de paramètres
spécifiques au territoire français comme l’occupation du sol, la rugosité des vents, l’exposition du
territoire et de sa géographie physique ainsi que la diversité du bâti qui caractérise nos portefeuilles
MRH.

L’outil modélise dans un 1er temps l’écoulement du vent sur l’ensemble du territoire, déterminant ainsi
la vitesse des rafales de vents au niveau de chaque code postal avant une tempête sur la base des
prévisions du modèle, mais après l’événement à partir des relevés des stations Météo France.

Ainsi, en associant une rafale de vent à un code postal, en fonction des paramètres du modèle (normes
de construction, type de bâti, etc.) et des portefeuilles géoréférencés de chaque enseigne du groupe

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


88
COVEA, Coventéo détermine le nombre de déclarations au niveau de chaque code postal, le nombre de
collaborateurs internes et externes requis pour gérer les sinistres et le coût indemnitaire.

Dès la détection d’une tempête par le météorologue d’astreinte de la société Agate France, une cellule
de crise composée du responsable de programme et du météorologue est mobilisée immédiatement,
chargée du suivi de l’évolution météo et de l’information deux fois par jour du Comité de Direction
COVEA. Le modèle est dès lors alimenté en prévision de vent.
Ces prévisions permettent de donner à l’outil une dimension prédictive et d’anticiper l’organisation
adéquate, de mobiliser en amont les acteurs de la chaîne d’indemnisation, facilitant ainsi la gestion des
sinistres.

Le modèle Coventéo donne automatiquement 3 scénarii, dont un scénario haut, médian et bas. Le
pilotage de l’événement implique de privilégier un scénario. Pour ce faire, l’interprétation du modèle
météo par le prévisionniste et le savoir-faire de toute l’équipe Coventéo sont nécessaires.

Aujourd’hui, à partir d’une pré-alerte météo, Coventéo permet d'estimer le nombre et le coût des
sinistres pour chaque enseigne et chaque code postal 5 jours avant la survenance de l'événement et ce,
par type d’habitat. Ces prévisions permettront donc d’anticiper le déclenchement des Plans
d’Intervention Exceptionnels. Par ailleurs, les gestionnaires pourront consulter sur le portail extranet
Coventéo les alertes météo et, une fois l’événement survenu, vérifier la vitesse réelle du vent
permettant ainsi de faciliter l’appréciation des garanties.

Figure 62 : Méthodologie adaptée à la modélisation tempête, Source : Groupe COVEA

Aléa : Le modèle d’interpolation des vents extrême Coventéo, afin de reconstituer l’écoulement
des vents à l’échelle nationale, prend en compte les variables d’occupation des sols, de rugosité,
de relief pour chacun des codes postaux, ainsi que des variables météorologiques liées au facteur
de vent en rafale, à la direction et au comportement des vents en altitude.

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


89
Catalogue d’événements : Le modèle Coventéo cible les événements « classiques » caractérisés
par des dépressions océaniques de type hivernal générant des vents extrêmes, quelque soit
l’intensité des vents ou la trajectoire de l’événement sur le territoire.

Caractéristique du bâti : Afin d’être spécifique au marché français de l’assurance, Coventéo a pris
en compte les spécificités du bâti sur l’ensemble du territoire en procédant par typologie de
bâtiments et par normes de constructions locales. Ces distinctions permettent une modélisation
fine de la sinistralité d’un portefeuille MRH.

Vulnérabilité : La vulnérabilité d’un bâtiment est variable en fonction de son emplacement et de


ses caractéristiques physiques. Afin de prendre en compte ces spécificités, le modèle Coventéo
applique des coefficients d’endommagement pour chacune des classes de vulnérabilité. De plus,
les pratiques de gestion de GMF, MAAF, MMA ont fait l’objet de courbes d’endommagement
spécifiques afin de d’anticiper au mieux les volumes de déclarations attendus dans chacune des
marques.

Figure 63 : Endommagement d’un portefeuille de risques spécifique aux caractéristiques du bâti français.
Source : Coventéo, Groupe COVEA

Résultats : Le modèle Coventéo permet d’évaluer l’exposition d’un portefeuille de risques MRH à
l’échelle d’un code postal et de prévoir, pour chaque type de biens, le nombre de risques faisant
l’objet d’une déclaration. De plus, afin d’organiser ses forces, COVEA AIS pourra estimer la
répartition du volume de dossiers par acteurs de la chaîne d’indemnisation et d’en déduire le
montant global indemnitaire.

Au final, Coventéo a des incidences sur plusieurs entités du groupe.


Il permet aux directions techniques des trois enseignes de calculer précisément les primes
tempêtes et d’enrichir les règles de sélection et de surveillance des différents portefeuilles.
Les directions financières peuvent aussi l’utiliser pour chiffrer la provision nécessaire pour le cout
des tempêtes et estimer les cadences de décaissement.
Quand à la réassurance du groupe, elle pourra estimer rapidement le dû par les réassureurs et
négocier au mieux ses traités.

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


90
En conclusion de ce chapitre, les Systèmes d’Information Géographique sont des outils
puissants permettant de visualiser, explorer, interroger et analyser des données repérées
géographiquement, offrant ainsi aux décideurs un outil d’aide à la décision. Il permet très
rapidement de croiser les données de manière à créer un affichage cartographique de ces
dernières, permettant en plus de l’analyse classique une analyse géographique souvent bien plus
explicite.
Ainsi, les caractéristiques géographiques et non géographiques provenant de données
internes et externes qui composent un portefeuille Dommage peuvent être intégrées
dans une analyse spatiale d’exposition à des aléas climatiques et technologiques.

L’appropriation de ces technologies par des acteurs du marché de l’assurance et de la


réassurance semble en marche.

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


91
Chapitre 3 : Opportunités de développement de modèles internes pour un
assureur

3.1 Apprentissage des SIG dans une compagnie d’assurance

II.3.1.i La problématique de l’introduction des SIG dans les organisations

À l’image de l’abondante littérature relative à l’introduction des TIC dans les organisations, Jérôme
CHEMITTE45 a mis en exergue les facteurs clés de succès pour l’introduction des SIG dans les
organisations publiques et privées a accouché de nombreux éléments.

Dans un effort de synthèse, T. JOLIVEAU46 dépasse la vision du système d’information et privilégie


une approche par les ressources, en invitant à penser le SIG comme l’articulation entre trois
composantes:

• des outils techniques : matériel (hardware et software), réseaux, périphériques, etc. ;


• des compétences humaines regroupant l’ensemble des savoirs nécessaires au
fonctionnement du SIG, de quelque nature qu’ils soient, mais aussi les structures
organisationnelles qui les rendent disponibles et actifs comme l’illustre la mise en place du
programme Coventéo par des équipes internes à un groupe d’assurance ;
• des informations, en l’espèce, les bases de données internes et externes à l’assureur
précédemment citées.

La composante « procédures et méthodes » regroupe toutes les règles, méthodes, pratiques qui
relient et coordonnent l’ensemble de ces composantes pour atteindre les objectifs fixés.

Figure 64 : Système d’Information & organisation. Source : J.CHEMITTE d’après T.JOLIVEAU

De plus, J. CHEMITTE souligne que, bien qu’autonomes dans la nature de leur fonctionnement,
ces composantes sont en interaction, que chacune est vecteur d’innovation (nouvelles
compétences, nouveaux outils techniques et nouvelles données disponibles), mais qu’elles
constituent aussi des contraintes les unes pour les autres.

45
J.CHEMITTE, Adoption des technologies de l’information géographique et gestion des connaissances dans les organisations, 2008
46
T. JOLIVEAU, Géomatique et gestion environnementale du territoire. Recherche sur les usages des SIG. HDR, 2004

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


92
À l’image de tout système d’information, ce sont les capacités à faire fonctionner en synergie les
composantes hétérogènes du système et à les mobiliser pour atteindre les objectifs dévolus qui
sont déterminantes dans la réussite des opérations.

Selon S. ROCHE et B. RAVELEAU47, s’il semble ainsi que les SIG offrent un potentiel pour améliorer
la performance des organisations, encore faut-il réussir leur adoption ce qui implique
inévitablement une volonté et une stratégie organisationnelle visant des changements dans la
dynamique de l’organisation professionnelle.

Outre leur capacité à faciliter la compréhension du territoire, J. CHEMITTE rappelle au travers des
travaux réalisés par C. CARON que les SIG constituent de précieux outils pour apporter de
l’information aux décideurs.

En retraçant plus largement l’évolution du rôle des SIG, J. CHEMITTE insiste plus particulièrement
sur le potentiel de ces systèmes à offrir un avantage concurrentiel stratégique face à des
organisations concurrentes. Ces nouvelles technologies revêtent un avantage stratégique en
permettant à une organisation de se différencier.

Différentes façons de déterminer la valeur d’un SIG se dégagent mais peuvent être regroupées en
deux grands approches distinctes : les approches quantitatives et les approches qualitatives.

Concernant les approches quantitatives, C. CARON48 note qu’il s’agit essentiellement de répondre
à la question : « l’investissement dans un SIG produit-il suffisamment de profits pour en justifier le
coût?».
Elles font appel notamment aux méthodes d’évaluation d’un investissement du type ratio
coûts/bénéfices, valeur actualisée nette (VAN) ou encore du type de taux de rendement.
J. CHEMITTE en dresse un inventaire détaillé, soulignant toutefois que de nombreux paramètres
ne peuvent être évalués monétairement.

Cette difficulté est encore plus caractéristique des approches qualitatives. Tout en justifiant
l’intérêt de dissocier la valeur de l’outil (le SIG) de celle du résultat produit (l’information
géographique), elles se trouvent cependant confrontées à l’évaluation de la valeur sociale d’usage
de l’information.

En effet, J. CHEMITTE considère que la valeur symbolique de l’information créée reste sans valeur
tant qu’elle ne s’inscrit pas dans la réalité physique d’un service. Autrement dit il faudrait pouvoir
évaluer:

• l’intensité de l’avantage que le SIG peut procurer à l’utilisateur ;


• la durée de cet avantage ;
• le nombre de personnes aux besoins desquelles peut pourvoir le SIG.

Selon ces facteurs, la valeur sociale d’usage serait donc plus élevée pour les biens de première
nécessité et c’est cette caractéristique qui relie indissociablement les concepts de rôle et de
valeur des SIG.

47
S.ROCHE et B.RAVELEAU, Aspects organisationnels des SIG, Lavoisier 2004
48
C. CARON, Cadre descriptif des projets d’implantations de technologies géomatiques dans les organisations, CGR, Université de
Laval, 1996

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


93
II.3.1.ii Schéma d’apprentissage des SIG par les assureurs

Le rôle de l’organisation dans le processus de création de connaissances organisationnelles est de


fournir le contexte adéquat pour faciliter les activités de groupe autant que la création et
l’accumulation de connaissances au niveau individuel.

Pour J. CHEMITTE49, ce processus de management place les cadres intermédiaires au centre du


management des connaissances, les positionnant à l’intersection des flux verticaux et horizontaux
d’informations dans l’entreprise. Ils sont, d’après l’auteur, la clé de l’innovation continue.

Sur la base de ce schéma, le rôle principal des cadres intermédiaires dans le management milieu-
haut-bas est d’offrir à leurs collaborateurs un cadre conceptuel qui les aide à donner un sens à
leur propre expérience. Dans le schéma milieu-haut-bas, la direction générale crée une vision
tandis que les cadres intermédiaires développent les concepts concrets que les services
opérationnels peuvent comprendre et mettre en œuvre.

Le rôle de la direction est donc de créer une théorie générale alors que les cadres intermédiaires
tentent de créer une théorie intermédiaire qu’ils peuvent tester empiriquement dans l’entreprise
avec l’aide des opérationnels. Ainsi, le but de l'organisation n'est pas seulement d'accroître la
performance de l'entreprise au niveau de sa capacité d'innovation, mais également de la doter
des moyens d'apprentissage qui lui permette de s'améliorer sans cesse.

Pour ce faire, l'organisation comporte une troisième structure ou "couche" qui est sa base de
connaissances.

Cette couche comporte la masse des connaissances créées et accumulées par l'entreprise: sa
culture, ses technologies, ses bases de données etc. C'est en fait la "mémoire" de l'organisation
qui est gérée, de sorte à rendre ces connaissances disponibles à tous les collaborateurs.

Enfin, en forme de synthèse opérationnelle, J. CHEMITTE présente les lignes directrices qu'un
praticien peut suivre pour mettre en œuvre un programme de création de connaissances
organisationnelles au sein d'une entreprise.

L’introduction de technologies telles que les SIG fait des sociétés d’assurances des organisations
apprenantes.
J.L. ERMINE 50 définit les contours de l’organisation apprenante par la capacité à générer
l’explicitation des connaissances tacites, à définir et modifier un modèle de connaissances clés, à
construire un schéma d’orientation, à piloter des communautés de savoirs, à mettre en œuvre
des techniques « support ».

Pour initier le développement de l’organisation apprenante, J. CHEMITTE plaide en faveur du


volontarisme managérial. L’apprentissage, dans sa démarche continue de résolution de
problèmes, s’alimente par des leviers tels que la formation, l’animation d’équipe projet, de
groupe métiers ou encore l’invitation d’experts.

Toutefois, on observe de nombreux freins à de telles pratiques, parmi lesquelles :


• la décentralisation tout comme l’externalisation qui créent des obstacles aux
transversalités, dans le premier cas en éloignant les agents organisationnels les uns des
autres, dans le second, en supprimant le lien organisationnel pour ne laisser subsister
qu’un lien contractuel ;

49
J.CHEMITTE, Adoption des technologies de l’information géographique et gestion des connaissances dans les organisations, 2008
50
J.L. ERMINE, La gestion des connaissances, Hermès-Lavoisier, 2003

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


94
• les politiques radicales de réduction des coûts. La primauté accordée à la pression du
court terme et la visibilité immédiate de la diminution des coûts conduisent à plutôt
suivre le rythme des événements que d’essayer de les comprendre.

3.2 Opportunités pour un assureur de disposer de modèles internes/outils


II.3.2.i Challenger les modèles de marché & apprentissage de la gestion des risques

L’objet est ici de souligner l’intérêt qu’à une société d’assurances à développer ses propres
solutions. L’organisation apprenante comme décrite précédemment se met en mouvement afin
d’être en capacité à générer l’explicitation des connaissances mobilisées et ainsi d’améliorer sa
connaissance de son exposition aux risques.

Les modèles de risques sur lesquels reposent l’appréciation d’expositions de portefeuilles par
branches ne correspondent pas suffisamment à la réalité. Les surprises sont fréquentes : les
tempêtes hivernales Lothar et Martin de décembre 1999, les attentats terroristes du 11
septembre 2001 ou encore les crues du Rhône en 2003 en sont des exemples.

Les prévisions liées à la nature et à l’ampleur de la perte de marché se sont révélées inexactes
pour chacun de ces cas. S’agissant de modèles de risques, la prudence reste donc de rigueur,
même si leur validité est vérifiée régulièrement et s’ils sont remaniés en fonction de chaque
« surprise ».

En fin de compte, la maîtrise de données tangibles et l’appréciation des résultats par un regard
critique restent le seul moyen de contrôle véritable.
Sans données tangibles, les concepteurs de modèles doivent travailler sur celles livrées par de
grands réassureurs comme Munich Re ou Swiss Re. Ces derniers ne publient le plus souvent que
le montant global des pertes assurés pour chaque sinistre, sans fournir de détails, comme les
chiffres par pays, par région, par commune. Les évaluations permettant d’établir les modèles les
plus courants pour les risques majeurs se basent sur des données générales et imprécises.

Comme nous l’avons abordé au début de cette seconde partie, les modèles de marché
d’évaluation de sinistres sont l’exposition de portefeuilles. Mais comment décider de l’achat
d’une couverture de réassurance si un modèle indique un besoin en couverture de 50 M€ pour
faire face à un sinistre dont la période de récurrence est de deux cents ans alors qu’un autre
modèle évalue la même risque à 100 M€ ?
De telles divergences ne sont pas rares, tant sur le marché français que le marché européen.

L’intérêt pour un acteur du marché comme une cédante est de développer son propre modèle à
partir des données qui lui sont propres et palier ainsi à l’approche globale et approximative des
modèles de marché.

Dans le schéma de l’organisation apprenante décrite précédemment, l’élaboration d’un modèle


oblige les équipes en charge de sa conception à mieux appréhender les phénomènes climatiques
et techniques, mais également à porter une analyse précise sur ses risques par branches après
une étude poussée de sa sinistralité. Ainsi, un modèle interne mettra mieux en exergue la
vulnérabilité d’un type de bâti, ou de la moindre exposition d’une typologie d’occupant en
fonction de l’application de conventions propres au marché que les modèles mathématiques
mondiaux des principales agences de modélisation.
De même, les centaines de modélisation sur la base d’événement du passé affutent le regard des
modélisateurs et les rendent à même de porter des ordres de grandeur sur des intensités de

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


95
phénomènes. Ceci relève de l’acquisition de connaissances par les collaborateurs impliqués par
ces travaux.

Emmanuel DUBREUIL et Eric PAIRE51, lors d’une journée consacrée au rôle de la réassurance dans
le calcul du SCR Cat, ont démontré les divergences de résultats entre chaque modèle avec les
mêmes profils ; la charge sinistre pour l’événement 200al est extraite à l’échelle de la CRESTA
pour EQE, RMS et QIS5.

Figure 65 : Comparaison des taux de destructions entre les modèles de marché


et le modèle standard QIS 5. Source : Emmanuel DUBREUIL, Institut des actuaires, 2011)

Sur l’utilisation de modèles CAT : Préconisation de l’EIOPA : modèle interne partiel

Les estimations des modèles sur les dommages aux bâtiments, en pourcentage de sommes
assurées pour une vitesse de vent donnée, peuvent être testées avec des données tangibles
issues de l’expérience de l’assureur. Avec le temps, les modèles élaborés pour ce type
d’événements devraient fournir une évaluation plus précise et plus substantielle de l’exposition
aux risques puisqu’ils reposent sur des données tangibles. Ceci serait à l’avantage de tous les
acteurs du marché et conforme à l’esprit de la directive Solvabilité 2 en matière de transparence
entre les fonds propres et les risques encourus.

La modélisation interne est donc un premier pas vers le modèle interne préconisé par le
régulateur.

Les modèles Cat utilisés en réassurance ont donc un impact sur le capital requis.

L’utilisation de modèles revêt ainsi une importance complémentaire à l’exploitation traditionnelle


faite par la réassurance :

51
Conférence sur le rôle de la réassurance dans le calcul du SCR Cat Journées IARD de l’Institut des Actuaires, 31 Mars 2011

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


96
 Le risque de catastrophe est un facteur clé pour le besoin en capital en vertu de Solvabilité II, et
donc les courtiers et modélisateurs doivent aider les assureurs à tirer le meilleur parti des diverses
exigences : hypothèses, modèles, réglementation, situation de marché…

 Il devient presque indispensable de se doter d’un modèle interne partiel en la matière, afin de
déterminer une charge de capital dédiée au risque Cat la plus appropriée.

Figure 66 : Comparaison des montants simulés pour un événement 200al simulé par chacun des
3 modèles de marché et pour le QIS 5, en milliards €. Source : Emmanuel DUBREUIL,
Institut des actuaires, 2011

Cette nécessité de maîtrise de l’incertitude se retrouve dans la liberté de choix accordée aux
sociétés par la future directive Solvabilité II, offrant la possibilité de se référer à un standard du
marché ou de développer un modèle interne.
Cette perspective rejoint l’intérêt de construire en interne son propre outil d’évaluation, ce que
certaines sociétés ont d’ores et déjà entrepris.

Cette démarche semble s’inscrire dans une démarche plus globale de Risk management,
l’Entreprise Risk management (ERM) vu précédemment, ou gestion globale et intégrée du risque,
de plus en plus plébiscitée par les sociétés, leurs actionnaires, les agences de notation et les
marchés financiers.

Ce processus systématique d’identification des risques, de quantification de leurs impacts et


d’implémentation de stratégies intégrées semblerait pouvoir justifier l’acquisition de
connaissances, compétences et savoir-faire nouveaux…

II.3.2.ii Une initiative commune : la société PERILS

A défaut d’un apprentissage en interne des SIG par une équipe dédiée, il est important de citer
l’existence de la société PERILS AG visant à améliorer la connaissance des événements climatiques
majeurs et plus largement des catastrophes naturelles en Europe

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


97
Cette société a été créée le 17 février 2009 par des assureurs ALLIANZ, AXA, GROUPAMA, le
courtier en réassurance GUY CARPENTER et les réassureurs MUNICH RE, PARTNER RE, SWISS RE et
ZURICH RE.

PERILS vise ainsi à collecter, agréger et distribuer les données d’assurance catastrophes naturelles
en Europe. La collecte des données auprès des compagnies s’inscrit sur la base du volontariat.

Cette société fournit à ses clients deux principaux produits, destinés à devenir à terme des
indicateurs clés du marché de l’assurance de catastrophes naturelles :
- Données d’exposition « marché » (sommes assurées) segmentées par type de péril et par zone
CRESTA. Ces données seront fournies sur une base annuelle.
- Estimations de pertes « marché » causées par des événements naturels majeurs.
Ces pertes seront également segmentées par type de péril et zone CRESTA.

Ces deux produits doivent permettre aux clients de PERILS de mieux appréhender les
caractéristiques de fréquence et d’intensité des catastrophes naturelles, facilitant ainsi la gestion
et la souscription du risque de catastrophes naturelles. De façon générale, la superposition d’un
portefeuille d’exposition « marché » consolidé et d’une information de pertes par événement
devrait se traduire par une amélioration de la modélisation du risque de catastrophes naturelles.

Une évaluation plus transparente des pertes « marché » devrait également permettre de fiabiliser
les indices de déclenchement de couverture de type « Cat Bond », « Industry Loss Warranties »
(ILWs) ou d’autres produits financiers visant à couvrir les conséquences des catastrophes
naturelles.

Bien évidemment, le succès de PERILS dépend de la mise à disposition volontaire de données


d’exposition et de pertes par le plus grand nombre d’acteurs du marché de l’assurance.

En outre, les données qui seront restituées par PERILS concerneront essentiellement des
événements climatiques ou naturels de grande ampleur, ce qui s’inscrit davantage dans une
analyse de l’exposition aux cumuls de risques et une maîtrise des cessions aux réassureurs, que
dans une optique d’ajustement de la tarification ou de modification ciblée des règles de
souscription.

Cette limite est importante à souligner car l’externalisation de ces travaux prive la cédante de
l’acquisition de savoir-faire qui pourraient à terme déboucher sur l’objet de notre propos :
l’Entreprise Risk Management ou la gestion intégrée et transversale des risques d’une société
d’assurance non-vie.

Néanmoins, il sera intéressant d’observer que sur la base des Systèmes d’Information
Géographiques, dans les années à venir, les estimations de pertes fournies par PERILS faciliteront
l’accès, pour les assureurs et réassureurs, à une capacité additionnelle de couverture contre les
événements naturels extrêmes en Europe.

Comme nous l’évoquions au début de nos propos (I.2.3.ii), il est ainsi aujourd’hui possible de se
couvrir contre la tempête, au niveau français comme européen, par une couverture sur base
d’indice PERILS (couverture privée, Cat Bond).

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


98
Figure 67 : Modélisation a posteriori de Xynthia. Emmanuel DUBREUIL, Guy Carpenter 2011

En effet, le “Consultation Paper52 » du CEIOPS comporte l’indication suivante sur les transactions
indicielles (comme une couverture sur base PERILS) :
“For risk mitigation techniques where payout is linked to an index, no allowance shall be made
unless the undertaking can demonstrate that the basis risk is not material compared to the
mitigation effect. If allowance is made, it should allow for basis risk commensurate with the
99.5th percentile level”

La quantification du risque de base n’est pas seulement indispensable pour la définition de la


structure. Dans l’environnement Solvabilité II, les assureurs devront justifier avec l’aide de leurs
conseils de l’évaluation du risque de base et démontrer l’efficacité de la transaction.

Figure 68 : Couverture de réassurance sur base PERILS, Source : Guy Carpenter

52
CEIOPS, CP 52: Draft L2 Advice on SCR Standard Formula – Reinsurance mitigation

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


99
3.3 Limites et perspectives à l’élaboration de modèles et d’outils

II.3.3.i Difficultés techniques de modélisation de l’exposition d’un risque

Comme cela a été évoqué, la survenance d’événements majeurs a exacerbé les lacunes des
modèles de catastrophe présentés précédemment. Ces outils « presse bouton », souvent qualifiés
de « boîte noire », sont de plus en plus remis en question par leurs utilisateurs.

Les principales critiques qui ont été émises sont:


• leur complexité et une certaine opacité dans leur fonctionnement ;
• les difficultés d’interprétation des résultats ;
• les différences significatives entre modèles, que ce soit sur un même portefeuille, à
scénarios identiques ;

Pour expliquer ces critiques, plusieurs raisons ont été avancées par J.CHEMITTE:

• les données d’assurance requises sont parfois difficiles à mobiliser. Ce peut être le cas
lorsque le modèle nécessite des données géoréférencées en (x ; y) alors que les assureurs
et réassureurs ne disposent bien souvent que des données agrégées à l’échelle d’une
zone administrative (au mieux la commune), ce qui réduit d’autant plus la précision des
résultats ;
• le temps nécessaire pour la modélisation ;
• leur incapacité à combiner les événements. Par exemple les effets du vent et l’inondation
lors de XYNTHIA ;
• leur non concordance avec les données produites par les pouvoirs publics ;
• etc.

Entachées de nombreuses incertitudes, il apparaît nécessaire que l’utilisateur puisse les apprécier
et les corriger à chaque étape du processus de modélisation, en fonction de ses besoins et à partir
de ses propres données.
Nous avons vu que les systèmes d’Informations Géographiques permettent une prise en main des
outils et des modèles par les équipes. La société d’assurances peut ainsi bénéficier de la création
de connaissances (II.3.1.ii).

L’apprentissage issu du développement de modèles et outils internes procure un avantage


concurrentiel certain par rapport aux acteurs exploitant des solutions de marché lorsque celles-ci
existent (II.1.2.ii).

L’exemple le plus emblématique est celui des fonctions de vulnérabilité ou de dommages


permettant d’estimer les dommages potentiels en fonction des paramètres physiques de l’aléa,
principalement la hauteur d’eau dans le cas de l’inondation. La figure ci-dessous donne une
représentation schématique de deux fonctions, l’une pour le bâtiment et l’autre pour son contenu.
La distribution de probabilité indique l’incertitude pour chacune d’elle.

Ainsi :

• Une segmentation très fine par type d’enjeux (différentes catégories de logements et de leurs
contenus, différentes catégories d’entreprises et de leurs équipements, etc.) ou par type de
risques (dommages directs, indirects du type pertes d’exploitation, etc.) est nécessaire lorsque
l’on bâtit les hypothèses d’un modèle. Cette segmentation est rendue possible par une étude fine

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


100
d’un portefeuille spécifique et une connaissance intrinsèque de son portefeuille et de ses contrats
que seul le service interne d’une société d’assurance peut apporter.

• La transposition d’un modèle ou outil d’un marché à l’autre peut poser question : les
constructions britanniques n’obéissent pas aux mêmes règles que les constructions françaises, les
pertes d’exploitation d’une certaine catégorie d’activités dépendent de son ancrage dans le tissu
économique plus ou moins local, etc. Les modèles globaux ne présentent pas le même niveau de
finesse qu’un outil développé avec les connaissances des normes techniques, notamment par la
mobilisation d’experts bâtiment.

• Des critères ou hypothèses peuvent être remis en cause et porter atteinte à la crédibilité du
modèle. Un utilisateur qui ne serait pas familier des problématiques de géocodage risque de
passer à côté d’hypothèses importantes qui feront la crédibilité ou non du modèle exploité.

Figure 69 : Représentation schématique d’une fonction de vulnérabilité d’un bâtiment (Source :


J.CHEMITTE d’après les travaux de J. TOOTHILL)

L’apprentissage résulte d’un regard critique sur les données utilisées, les hypothèses prises en
compte et doit permettre d’apporter un regard plus critique sur le résultat d’une modélisation ou
l’exploitation d’une information à des fins opérationnelles.

A ces incertitudes et limites et face aux avantages que procure le développement interne par un
assureur, il convient aussi d’exposer les perspectives qui s’offrent aux assureurs en matière de
données et de connaissance des risques et qui faciliteront sa compréhension de l’exposition des
ses risques.

• Intérêt de la Directive Européenne Inondation

Le Parlement et le Conseil Européen, sensibilisés à ce risque majeur avaient déjà adopté la


directive Inondation le 23 octobre 2007, publiée au Journal Officiel le 06 novembre 2007. La
tempête Xynthia a accéléré sa transposition en droit français qui a été effective par un décret
paru le 2 mars 2011.

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


101
L’objectif principal est d’établir un cadre légal pour une meilleure prévention et évaluation des
risques inondation dans les zones les plus exposées, afin de réduire les conséquences néfastes
pour la santé, le patrimoine culturel, les biens et les infrastructures.

La plupart des bassins hydrographiques étant partagés entre plusieurs pays, une concertation au
niveau communautaire a été menée pour renforcer la coordination entre les Etats membres.

Cette directive s’inscrit donc dans la continuité d’un processus en cours et constitue une
opportunité pour faire progresser la gestion de ces risques en tenant notamment compte des
effets du changement climatique.

Cette directive s’articule autour de trois volets :

- Le premier volet traite de l’évaluation des risques. Les préfets ont l’obligation d’établir une carte
des bassins hydrographiques et des zones côtières et un document faisant le bilan des
inondations passées ayant eu des impacts négatifs sur l’environnement ou les populations.

- Le second volet qui consiste à établir une cartographie précise des inondations en retenant les
cartes des zones inondables et les cartes des risques d’inondation qui devront être achevées au
22/12/2013.

Les cartes des zones inondables couvrent les zones géographiques susceptibles d’être inondées
en distinguant 3 scénarii :

• Un aléa de faible probabilité, soit un scénario d’événements extrêmes


• Un aléa de moyenne probabilité, soit une période de retour probable inférieure ou égale
à 100 ans
• Un aléa de forte probabilité

Pour chaque scénario, les cartes devront faire apparaître :

• l’étendue de l’inondation
• les hauteurs d’eau ou le niveau d’eau, selon le cas
• le cas échéant, la vitesse du courant ou le débit de crue correspondant

Les cartes des risques d’inondation montrent les conséquences négatives potentielles associées
aux inondations selon les scénarii en retenant deux critères principaux :

• le nombre indicatif d’habitants potentiellement touchés


• les infrastructures économiques

- Le dernier volet consiste à réaliser des plans de gestion des risques inondations.

Cette directive permet de traiter plus efficacement les risques d’inondation par submersion
marine et ceux liés au ruissellement causant des dommages importants en milieu urbain.

Par ailleurs, l’Etat souhaite par l’intermédiaire de cette directive concentrer les efforts sur les
zones à risques afin d’y renforcer l’action publique.

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


102
L’Union Européenne a demandé à ses états membres d’identifier les zones à risques et d’établir
des plans de gestion avant 2013.

On peut constater que l’État français est très en retard dans ce travail du fait d’un manque de
coordination évident entre les différents acteurs. Les assureurs n’ont pas été très sollicités même
s’ils sont principalement concernés par la gestion des sinistres consécutifs à une inondation et
malgré le fait qu’ils disposent de modèles et d’outils fiables.

Cette directive présente donc un intérêt non négligeable pour les assureurs bien que les dernières
inondations ont marqué les esprits et ont concentré les recherches sur le risque de submersion
marine, sans tenir compte d’autres priorités essentielles, comme par exemple l’augmentation des
sinistres inondations.

Ils ont en effet pris conscience que la fréquence d’une inondation risquait d’être cent fois plus
importante que celle d’un incendie. Ils ont ainsi alerté les pouvoirs publics sur le fait que « la
prime inondation devrait augmenter de 25 à 50% d’ici 15 ans ».

• Directive INSPIRE

La directive INSPIRE, approuvée par le Conseil des ministres de l'Union européenne et par le
Parlement européen puis publiée au Journal officiel des Communautés européennes (JOCE) le
25 avril 2007, est entrée en vigueur le 15 mai 2007. Elle vise à favoriser l'échange des données au
sein de la Communauté européenne dans le domaine de l'environnement pris dans un sens large.

Cette première étape de la publication se poursuit maintenant par deux autres :

• la transposition dans les droits nationaux du texte de l'Union


• la définition au niveau européen de règles de mises en œuvre, qui seront ensuite
directement applicables dans tous les pays de l'Union européenne.

La directive s'articule en trois parties complémentaires : les obligations créées, les données
concernées, les acteurs impliqués.

Elle crée plusieurs obligations :

1. la fourniture des données selon des règles de mise en œuvre communes,


2. la constitution de catalogues de données (métadonnées),
3. l'application de règles d'interopérabilité,
4. l'accès gratuit aux métadonnées,
5. l'accès aux données pour les acteurs réalisant une mission rentrant dans le cadre
d'INSPIRE,
6. les services pour permettre ces accès,
7. l'existence d'une organisation adaptée pour s'assurer de la bonne mise en œuvre de la
directive.

La directive regroupe ces obligations sous le vocable de « Infrastructure de données


géographiques ».

L'ensemble de ces obligations s'appuie en principe sur les normes et standards internationaux, et
du point de vue opérationnel sur les règles de mise en œuvre en cours d'élaboration sous l'égide
de la Commission européenne. Ces règles deviennent peu à peu des règlements européens, qui

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


103
s'imposent directement, et sur des guides techniques, sans valeur règlementaire mais qui
fournissent des explications et des exemples de bonnes pratiques.

INSPIRE s'applique à 34 domaines thématiques, se décomposant en trois groupes principaux :

• les données nécessaires au repérage sur le territoire, telles que systèmes de coordonnées,
unités administratives, réseaux de transport, hydrographie, parcellaire cadastral, adresses
et noms de lieux ainsi que des données relatives aux sites protégés. Cet ensemble
constitue l'annexe 1 de la directive.
• les données générales complémentaires, telles que l'altimétrie, l'occupation des terres, la
géologie et l'ortho-imagerie. Ces données constituent l'annexe 2.
• les données thématiques telles que bâtiments, vocation des sols, santé et sécurité des
personnes, services d'utilité publique et services publics, données sur l'environnement
(nombreuses et variées), installations industrielles, agricoles, démographie, périmètres de
réglementation, données météorologiques, données maritimes, sources d'énergie et
ressources minérales. Ces données constituent l'annexe 3.

La fourniture, et si nécessaire la production des métadonnées des thèmes des annexes 1 et 2


terminée en 2010, la fourniture des données ont commencé en 2011 et mobilisera les services
pendant plusieurs années.

INSPIRE n'oblige pas à produire de nouvelles données ni à numériser des données actuellement
sous forme papier. La Directive et ses règles de mise en œuvre ne s'appliquent qu'aux données
numériques et publiques existantes.

INSPIRE ne crée pas d'obligations pour les Etats membres de combler des lacunes dans tel ou tel
domaine thématique. Ceci pourrait, dans les années à venir être partiellement réalisé par des
programmes européens tels GMES ('Global Monitoring for Environment and Security', soit
'Observation Mondiale pour l'Environnement et la Sécurité") ou SEIS ('Shared Environmental
Information Service', soit 'Système Partagé d'Informations Environnementales'). Ces deux
programmes sont en cours de développement (voir liens externes).

L'application de la directive INSPIRE constitue une étape importante pour les acteurs concernés.
Ceux-ci se sont certes déjà appropriés les technologies de l'information géographique numérique,
mais l'intégration de ces données dans leurs systèmes d'information et la mise à disposition de
données, tant pour le grand public que pour les autres services publics, sont encore, sauf
exception, peu développées et peu mutualisées.

Le changement à conduire portera dans trois directions :

• Améliorer l'information sur les données produites, en fournissant des métadonnées de


façon systématique et en respectant les dispositions résultant des règles de mise en
œuvre dont l'élaboration a commencé,
• Faciliter les échanges de données entre acteurs : l'information géographique numérique
ne prend sa véritable dimension que lorsqu'elle est échangée, partagée et enrichie par ses
divers utilisateurs. Cette étape de mutualisation est ainsi une véritable source
d'économies,
• Moderniser les méthodes de travail et rénover les missions des services, en développant
de façon significative l'utilisation de données numériques de qualité dans leurs activités
quotidiennes.

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


104
INSPIRE est un développement de la plus haute importance pour permettre l'accès aux
informations environnementales et le co-traitement d'informations de sources publiques
multiples et de thèmes différents à l'aide de logiciels SIG. Il s'agit là d'une nécessité pour
permettre une meilleure connaissance et une meilleure gestion des multiples facettes de notre
environnement. INSPIRE fournit les mécanismes permettant une meilleure utilisation de
l'information géographique publique pour le développement des politiques à tous les niveaux et
la décision d'entreprise.

INSPIRE constitue une opportunité pour permettre aux organismes d'utiliser davantage les
informations géographiques numériques, et notamment aux assureurs qui font le choix de
développer des outils internes. Ces données devraient contribuer à l’enrichissement des analyses
de risques.

II.3.3.ii Les incertitudes inhérentes aux modèles doivent être compensées par une intégration
du modèle au système d’information de la société d’assurance

Les souscripteurs et les actuaires impliqués dans la souscription des traités Catastrophe ont
longtemps tarifé les risques sur la base de modèles statistiques, c’est-à-dire fondés sur la
sinistralité historique. Or comme nous l’avons vu, ces modèles, bien qu’extrêmement utiles en
tant que modèles de référence, n’offrent pas la fiabilité voulue pour permettre une évaluation
précise du risque de catastrophe, une des raisons étant le manque de données statistiques
concernant les événements historiques.

Même en disposant de plus de cinquante ans de statistiques de sinistres détaillées pour tout un
marché, comme les États-Unis, on n’obtient plus de résultats fiables une fois qu’ils sont extrapolés
sur une période de récurrence de 100 ou 250 ans, souvent nécessaire pour les couvertures
Catastrophe Non Proportionnel.

D’autres facteurs viennent encore compliquer l’indexation des sinistres historiques, comme
l’évolution du code de la construction, les changements dans les pratiques d’assurance, la densité
démographique et la concentration des valeurs. Le champ d’application du modèle statistique ne
dépasse généralement pas la palette d’événements représentée dans l’échantillon statistique ;
une extrapolation visant à déterminer les scénarios du pire est alors problématique.

Les modèles Catastrophe probabilistes extrapolent, au contraire, les données historiques en


simulant des milliers d’événements pour former un échantillon complet représentant toutes les
intensités et tous les lieux géographiques possibles pour un portefeuille donné ; ils utilisent les
sciences naturelles pour mieux circonscrire les événements possibles. En outre, ils analysent les
portefeuilles en terme de vulnérabilité des bâtiments et de distribution géographique, peuvent
intégrer des caractéristiques secondaires (par exemple, l’utilisation de volets de protection contre
les ouragans) et sont capables de modéliser directement les caractéristiques de la police
d’assurance, comme les limites et les franchises.

Il y a malgré tout encore bien des régions et des périls qui pourraient représenter une
composante importante dans de nombreux programmes, mais pour lesquels on ne trouve aucun
modèle Cat sur le marché. Dans ce cas, la tarification doit s’appuyer sur des méthodes statistiques.

L’autre problème lié à l’emploi des modèles réside dans leur séduisante précision, notamment
quand l’utilisateur adopte un seul modèle, ce qui lui permet d’obtenir une réponse « exacte ». Or,
les professionnels le savent, en comparant plusieurs modèles, on obtient, notamment pour
l’événement centennal ou survenant tous les 250 ans, des écarts considérables, parfois même des

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


105
facteurs de plus une ou deux fois, qui révèlent les incertitudes inhérentes aux processus et aux
techniques de modélisation. En fait, chaque modèle est le produit d’une tentative « idéale » pour
évaluer le risque. Or, si les experts compétents et bien documentés qui conçoivent les modèles
produisent des instruments aux résultats divergents, alors nous devrions nous méfier et conserver,
par rapport à cette incertitude, une réserve salutaire.

La prime pure applicable à un risque donné peut varier de façon substantielle d’un modèle à
l’autre. Malgré cela, bien des utilisateurs demeurent tentés de faire confiance à des modèles
experts successifs, en particulier parce que cette solution peut paraître plus économique, moins
confuse et par conséquent plus facile à présenter à leur Direction. Une situation typique se
dessine alors sur le marché : l’optique d’un modèle, généralement perçue comme supérieure,
devient prédominante et les autres modèles en vente adoptent des points de vue largement
convergents.

Figure 70 : Comparaison des primes de risque pure pour un péril donné proposé par 3 modèles de marché.
Source : Partner Ré

Cette évolution débouche sur une réduction, en apparence, de l’incertitude, si bien que même les
résultats de modèles multiples bien équilibrés perdent de leur valeur.

Les utilisateurs ne réalisent qu’ils ont accordé une trop grande confiance au modèle dominant
que lorsqu’une nouvelle version de ce modèle vient contredire ses résultats ou que la sinistralité
démontre qu’il a tort. Plusieurs réassureurs ont sciemment évité cette perspective simplifiée de la
modélisation, en choisissant des stratégies qui s’appuient sur la mise en œuvre de modèles Cat
multiples.

Toutefois, c’est l’étape suivante du processus qui a été la plus difficile et la plus passionnante:
comment, avec quel degré de précision, interpréter les résultats multiples et comment intégrer
ces données dans l’analyse globale du risque catastrophe ?

Il appartient aux souscripteurs de prendre du recul par rapport aux résultats du modèle
Catastrophe, en s’appuyant sur leur propre expérience pour éclairer, voire expliquer, l’écart entre
la sinistralité observée sur le marché et le point de vue du modèle pour un portefeuille client.

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


106
Les sources de ces divergences peuvent être de deux ordres :
• les données relatives à l’exposition, qui consistent souvent en des millions d’entrées ;
• des limitations plus directes du modèle, induites par les hypothèses concernant l’aléa, les
modèles de vulnérabilité ou les méthodologies employées dans la simulation de l’aléa.

Vu la complexité de la modélisation et la pléthore d’informations, cette évaluation représente une


tâche délicate pour une entreprise. La maîtrise de la modélisation est donc déterminante. Il
semble ainsi nécessaire que les souscripteurs et gestionnaires de portefeuilles Cat soient épaulés
par une équipe de chercheurs. Cette équipe de recherche s’implique encore davantage dans le
processus en développant ses propres modèles Catastrophe, en coopération avec des experts
scientifiques externes.

Les souscripteurs en retirent un double bénéfice : ils peuvent obtenir des conseils sur la façon
d’exploiter les données des modèles commerciaux et ils disposent des résultats fournis par
l’ensemble de modèles Cat, qui constituent une perspective modélisée supplémentaire,
parfaitement comprise, du risque.

Les souscripteurs doivent être en mesure de conseiller leurs clients en se basant sur un point de
vue tout à fait unique, d’identifier de possibles distorsions dans la tarification usuelle du marché
et de souscrire plus résolument des affaires sur des marchés pour lesquels il n’existe pas de
modèle commercial crédible.

Enfin, l’équipe de recherche dédiée peut aider les souscripteurs à maîtriser le problème de la
pléthore d’informations en développant des instruments pour analyser la qualité des données et
pour résumer les résultats fournis par les modèles en les présentant sous une forme plus digeste.
Ainsi, ce support nous permet de faire le lien entre les idées développées précédemment : la
gestion des connaissances de l’entreprise et le développement d’un savoir faire par
l’apprentissage de modélisation faite par des équipes internes.

Conclusion : les modèles et outils doivent être intégrés à l’ensemble des métiers d’une société
d’assurances afin de gagner en partage, recul et expérience de chaque entité.

Dans notre exemple, la souscription et la modélisation doivent s’équilibrer. De notre point de vue,
la façon la plus sûre et la plus défendable d’analyser les risques catastrophe consiste en une
approche combinée, dans laquelle la modélisation et la souscription, étroitement associées, se
testent et se contrebalancent mutuellement. Le juste équilibre entre ces deux disciplines est
extrêmement important mais pas facile à obtenir. Si la balance penche trop d’un côté ou de
l’autre, une approche risque de présenter certains déséquilibres. Ainsi, si c’est l’approche
purement modélisée qui l’emporte, on risque de perdre la valeur du savoir-faire et de l’intuition
dans la souscription.

Les conséquences peuvent se manifester au plan des données : une incapacité à identifier le
manque d’informations sur certaines expositions, mais, plus fréquemment, une trop grande
confiance dans des résultats modélisés décalés par rapport à la sinistralité du client ou du marché.
À l’inverse, en s’appuyant trop sur ses compétences et son expérience de souscripteur, on risque
de soumettre la souscription à une analyse moins sophistiquée du risque et de lui faire subir des
distorsions subjectives.

Nous revenons au constat fait lors de notre première partie : en accord avec le pilier 2 de la
directive Solvabilité 2, la gestion des risques doit être holiste, et donc transversale à l’ensemble
des métiers d’une société d’assurances.

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


107
Conclusion des parties 1 & 2
Ces parties ont présenté les éléments de contexte permettant de mieux comprendre les enjeux
de l’assurance face aux risques majeurs et les 1ères réponses qui ont été apportées.

Les assureurs, encadrés par les piliers 1 et 2 de la directive Solvabilité II, vont devoir s’approprier
les méthodes d’analyse et mettre en place des outils pour gérer leurs expositions aux risques
majeurs.

Les souscripteurs et les actuaires impliqués dans la souscription et le transfert des risques en
réassurance ont longtemps tarifé les risques sur la base de modèles statistiques, c’est-à-dire
fondés sur la sinistralité historique de leurs données internes. Or ces modèles, bien
qu’extrêmement utiles en tant que modèles de référence, n’offrent pas la fiabilité voulue pour
permettre une évaluation précise du risque de catastrophe, la raison principale étant le manque
de données statistiques concernant les événements historiques.

La vulnérabilité a été présentée comme la confrontation des données sur les enjeux avec des
données sur les aléas. Il a été montré que l’exposition d’un portefeuille résulte de la spatialité de
l’aléa qui introduit une dimension géographique et exogène au risque assuré.

D’autres facteurs viennent encore compliquer l’indexation des sinistres historiques, comme les
normes de construction, les changements dans les pratiques d’assurance (applications de
franchises, pratiques dérogatoires, etc.), la densité démographique et la concentration des
valeurs. Le champ d’application du modèle statistique ne dépasse généralement pas la palette
d’événements représentée dans l’échantillon statistique ; une approche spatiale, géographique
en associant les factures exogènes à un portefeuille de risques sont nécessaires.

Les outils et modèles s’appuyant sur des systèmes d’Information géographiques utilisent les
sciences naturelles pour mieux circonscrire les événements possibles. En outre, ils analysent les
portefeuilles en termes de vulnérabilité des bâtiments et de distribution géographique, peuvent
intégrer des caractéristiques secondaires (âge du bâti, données socioéconomiques) et sont
capables de modéliser directement les caractéristiques du risque et des caractéristiques du
contrat d’assurance auquel il est rattaché.

Les décideurs ont pourtant besoin d’une vision globale et intégrée de la gestion des risques. Les
solutions de marché constituent indéniablement un progrès pour l’ensemble du secteur ; et les
SIG une 1ère réponse pour mieux intégrer le risque assuré dans son environnement.

Les outils SIG disponibles sur le marché français s’orientent vers la souscription des risques au
regard des risques naturels, d’autres vers la modélisation de catastrophes via de la simulation
d’événements majeurs. Toutefois, il n’existe pas d’outils polyvalents et transversaux qui
répondent à l’ensemble des métiers d’une chaîne de production. Les fonctionnalités attendues
résident dans la capacité à intégrer des données géographiques et non géographiques, de croiser
des données ayant des contenus hétérogènes, et disposer de fonctionnalités d’exploration des
indicateurs pour étudier les corrélations.

Les Systèmes d’Information Géographiques (SIG) offrent la possibilité pour un assureur de


développer lui-même ses propres solutions et pouvoir ainsi apporter des réponses sur-mesure
aux besoins spécifiques des entités métiers.

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


108
Le développement d’outils et de modèles internes constitue un apprentissage pour la société
d’assurances, une connaissance des données à exploiter et du recul sur l’interprétation des
résultats, qui augmente sa connaissance de son exposition.

Toutefois, un modèle interne seul doit pouvoir s’apprécier au regard de l’ensemble de l’expertise
présente chez un assureur, des services techniques qui conçoivent et suivent les résultats
techniques de chaque produit, au réseau commercial qui souscrit les risques, en passant par les
experts sinistres qui évaluent et gèrent les sinistres jusqu’au service en charge de la réassurance.

Notre démarche est d’explorer le potentiel d’une technologie émergente dans le secteur de
l’assurance : géodécisionnelle. Cette technologie doit offrir la possibilité d’exploiter l’analyse
spatiale de façon plus intégrée au système décisionnel de l’entreprise d’assurances.

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


109
Partie 3: Le géodécisionnel permet la mise en place d’une véritable
démarche ERM par un management transversal de la gestion des
risques

L’objectif de cette dernière partie est d’introduire l’intérêt que représente l’analyse spatiale d’une
exposition de portefeuille à l’ensemble des métiers concernés par la gestion des risques et d’en
faire un enjeu participatif et plus intégré au processus de décision à tous les niveaux de
l’entreprise.

Chapitre 1 : Partage des connaissances internes : pour une meilleure gestion


plus transversale des risques chez un assureur

1.1 Nécessité d’accroître le rôle de l’Intelligence Economique au sein d’une compagnie


d’assurances

III.1.1.i Enjeux de la maîtrise de l’information dans la maîtrise des risques

A l’heure de la mondialisation des marchés, de l’afflux et de la volatilité de l’information, le rôle


de l’intelligence économique (IE) en entreprise n’est plus à démontrer.

Pour Laurent GUERAUD53, l’IE se définit de différentes manières. Nous retiendrons la définition
première donnée par Harold WILENSKI comme étant une « activité de production de connaissance
servant les buts économiques et stratégiques d'une organisation, recueillie et produite dans un
contexte légal et à partir de sources ouvertes». L’IE représente donc toutes les actions de
recherche, traitement et exploitation de l’information à partir de sources et de moyens légaux
(informations ouvertes). Outre les activités de veille économique, l’intelligence économique
intervient dans la stratégie d’entreprise en participant à l’anticipation et à la maîtrise des risques.

Les enjeux de l’intelligence économique


L’ingénieur qui tenait le haut du pavé à l’issue de la reconstruction de l’après deuxième guerre
mondiale a été remplacé par le gestionnaire, qu’il soit financier ou Risk manager. Les défis à
relever, obsession de l’ingénieur, ont été remplacés par les risques à réduire, obsession des
gestionnaires. Ces risques sont moins mortels qu’auparavant mais financièrement beaucoup plus
coûteux. La bonne connaissance d’un risque passe par l’accès et la maîtrise de l’information.

Maîtrise et analyse de l’information


L’analyse exhaustive des risques d’une entreprise entraîne naturellement la mise en place d’une
veille économique qui s’apparente désormais à de l’intelligence économique. Nous sommes dans
l’ère de l’information qui est à la fois une richesse et un outil de travail. Elle est au service de la
stratégie d’entreprise, en amont pour prévenir les risques et détecter les opportunités, en aval
pour décider des solutions et de la stratégie. L’IE doit aider à veiller à la qualité de l’information et
à sa transparence.

L’IE doit privilégier autant les indicateurs chiffrés que l’analyse des causes profondes du risque.
L’information joue un rôle clé dans le fonctionnement d’une entreprise. Partager l’information est
une richesse d’organisation mais ce partage accroît la vulnérabilité de l’entreprise. Il convient

53
L. GUERAUD, Quel est l’apport d’une gestion des risques d’entreprise chez un réassureur traditionnel européen ?, 2008

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


110
donc de pouvoir maîtriser les TICCC (Technologies de l’information, la communication, la
connaissance et la coopération) au sein d’une entreprise.

Aider à maîtriser les risques


« L’intelligence économique est désormais reconnue comme un outil indispensable aux états et
aux entreprises ayant compris qu’il faut détecter les risques à tous les niveaux de l’activité
économique pour pouvoir anticiper et réagir vite […] L’information est au cœur de la maîtrise des
risques, quels qu’ils soient : technologiques, financiers, juridiques, commerciaux». Ce commentaire
d’Alain JUILLET 54 , haut responsable auprès du premier ministre, chargé de l’intelligence
économique, traduit l’importance de l’intelligence économique dans la gestion des risques et le
développement d’une entreprise.

Un département de gestion des risques doit sans cesse travailler et développer un processus
systématique pour intégrer de nouvelles informations dans ses analyses de risque. L’intelligence
et la veille économique interviennent dans de nombreuses problématiques d’entreprise, dont la
gestion et la maîtrise des risques.

Figure 71 : Les problématiques clés de l’Intelligence économique. Source : L. GUERAUD

L’IE doit participer à la réalisation de trois objectifs d’entreprise : maîtriser, prévenir, optimiser.

• Maîtriser les coûts du risque opérationnel par rapport aux pertes attendues.

• Prévenir les grands sinistres.

• Optimiser le financement de ces risques par les fonds propres adéquats (réforme du
régulateur, « Solvabilité II », etc.).

54
M. BOUCHET, Intelligence économique et gestion des risques, entretien avec Alain JUILLET

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


111
III.1.1.ii Apports de l’IE pour un assureur

L. GUERAUD indique que la mise en place d’une solution d’intelligence économique répond à
plusieurs besoins :

• Métier & Environnementaux: la volonté en assurance/réassurance de toujours mieux évaluer les


risques potentiels.

• Stratégiques & Opérationnels: l’aide à la prise de décision stratégique et opérationnelle avec


des leaders demandeurs d’une information fiable sur les marchés (tendances) et les clients
(sinistres, contrats, actualité des cédantes).

• Collaboratifs: l’ambition de mutualiser le savoir dans une entreprise mondialisée et dans


l’exercice d’un métier international.

• Informationnels : l’ambition de maîtriser le défi de l’information non-structurée et la nécessaire


évolution d’un service documentaire classique vers une culture de veille, puis vers de
l’intelligence économique.

Le mouvement ne peut se créer que s’il y a une demande des opérationnels, clients d’une
information fiable, au bon moment, pour faciliter leurs décisions. Le sponsor de la Direction
Générale est également indispensable ainsi que l’implication des équipes informatiques et
documentaires, ces dernières étant en charge de la mise en place de la solution d’intelligence
économique. Le mouvement se crée à partir de l’expression d’une demande opérationnelle.

Figure 72 : Le cycle de l’information : de la surveillance à l’utilisation opérationnelle. Source : L.GUERAUD

Enjeux de la mise en place d’une solution d’IE

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


112
Face à des flux d’information surabondants et dispersés, des solutions doivent être mises en place
pour améliorer la connaissance et la réactivité dans une entreprise. L’information transformée en
connaissance permet d’anticiper les risques et les évolutions des marchés.

L’objectif est de structurer cette démarche au sein d’une véritable culture d’entreprise. Créer
cette culture de l’intelligence économique fait partie intégrante d’une culture de la gestion des
risques. Avoir la connaissance mais surtout la partager dans l’entreprise est un challenge de taille
pour un groupe. Un autre enjeu de taille est de pouvoir passer d’une attitude défensive où les
risques sont subis à une position offensive qui permet de les anticiper et de saisir des
opportunités.

Lors d’une enquête interne menée en 2007 chez SCOR par L. GUERAUD auprès d’une centaine
d’utilisateurs faisant suite à la mise en place d’une solution d’intelligence économique, la plus-
value apportée par l’intelligence économique a été notée, à partir de dix questions qui leur
étaient posées, par critère d’importance : 1 (minime), 2 (moyenne), 3 (importante), 4 (essentielle),
5 (fondamentale):

• Identification de nouveaux marchés et produits


• Anticipation des tendances de vos marchés
• Meilleure connaissance des clients et des concurrents
• Anticipation du coût des sinistres
• Réduction du risque et aide à la souscription
• Participation à l’image de professionnalisme
• Renforcement de l’expertise technique
• Renforcement de la collaboration au sein du groupe
• Précocité et pertinence de l’information
• Meilleure maîtrise de l’information non structurée disponible.

Figure 73 : Segmentation des enjeux avec et sans Intelligence économique. Source : L. GUERAUD

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


113
1.2 Les Systèmes d’Information Décisionnels et leur exploitation actuelle

III.1.2.i Enjeux et description technologique de l'informatique décisionnelle au sein d’une société


d’assurance

Comme nous l’avons vu dans la partie précédente (II.3.1.ii) lors du schéma d’apprentissage des
SIG par les assureurs, le processus de création de connaissances organisationnelles est de fournir
le contexte adéquat pour faciliter les activités de groupe autant que de gérer l’information et
manager la connaissance.

Les données hétérogènes évoquées lors de l’intégration dans un SIG et leurs analyses spatiales
sont composées notamment de données internes à l’entreprise (II.2.1.i). Ces données métiers
internes sont exploitées notamment par les services d’actuariats des sociétés d’assurance à l’aide
de Systèmes d’Information Décisionnels (SID).

Les données applicatives métier sont stockées dans une ou plusieurs bases de données
relationnelles ou non relationnelles.

Ces données sont extraites, transformées et chargées dans un entrepôt de données généralement
par un outil de type ETC (Extraction-Transformation-Chargement).

Un entrepôt de données peut prendre la forme soit d’un Datawarehouse (ensemble des données
de l’entreprise), soit d’un Datamart (sous-ensemble d’informations concernant un métier
particulier de l’entreprise comme les données d’une direction réassurance, sinistres ou les
données contrats et portefeuilles issues généralement des Directions techniques).

Le reporting permet aux utilisateurs :

• de sélectionner des données relatives à un exercice, un contrat, un portefeuille ou encore


une garantie,
• de trier, regrouper ou répartir ces données selon ses critères d’analyse,
• de réaliser des opérations (totaux, moyennes, écarts, comparatif d'une période à l'autre),
• de restituer des résultats de façon structurée le plus souvent sous forme de graphiques
en fonction des attentes du public.

Les tableaux de bord équipés de fonctions OLAP sont aujourd’hui les plus plébiscitées par des
publics comme les actuaires.

L'approche OLAP (On-line Analytical Processing) est une structure destinée à des fins d'analyses
interactives sur la base d’une représentation d'informations multidimensionnelles.

Les cubes OLAP ont les caractéristiques suivantes :

• Agréger et restituer des informations en fonction des besoins de l’utilisateur.


• Rendre l’accès aux données rapide et simple
• Manipuler les données agrégées en y associant différentes dimensions

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


114
Julien IRIS55, dans sa contribution méthodologique aux technologies géodécisionnelles, présente
l’architecture technique qui intègre trois blocs essentiels :

• Acquisition et intégration des données à partir de données hétérogènes: il s’agit de


l’alimentation des données pour traiter les problématiques grâce à des services
d’extraction, de transformation et de chargement.
• Management des données : centralisation des données et des résultats dans les
entrepôts des données et gestion des métadonnées de l’entrepôt ;
• Distribution et interrogation des données : stockage dans des magasins de données et
restitution au travers d’outils d’analyse et tableaux de bord.

Les Datawarehouse peuvent ainsi permettre via l'OLAP l’analyse très approfondie de l’activité de
l’entreprise, grâce à des statistiques recoupant des informations relatives à des activités
apparemment très différentes.

L'interopérabilité entre les systèmes d'entrepôt de données, les applications informatiques ou de


gestion de contenu et les systèmes de reporting est réalisée grâce à une gestion des
métadonnées.

Par exemple, on peut vouloir mesurer :

• 3 indicateurs : le ratio sinistre/prime, le nombre de risques, le montant moyen


• l'axe temps : par année, par trimestre, par mois,
• et l'axe produits : le marché visé (MRH, multi pro, etc.), un contrat spécifique, une
garantie.

On obtient ainsi un tableau à deux entrées :

• des données relatives aux produits (marché, contrat, garantie),


• des exercices ou des dates de survenance d’événements,
• avec au croisement pour chaque cellule : le ratio S/P, les coûts moyen par garantie.

Si l'on s'intéresse à un troisième axe d'analyse, par exemple la dimension géographique (d’une
région, d’un secteur attribué à des cabinets d’expertise), on obtient alors un axe d'analyse
supplémentaire un cube à plus de 3 dimensions, appelé hypercube.

Le cabinet de conseil Limpida56 a décrit les possibilités de « navigation » offertes par les outils
décisionnels dans les différentes dimensions du cube ou de l'hypercube :

• le drill down ou le forage avant : c'est la possibilité de « zoomer » sur une dimension (par
exemple d'éclater les années en 4 trimestres pour avoir une vision plus fine, ou de passer
du pays aux différentes régions),
• le drill up ou le forage arrière: c'est l'opération inverse qui permet d'« agréger » les
composantes de l'un des axes (par exemple de regrouper les mois en trimestre, ou de
totaliser les différentes régions pour avoir le total par pays),
• le slice and dice (que l'on peut traduire par « hacher menu ») : c'est une opération plus
complexe qui entraîne une permutation des axes d'analyse (par exemple, on peut vouloir

55
Contribution de la méthodologie et de la technologie géodécisionnelle pour l’aide à l’évaluation des risques naturels dans le secteur
de l’assurance en France, 2009
56
LIMPIDA, De l’informatique décisionnelle à la gestion de la performance

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


115
remplacer une vue par pays/régions par une nouvelle vue par garanties et gammes de
produits)
• le drill through : lorsqu'on ne dispose que de données agrégées (indicateurs totalisés), le
drill through permet d'accéder au détail élémentaire des informations (chaque vente de
chaque produit à chaque assuré dans chaque agence).

III.1.2.ii Fonctions essentielles de l'informatique décisionnelle

Un système d'information décisionnel (SID) assure quatre fonctions fondamentales, à savoir la


collecte, l'intégration, la diffusion et la présentation des données. À ces quatre fonctions s'ajoute
une fonction de contrôle du SID lui-même, l'administration.

La collecte (parfois appelée Datapumping) est l'ensemble des tâches consistant à détecter, à
sélectionner, à extraire et à filtrer les données internes et/ou externes souvent hétérogènes. Elle
s'appuie notamment sur des outils d'ETL (extract-transform-load pour extraction-transformation-
chargement).

Cette alimentation utilise les données sources issues des systèmes transactionnels de production,
le plus souvent sous forme de :

• compte-rendu d'événement ou compte-rendu d'opérations réalisées par l’entreprise :


encaissement de primes, indemnités versées pour un événement donné, état des
provisions techniques, etc.,
• compte-rendu d'inventaire: c'est l'image photo prise à un instant donné (à une fin de
période : mois, trimestre, ...) de l'ensemble des opérations (les assurés, les contrats, les
sinistres en cours, les sinistres clos, etc.).

L'intégration consiste à concentrer les données collectées dans un espace unifié, dont le socle
informatique essentiel est l'entrepôt de données. Élément central du dispositif, il permet aux
applications décisionnelles de bénéficier d'une source d'information commune, homogène,
normalisée et fiable, susceptible de masquer la diversité de l'origine des données. C'est
également dans cette fonction que sont effectués éventuellement les calculs et les agrégations
(cumuls) communs à l'ensemble du projet.

La fonction d'intégration est généralement assurée par la gestion de métadonnées, qui assurent
l'interopérabilité entre toutes les ressources informatiques, que ce soit des données structurées
(bases de données accédées par des progiciels ou applications), ou des données non structurées
(documents et autres ressources non structurées, manipulés par les systèmes de gestion de
contenu).

La diffusion met les données à la disposition des utilisateurs, selon des schémas correspondant au
profil ou au métier de chacun, sachant que l'accès direct à l'entrepôt de données ne
correspondrait généralement pas aux besoins d'un décideur ou d'un analyste. L'objectif prioritaire
est de segmenter les données en contextes informationnels fortement cohérents, simples à
utiliser et correspondant à une activité décisionnelle particulière.

Alors qu'un entrepôt de données peut héberger des centaines ou des milliers de variables ou
indicateurs, un contexte de diffusion raisonnable n'en présente que quelques dizaines au
maximum.

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


116
Chaque contexte peut correspondre à un Datamart, bien qu'il n'y ait pas de règles générales
concernant le stockage physique. Très souvent, un contexte de diffusion est multidimensionnel,
c'est-à-dire modélisable sous la forme d'un hypercube; il peut alors être mis à disposition à l'aide
d'un outil OLAP.

Jean-Fabrice LEBRATY57 a décrit l’architecture décisionnelle fondée sur l’entrepôt de données.


Le schéma suivant proposé par Julien IRIS décrit (d’une manière simplifiée) le concept d’entrepôt
de données ou de Data Warehouse :

Figure 74 : Architecture décisionnelle fondée sur un entrepôt de données, Source : J.IRIS

Afin de faciliter la mise en place d’une solution transversale au sein d’un groupe, nous
proposerons dans le chapitre 3 de fonctionner par étapes en privilégiant dans un 1er temps la
constitution d’un Datamart groupant des données issues des infocentres. En effet, comme cela a
été dit précédemment, la collecte de données via Datamart peut se révéler délicate en raison des
complexités d’opérabilité à opérer entre systèmes et bases de données.

1.3 Conditions pour la mise en place d’une culture ERM au sein de la compagnie
d’assurances

III.1.3.i Facteurs clés pour la mise en place d’une démarche ERM

À la base de l’ERM, il y a la gestion des risques et leur contrôle. L’émergence du Risk Management
dans le monde de l’assurance est très récente au regard de son existence dans d’autres secteurs.

En effet, la démarche d'analyse et d'identification systématique des risques est assez


traditionnelle dans les secteurs industriels où la gestion des risques est devenue indissociable de
la démarche qualité.

57
J.F. LEBRATY, Les systèmes décisionnels, 2006

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


117
En revanche, l'analyse de risque est beaucoup plus récente dans le domaine de la gestion et de
l'économie, qui en était relativement écarté du fait de l'absence (apparente) de risques directs sur
la vie humaine.

Une étude INGEA/La Tribune 58 concernant l’état de l’art du contrôle interne et du Risk
Management dans le secteur assurance et protection sociale met en évidence les différentes
motivations :

• une contrainte règlementaire: « Solvabilité II » est, chez les assureurs, la contrainte


règlementaire actuellement la plus forte qui motive la mise en place de cette fonction.
• une volonté du Top management de l’entreprise : suite à une prise de conscience qu’il est
nécessaire de mettre en place une gouvernance d’entreprise forte.
• à la suite d’événements déclencheurs: un ou plusieurs sinistres majeurs dans l’entreprise ou
dans le secteur.

Ces facteurs déclenchant confirment les dynamiques observées en première partie et le besoin
ressenti d’approfondir l’analyse systématique des risques.

Figure 75 : Critères de mise en place d'un contrôle interne et d'une gestion des risques. Source : INGEA /
La Tribune

Comme nous l’avons vu en première partie, le principal déclencheur de la mise en place d’une
démarche ERM chez un assureur pour la mise en place d’un ERM est la directive Solvabilité 2 et la
prise de conscience et la pression exercée sur le management au fur et à mesure que cette
échéance se rapproche.

L’étude DELOITTE59 s’appuie sur le « Risk Management Capability Maturity Model » qui définit
cinq niveaux pour la capacité ERM : lorsque les compagnies n’ont pas d’ERM, les processus
systématiques sont réactifs, la compréhension, la mesure et la gestion des risques sont faibles, le
risque lui est le plus élevé.
A contrario, le niveau « Stratégique » est caractérisé non seulement par la présence de processus
robustes et systématiques pour l’ERM mais également par l’amélioration proactive et continue
de ces processus.

58
INGEA / La tribune/ Etat de l’art de contrôle interne et du Risk Management dans le secteur de l’assurance et de la protection
sociale, 2007
59
DELOITTE, Designing a successful ERM function, 2008

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


118
Si les entreprises ne se dotent pas des structures, outils et modèles de gouvernance pour leur
cadre ERM, elles auront de réelles difficultés à franchir les différents paliers. Atteindre le dernier
palier est impossible sans une solide organisation ERM.

Figure 76 : Capability Maturity Model framework. Source: CARNEGIE MELLON UNIVERSITY, 1993

Sur la base des études de PriceWaterHouseCoopers60 publiée en juin 2008 et de Towers Perrin en
octobre 200861, Laurent GUERAUD a mis en évidence plusieurs considérations sur la mise en place
de l’ERM chez les assureurs:

Figure 77 : Compréhension des éléments clés de l’ERM par PWHC. Source : L. GUERAUD

• Globalement, l’ERM a fait des progrès notables en quelques années chez les acteurs
européens grâce à l’influence de Solvabilité 2.

60
PriceWaterHouseCoopers, Does ERM matter?, 2008
61
Towers Perrin, Embedding ERM, a tough nut to Crack, 2008

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


119
• Les dirigeants s’appuient pour certaines décisions stratégiques de plus en plus sur un ERM
qui représente une préoccupation majeure.

• L’ERM participe à l’appréciation de l’appétit du risque. Les entreprises disposent ainsi de


scenarii et de modèles pour mieux estimer leur capacité.

• Des progrès ont également été accomplis dans la gestion de leurs risques et la
connaissance de leurs portefeuilles.

III.1.3.ii Efforts à produire et culture ERM

Les progrès à réaliser tournent essentiellement autour de la culture ERM, c’est à dire changer les
habitudes et les réflexes de tous les acteurs impliqués dans les décisions qui vont impacter un
assureur.

Comme nous l’avons décrit précédemment (I.3.1.ii), la culture ERM doit se traduire au niveau
business. Les enjeux se traduisent en termes d’application métier, d’organisation, d’outils et de
communication.

L’intégration de l’ERM dans les décisions et prises de risque quotidiennes reste encore trop
souvent limitée.

Dans l’étude PriceWaterHouseCoopers publiée en 2008 sur l’apport d’un ERM pour la gestion des
risques, les participants considèrent que l’ERM concerne plutôt leurs décisions stratégiques,
l’allocation des ressources et le management. Toutefois, il semble que des progrès restent à
réaliser dans l’implication du middle Management dans les prises de décisions quotidiennes.

Figure 78 : Interaction entre l'activité métier et le "Risk Management" d’après PWHC.


Source : L. GUERAUD

Sur la base de cette étude et du travail mené par L. GUERAUD sur la gestion des risques par les
réassureurs, il semble intéressant de transposer les grands enseignements au niveau des
assureurs toute proportion gardée.

L. GUERAUD a souligné la nécessité de développer l’interaction entre l’activité métier et le « Risk


Management ». Selon lui, plus de 75% des opérationnels ne basent pas leur tolérance au risque
sur les niveaux d’appétit et de tolérance au risque définis par leur top management.

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


120
Il faut également prendre en compte le fait que 70% des opérationnels considèrent que les
procédures de contrôle en cas de franchissement des seuils ou des cumuls de risques ne sont pas
encore satisfaisantes. Tout cela révèle la difficulté de traduire sur le terrain les priorités, objectifs
et limites décidés par les dirigeants.

Il faut souvent composer avec les considérations d’objectifs immédiats, qui font souvent partie
des objectifs fixés par le management des opérationnels. Le critère de performance notamment
commerciale est encore préféré à n’importe quel critère basé sur une mesure du risque.

De plus, sur la base des études précédemment citées, L. GUERAUD insiste sur le besoin de
progresser sur l’identification et l’évaluation des risques.

Il semble ainsi que l’évaluation des risques ne soit pas encore jugée suffisamment développée et
notamment les risques stratégiques, pour lesquels les outils et méthodologies d’évaluation tant
quantitatives que qualitatives ne semblent pas encore suffisants.

Figure 79 : Mise en place des outils et méthodologies d'évaluation qualitative des risques par PWHC.
Source : L. GUERAUD

Laurent GUERAUD a mis en évidence que les évaluations se font souvent à très haut niveau, de
manière confidentielle entre un nombre limité d’acteurs. Les décisions doivent donc redescendre
au niveau opérationnel.

Des efforts sont donc à fournir pour rendre plus accessibles la méthodologie d’évaluation des
risques et les outils associés de façon à contribuer à une diffusion de la culture ERM à l’ensemble
des collaborateurs. Une approche holistique des risques fait partie de la culture commune qui
doit être partagée à tous les niveaux de l’entreprise. La mise en place d’outils dédiés à la gestion
de l’ERM doit permettre, en plus d’une meilleure maîtrise des risques, de faciliter et d’élargir
l’accès à cette information.

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


121
Chapitre 2 : Le géodécisionnel : une solution émergente dans la gestion des
risques d’un assureur

2.1 Définition du concept de géodécisionnel


III.2.1.i Définition du Géodécisionnel (SIGD): un couplage entre les Systèmes
d’Information Décisionnels (SID) et les Systèmes d’Information Géographiques (SIG)

L’objectif est ici d’apporter une réponse opérationnelle à la gestion des risques majeurs en posant
les fondements méthodologiques et technologiques d’une approche géodécisionnelle au sein
d’une société d’assurances.

La gestion des risques d’un portefeuille d’assurance dommages se traduit par un certain nombre
d’éléments propres au portefeuille (le type de risque, les éléments propres au contrat, l’activité
d’un assuré professionnel, l’âge d’une personne, etc.). Ces éléments sont susceptibles d’être
impactés par des facteurs externes à l’assureur (aléa naturel, présence d’une usine Seveso, etc.).
Combinés, ces éléments génèrent un 3ème type de données : la sinistralité.

L’intérêt des Systèmes d’Informations Géographique (SIG) réside principalement dans


l’intégration de données géographiques et non géographiques, provenant des sources distinctes.
En croisant l’information, l’analyse des risques confrontés aux éléments devient possible. Ainsi,
l’analyse de l’exposition d’un portefeuille et le diagnostic de vulnérabilité s’inscrivent pleinement
dans une démarche de gestion des risques de l’entreprise.

Le croisement de ces données implique la mise en place d’une structure technologique de gestion
de données visant à alimenter le SIG, de l’analyser afin in fine de restituer l’information à un
utilisateur. Ainsi, le croisement de l’information et l’analyse géographique ne sont permis que si le
SIG est couplé au Système d’Information Décisionnel (SID) utilisé dans l’entreprise, permettant
d’accéder aux diverses sources d’information et de mettre à disposition des décideurs et
utilisateurs les analyses et reporting.

Les SID s’entendent comme étant l’ensemble des moyens, des outils et des méthodes qui
permettent de collecter, de consolider, de modéliser et de restituer les données d’une entreprise
en vue d’offrir une aide à la décision et de permettre aux responsables de la stratégie d’une
entreprise de voir de façon synthétique l’ensemble de l’activité traitée (IRIS, 2009)62.

Les SIG peuvent être considérés comme des extensions technologiques aux SID permettant de
donner une dimension géographique à l’analyse des données internes et externes collectées. De
ce couplage données/ analyse géographique, le risque manager obtient un Système d’Information
Géodécisionnel (SIGD), dont Julien IRIS (2009) propose une définition : « Le Géodécisionnel
constitue une discipline regroupant l’ensemble des moyens, outils et méthode permettant de
collecter, consolider, modéliser et restituer des données en vue d’offrir des capacités d’analyse
globales et détaillées dans l’espace et dans le temps ».

Au-delà de la modélisation et des traitements sur les données géographiques et non


géographiques, un autre élément fondamental du géodécisionnel est la visualisation.

62
J.IRIS, Contribution de la méthodologie et de la technologie géodécisionnelle pour l’aide à l’évaluation des risques naturels, 2009

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


122
L’enrichissement de l’interface classique OLAP avec des fonctions cartographiques fournit aux
décideurs et aux analystes la possibilité d’interagir dynamiquement entre les données
descriptives et des données géographiques relatives à une problématique ayant une ou plusieurs
composantes spatiales.

III.2.1.i Les concepts clés de la visualisation d’un SIGD

Un SIGD s’appuie sur des outils de visualisation permettant d’interagir avec une structure de
données spatiales multidimensionnelle. Afin de garantir une certaine souplesse dans l’analyse et
la visualisation des faits, des concepts clés ont été mis en avant par la communauté des
chercheurs travaillant autour des SIGD.

Tout d’abord il apparaît que la simple visualisation sur une carte de données stockées dans un
cube OLAP offre une visibilité sur le phénomène étudié que les tableaux et les graphiques ne
permettent pas. La carte offre une représentation intuitive qui vient naturellement enrichir les
rôles des tableaux et graphiques qui parfois peuvent être rendus illisibles par la densité
d’information. La carte permet d’abstraire les données spatiales et permet ainsi aux décideurs et
aux analystes de se concentrer uniquement sur les données non géographiques.

Figure 80 : Exemple d’une plateforme géodécisionnelle développée par Pitney Bowes Business Inside
pour les besoins du pilote mené par le Pôle Risques majeurs de Covéa. Source :
Groupe COVEA

Afin de pouvoir répondre à ces besoins, l’outil de visualisation doit répondre à un certain nombre
de critères énoncés :

• Visualisation des données : Il s’agit d’un principe de base des SIGD. La visualisation des
données doit être claire, flexible, et doit permettre d’utiliser des outils autres que la
représentation cartographique. Des tableaux, des outils statistiques, des graphiques sont autant
de compléments d’informations souvent indispensables à la bonne compréhension des données.

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


123
Il est donc important de pouvoir afficher plusieurs représentations simultanément et ce sans avoir
à multiplier les clics de souris et les enchaînements de fenêtres ; Le temps de réponse à une
requête reste sous la barre des 10 secondes nécessaires pour conserver le flux de penser d'une
personne

• Personnalisation de l’interface : L’outil doit permettre une personnalisation poussée.


L’utilisateur doit pouvoir choisir les couleurs des éléments qu’il souhaite voir s’afficher; l’outil doit
permettre l’affichage de cartes thématiques à partir des Mesures du Cube à représenter et c’est
la sémiologie de ces cartes combinées avec des tableaux et graphiques qui permet d’offrir une
vision claire (comme par exemple en changeant la couleur et/ou la trame de fond selon une
intervalle de valeurs d’une ou plusieurs Mesures)

• Manipulation des données : L’outil doit permettre d’exploiter pleinement les possibilités
de l’OLAP dans la représentation cartographique des Cubes. Il serait intéressant de pouvoir
visualiser facilement les opérations « Remonter », « Pivoter » et « Forer » dans les « Dimensions
Spatiales » autant que dans les autres « Dimensions » (temporelles, descriptives, etc.).

Les critères de visualisation SOLAP permettent dans le cadre de l’exemple des sites exposés
d’offrir plus de visibilité sur l’analyse de l’exposition des assurés d’une société d’assurances.
Ainsi une visualisation cartographique permettrait de constater la distribution spatiale des risques
assurés d’une société. Il s’agit par exemple d’étudier la densité des biens assurés dans les zones
inondables. La comptabilisation des sites et des mesures peut se faire soit sous l’angle
administratif, soit sous l’angle propre au découpage géographique de l’entreprise d’assurances.

Cela permet notamment d’identifier visuellement les zones géographiques avec une forte
concentration de sites assurés. L’utilisation de graphiques combinés à des cartes thématiques sur
les Mesures permet d’étudier les corrélations spatiales et temporelles.

2.2 SIGD : capacité à combiner les composantes multidimensionnelles et les composantes


géographiques pour développer l’aide à la décision

III.2.2.i Requêtages et analyse spatiale : le Spatial OLAP

Comme pour les SID, les Systèmes d’Information Géodécisionnels (SIGD) visent à proposer aux
décideurs des éléments tangibles permettant de supporter la prise de décision.

Concernant les SIG, ceux-ci permettent d’analyser de manière fine les phénomènes ayant une
composante géographique mais ils restent des outils opérationnels destinés à traiter l’information
en mode transactionnel en s’appuyant sur des systèmes de requêtages complexes (processus
OLTP). Les SIG souffrent de temps de réponse lents sans fonctionnalités de synthèse et de
regroupement d’information.

Concernant les SID la manipulation et l’interrogation des entrepôts de données ne permettent


pas d’exploiter le potentiel des données géographiques stockées dans les entrepôts de données
et structures multidimensionnelles.
Les SID et les processus OLAP sans visualisation et navigation cartographiques présentent
d'importantes limitations pour l'analyse de phénomènes géographiques et spatiotemporels.

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


124
Figure 81 : L’analyse d’exposition de portefeuilles aux risques majeurs comporte 2 approches
complémentaires: SIG et SID. Le géodécisionnel propose de combiner les avantages de
chaque approche. Source : Université de Laval

Les SIGD ont pour objectif de coupler les avantages fonctionnels et technologiques des SIG avec
ceux des processus OLAP spécifiques au décisionnel. Ce mariage a pour objectif d’offrir aux
décideurs la capacité de tirer pleinement profit de la composante spatiale des données stockées
dans le système d’information soit dans des bases de données relationnelles, soit dans des
entrepôts de données, et de pouvoir explorer des indicateurs liés à une problématique dans
l’espace et dans le temps. On distingue deux approches : d’une part simplement représenter sous
forme de cartes le contenu des entrepôts de données existants, et d’autre part construire de
nouveaux entrepôts (Datawarehouse) et magasins de données (Datamart) intégrant des résultats
de traitements géographiques et non géographiques afin de répondre à des problématiques qui
n’avaient pas pu être abordées par le passé.

Pour une plateforme géodécisionnelle, les parties « Systèmes d’Information Géographiques (SIG)
et Système d’Information Décisionnelles (SID) sont interdépendantes puisque chaque cube SOLAP
configuré doit être relié à un projet géographique créé dans la plateforme.

Le géodécisionnel constitue une nouvelle famille d’outils s’appuyant sur un enrichissement de la


modélisation multidimensionnelle de manière à prendre en compte non seulement le caractère
spatial ou géographique mais aussi le caractère multidimensionnel des données.

Ainsi le SIGD est vu comme l’ensemble des technologies capables de combiner les composantes
multidimensionnelles et les composantes géographiques. Le terme Spatial OLAP désigne aussi les
outils d’analyse de type SIGD.

III.2.2.ii Exploitation du Spatial OLAP au travers des tableaux de bord

Le Spatial OLAP est dédié à l’analyse et à l’exploration d’indicateurs résultant de modèle spatiaux
multidimensionnel.

Il est possible aussi de construire des Tableaux De Bord Spatiaux (TDBS) répondant au même type
de besoin que le TDB avec en plus l’intégration de la visualisation cartographique ; le tableau de

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


125
bord vise à présenter les indicateurs d’une manière synthétique afin d’aider au pilotage plus qu’à
l’analyse.

Comme pour le décisionnel, ce sont les outils d’analyse de type SOLAP et les tableaux de bords
spatiaux qui permettent de restituer de façon interactive aux analystes et aux décideurs le
contenu des structures multidimensionnelles intégrant la composante géographique (modèles
spatiaux multidimensionnels).

Exemple de tableaux de Bord développés par Pitney Bowes Business Insight


pour les besoins du pilote mené par le Pôle Risques majeurs de Covéa (source
Covéa)

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


126
(Source : Covéa)
La combinaison des outils Qlikview / MapIntelligence / KMS permet de configurer des interfaces
utilisateurs à partir des connexions faites sur des structures de données Spatiales
Multidimensionnelles appelées couramment des cubes. La plateforme KMS permet de publier en
ligne des projets ou interfaces SOLAP pour explorer les bases de données intégrées (données
internes et externes) à partir de cartes, tableaux et graphiques.

Les principaux atouts de cette technologie résident :

- dans sa capacité à intégrer facilement des données géographiques et non géographiques


compatibles avec la plupart des formats du marché: fichiers vectoriels, rasters, bases de données
spatiales, bases de données relationnelles;

- dans sa capacité à paramétrer l'ensemble des données dans un environnement Internet


interactif : toutes les configurations se font depuis une console d'administration web sans avoir à
utiliser de langage de programmation;

- dans sa souplesse d'interface utilisateur pour explorer les modèles spatiaux multidimensionnels :
l'interface permet de naviguer dans les données grâce à des opérateurs de type SIG, des
opérateurs spécifiques de type SOLAP, des opérateurs de navigation temporelle, des générateurs
de combinaisons thématiques d’états cartographiques, graphiques et tabulaires.

Comme la modélisation multidimensionnelle pour les SID, la modélisation spatiale


multidimensionnelle est le socle sur lequel repose les SIGD. Le terme modélisation spatiale
multidimensionnelle correspond au multidimensionnel enrichi d’une extension spatiale.

2.3 Couplage entre un SIG et un SID : démonstration de l’intégration de données

III. 2.3.i La démarche d' « Implémentation » d’un SIGD

Cette partie a pour objet de décrire la démarche d' « implémentation » de prototypes


géodécisionnels exploratoires conçus et développés dans le cadre de la problématique. Cette
phase fait suite à la phase de « Modélisation » présentée dans les chapitres précédents.

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


127
A partir des modèles conceptuels et logiques de données obtenus suite à la démarche de
modélisation spatiale multidimensionnelle, il est possible de mettre en place une chaîne de
traitements et d'ingénierie pour construire un prototype géodécisionnel.

L’objectif de ces traitements est d’aboutir à la réalisation de premiers prototypes autour des cas
d'étude modélisée dans le chapitre précédent. Tandis que la méthode de modélisation permet de
s’assurer que les « Dimensions » s’accordent bien avec la représentation mentale que se fait
l'utilisateur du problème, l’interface de restitution géodécisionnelle doit garantir à l'utilisateur
final qu'il pourra facilement explorer les indicateurs sur ces différents axes et ce sur plusieurs
supports d’analyses possibles : graphiques, tableaux mais aussi et surtout cartographies.

La démarche d' « Implémentation » proposée se décompose en trois étapes :

1) « S'approprier la technologie » : cette phase consiste à s'approprier la technologie


géodécisionnelle choisie pour concevoir les prototypes. Dans le cadre de la thèse, le choix s'est
porté sur Qlikview, MapIntelligence et KMS; le fonctionnement de cette technologie sera décrit
au cours de ce chapitre.

2) « Réaliser les traitements » : cette phase consiste à mettre en place la chaîne d'ingénierie de
traitements informatiques permettant de charger la structure de données spatiale
multidimensionnelle (« Cube » de données). Ces traitements correspondent à ceux exécutés par
les outils ETL (Extract, Transform, Load) dans l’informatique décisionnelle. Etant donné que la
technologie choisie est SOLAP, on parle dans ce chapitre de « Cube SOLAP »

3) « Restituer les résultats» : cette étape consiste «à paramétrer l’interface de restitution pour
permettre une exploration et une analyse efficace des indicateurs stockés dans le « Cube » SOLAP.
Le paramétrage se fait à la fois par l’administrateur depuis la console web d’administration de
KMS / MapIntelligence de PBBI et par l’utilisateur lui-même depuis l’interface web de restitution.

Les étapes principales de la démarche :

Figure 82 : Schéma des étapes de la démarche d’implémentation d’une solution géodécisionnelle. Source:
Groupe COVEA

Appropriation technologique de Qlikview / MapIntelligence / KMS

Comme nous l’avons étudié dans les précédents chapitres, l’analyse d’exposition d’un portefeuille
de risques aux aléas climatiques et technologiques nécessite l’intégration 2 types de données :

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


128
 Les données internes d’une société d’assurances :

Les données relatives au portefeuille de risques assurés:


 Nom de l’assuré
 Adresse du risque
 N° de contrat
 Typologie d’assurés (MRH, professionnel, agricole, etc.)
 Destination du risque (principal, secondaire, etc.)
 Type de risque (maison individuelle, appartement, Mobile Home, etc.
 Qualité de l’assuré (propriétaire occupant, propriétaire non occupant, etc.)
 Superficie assurée, nombre de pièces, étage, etc.
 Capitaux mobiliers / immobiliers assurés
 Contrat, options, franchise, etc.
 Etc.

Les données relatives aux sinistres :


 Garantie (tempête, inondation, sécheresse, conflagration, etc.)
 Adresse du sinistre
 N° de contrat / sinistre
 Date de survenance
 Typologie d’assurés (MRH, professionnel, agricole, etc.)
 Destination du risque (principal, secondaire, etc.)
 Type de risque (maison individuelle, appartement, Mobile Home, etc.)
 Type d’expertise (salariée, libérale)
 Indemnités versées (immobilier, mobilier, pertes d’exploitation, etc.)
 Etc.

Figure 83 : Exemple d’un fichier sinistres en MRH. Source : Groupe COVEA

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


129
Figure 84 : Modélisation OLAP de bases de données portefeuilles. Source : Groupe COVEA

 Les données externes qui caractérisent le portefeuille et l’aléa étudié :

Informations administratives :
 Commune déclarée à risque
 Date du dernier arrêté CATNAT
 Nombre d'arrêtés CATNAT
 Nombre d'arrêtés CATNAT < 5ans
 Etc.

Informations réglementaires :
 Commune dotée d'un PPR
 Date de prescription
 Date d'approbation
 Franchise au prochain arrêté CATNAT
 Situé en zone réglementée

Données socio-économiques :
 Taux de professionnels en zone d'aléa
 Taux de logements en habitation collective en zone d'aléa
 Taux de logements en maison individuelle en zone d'aléa
 Années de construction
 Zones Urbaines Sensibles
 Revenus des ménages

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


130
Informations sur les aléas :
 Niveau d’exposition inondation
 Niveau d’exposition à l’argile
 Présence de sites Seveso
 Niveau d’exposition sismique
 Etc.

Pour les données internes, des bases sont extraites des infocentres. Les requêtes restituent
ainsi les informations souhaitées en fonction du périmètre étudié.

Dans le cadre du pilote mené avec Pitney Bowes Business Inside, un jeu de données a été
rassemblé afin de fournir des données internes et externes.

Les données internes et externes sont assemblées dans un fichier Excel. Chaque onglet
présente un fichier comme ceux présentés précédemment. L’ensemble des onglets de chaque
fichier est ensuite chargé via l’assistant Qlikview.

Figure 85 : Étape de chargement des bases dans Qlikview. Source : Groupe COVEA

Une structuration automatique des données est opérée en procédant par jointure de tables
fournies et chargées dans l’assistant Qlikview.

Cette opération permet de faire communiquer des données internes avec des données externes.
Cette technologie présente l’avantage d’être très souple et de pouvoir associer différents formats
de données (xls, txt, cvs, etc.)

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


131
Figure 86 : Étape de jointure entre bases de données. Source : Groupe COVEA

Architecture technique de la solution explorée :

La mise en place d’une plateforme géodécisionnelle nécessite au préalable l’installation des


logiciels Qlikview, MapIntelligence et KMS. Un serveur web y est intégré de façon à donner la
possibilité de déployer les applications clientes sur des navigateurs Internet. Tous les modules
d’administration et les applications sont accessibles via un navigateur web.

Figure 87 : Étape de configuration de l’outil cartographique de l’assistance MapIntelligence. Source :


Groupe COVEA

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


132
KMS et MapIntelligence ont été conçus pour publier des applications exploitant des données
géographiques et non géographiques dans un ensemble cohérent pour les utilisateurs visés.

Il est possible de paramétrer la sémiologie des couches d'informations géographiques, le


gestionnaire des styles (contours, trame de fond, transparence, etc.), l’arborescence logique des
couches d’informations, la gestion des attributs des objets géométriques et la jointure avec des
attributs externes ou encore les niveaux de zoom pour l’affichage de chaque couche.

Afin de rendre encore plus interactif l’interface, des extensions ont été développées pour réaliser
en ligne des opérations topologiques (extractions d’objets géométriques, intersections,
inclusions), configurer des moteurs de géocodage (interrogation de référentiels routiers à partir
d’une ou plusieurs adresses pour obtenir les coordonnées géographiques) ou encore pour
intégrer des éléments multimédia aux objets géométriques tels que des images, des liens URL
vers des pages Internet ou des applications externes.

Figure 88 : Paramétrage de MapIntelligence : Calcul du coût moyen par Code Postal d’un sinistre tempête
et représentation thématique dans la cartographie dynamique de MapIntelligence.
Source : Groupe COVEA

L’intégration de SOLAP dans la technologie MapIntelligence permet aux utilisateurs finaux de


bénéficier de tous les avantages technologiques liée à la publication web d'applications
cartographiques. De son côté, Qlikview est également relativement transversal car compatible
avec les principaux formats standard SIG disponibles sur le marché aussi bien vectoriel que raster
ou encore des bases de données comme SAS, Business Object, Oracle, etc. Il convient de
souligner la compatibilité en termes d’interopérabilités: il n'y a pas d'exclusivité sur un format
propriétaire unique de données.

L’outil est composé de deux modules d'interface :


- un « Module d’administration »
- un « Module de visualisation »

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


133
Le « Module d'administration » permet de paramétrer les connecteurs physiques aux bases de
données et aux sources d'informations géographiques (fichiers vectoriels, raster, BD
géographiques), de configurer les composantes multidimensionnelles, mais aussi de paramétrer
les règles de représentation des données cartographiques au travers de la gestion des couches
d’informations géographiques : gestion des styles (trame de fond, couleur, transparence en
fonction d'intervalles de valeurs), gestion des thématiques (variation des styles en fonction des
intervalles de valeurs sur les mesures), arborescence des couches.

La partie d’administration est décomposé en quatre sous modules :


- le sous-module « Bases de données »
- le sous-module « Sources de données spatiales »
- le sous-module « Configuration des projets géographiques »
- le sous-module « Configuration des cubes »
Ces sous-modules sont repris et décrits ci-dessous.

Le sous module « Bases de données »


Ce sous-module permet de configurer l'ensemble des connexions aux bases de données. Ainsi on
définira par exemple les connexions vers les bases de données contenant les cubes ROLAP, celles
contenant les données non géographiques comme par exemple la BD GASPAR sur l'avancement
des procédures administratives sur les risques naturels ou la BD SITADEL sur l'avancement des
permis de construire sur tout le territoire. Les données stockées dans ces bases vont être jointes
dynamiquement à des données géographiques. Il n'y a pas de transfert de données sur le serveur
d'application ; les sources de données restent dans leur espace de stockage d'origine.

Ainsi depuis ce module il sera possible de paramétrer les connexions à la BD GASPAR pour
l'avancement des procédures administratives sur les risques naturels, la base de données SITADEL
contenant les données sur l'avancement des permis de construire ou encore les bases de données
« Contrats » et « Sinistres » à l'intérieur du système d'information d'une société d'assurances.

Les bases de données paramétrées dans ce module vont permettre d'intégrer des données non
géographiques (sous forme d'attributs) avec des objets géométriques stockés dans des sources de
données géographiques.

Le sous module « Sources de données spatiales »


Ce sous-module permet de configurer les paramètres de connexion aux données spatiales en
chargeant les fichiers SIG directement sur le serveur applicatif MapIntelligence.

Ainsi à partir de ce sous-module on va créer les connexions à toutes les sources de données
géographiques manipulées dans les cas d'étude comme les données issues de GEOFLA sur les
contours administratifs et les données sur les parcelles cadastrales IGN, les données issues de la
BD Profile Habitat de l'INSEE, les Atlas des Zones Inondables issus des modélisations hydro-
géomorphologiques, le Modèle Numérique de Terrain France entière fourni par la NASA (SRTM
avec 90m de précision), les PPR numérisés ou encore le découpage hydrographique des bassins
versants issus de la BD Carthage de l'IFEN.

Le sous module « Projets géographiques »

Ce sous-module permet de configurer les projets qui seront publiés sous forme d'interfaces
clients Internet aux utilisateurs finaux. Un projet est un ensemble de couches d'informations
géographiques faisant appel aux sources de données spatiales configurées dans le sous module
précédent.

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


134
Une couche géographique d'un projet contient l'ensemble des paramètres propres à la sémiologie
graphique des objets géométriques (point, ligne, polygone) : configuration du style de la couche
(couleur, degrés de transparence, trame de fond, bordures), gestion des niveaux de zoom, des
thématiques (variations des styles en fonction des valeurs ou des intervalles de valeurs d'un ou
plusieurs attributs). Les couches géographiques peuvent être ordonnancées de façon hiérarchique
suivant les besoins propres des utilisateurs du projet.

Figure 89 : Configuration de l’interface utilisateur avec les listes de données internes


Source : Groupe COVEA

Figure 90 : Configuration de l’interface utilisateur avec les listes de données externes


Source : Groupe COVEA

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


135
Ainsi on pourra depuis ce sous-module configurer les styles d'affichage en ligne des couches
géographiques manipulées dans chacun des « Cubes SOLAP ». Les thématiques permettent par
exemple pour les Plans de prévention des Risques (PPR) d'utiliser les variations de couleurs pour
chaque type de zone (bleues, rouges, autres) ou encore les Atlas des Zones Inondables en
fonction de la classe de fréquence du scénario de crue (Très Fréquent, Fréquent, Rare,
Exceptionnel).

Figure 91 : Configuration de l’interface utilisateur avec les Charts (jauges, histogrammes, compteurs,
cartographique dynamique MapIntelligence, etc.) Source : Groupe COVEA

On décidera de la sémiologie graphique de l'affichage des parcelles cadastrales ou encore des


lieux de risque des polices d'assurance ou bien des îlots INSEE. Il est possible d'enrichir l'affichage
à l'aide de données Raster comme par exemple les représentations des routes et de l'occupation
du sol afin de permettre à l'utilisateur de mieux se localiser dans l'espace géographique
représenté. Il convient ensuite de configurer les cubes SOLAP qui seront explorés par les
utilisateurs au travers des projets définis dans le présent sous module.

Le sous module « Configuration des cubes SOLAP »


A partir de ce sous module il est possible de configurer les cubes pour les rendre explorables au
travers d'un utilisateur Internet. Pour cela il est nécessaire de définir les connexions aux tables de
Dimensions, aux tables de Faits, d'identifier les mesures et les jointures sous forme de cubes
comme défini précédemment.

Ainsi, l’interface est créée. Afin de faciliter l’exploitation pour les utilisateurs, des listes
déroulantes par items définis dans le périmètre des données sont ajoutés sous forme de listes :

• Garanties étudiées (tempête, inondation, etc.)


• Dates de survenance d’un événement

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


136
• Type d’assurés
• Nature des risques assurés
• Régions, Code postaux
• Etc.

Le « Module de visualisation » permet de restituer les données aux utilisateurs finaux sous forme
de diagrammes (diagrammes à barres verticales et horizontales, camemberts, diagrammes de
points), de tableaux et de cartes dynamiques simples, complexes, multi échelles et directement
compatibles avec l’environnement de production SIG.

Il contient des opérateurs propres à la navigation cartographique (communs aux Systèmes


d’Information Géographiques - SIG) et des opérateurs spécifiques SOLAP permettant de naviguer.

Il est possible de générer plusieurs types de vues au sein de la même interface :


- Tableaux multidimensionnels avec plusieurs axes en colonne et en ligne.
- Graphiques histogrammes, courbes, camemberts, combinaisons de plusieurs graphiques.
- Cartes thématiques, multicartes, cartes avec graphiques superposés.

Figure 92 : Visualisation de la plateforme géodécisionnelle développée par Pitney Bowes Business Insight
pour les besoins du pilote mené par le Pôle Risques majeurs de Covéa. Source : Groupe COVEA

III. 2.3.ii Appropriation technologique sur une plateforme expérimentale

Afin de pouvoir apprécier l’exposition d’un portefeuille de risques assurés au regard de facteurs
exogènes (données sur les aléas, données socio économiques) qui sont facteurs explicatifs de
sinistralité, il nous fallait démontrer la possibilité d’associer les bases de données internes
(données analysées par les actuaires), avec des données externes traditionnellement intégrées

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


137
dans des Systèmes d’information Géographiques (SIG) principalement exploités par les services
de géomarketing.
L’association de ses deux types de données ne devait se faire au détriment de la capacité
d’analyses offerte par les Systèmes d’Information Décisionnels (SID) et utilisés par les actuaires.

Sur la base de technologies développées par Pitney Bowes Business Insight et Qlikview, nous
avons pu démontrer la capacité à rendre accessible pour tout utilisateur une plateforme
géodécisionnelle en présentant deux modules d'interface (Modules d’administration et
visualisation).

Le résultat obtenu lors du pilote permet à la fois à tout collaborateur d’une société d’assurance de
faire des analyses cartographiques sans disposer des compétences d’un géomaticien, notamment
en matière de traitement et d’analyse de bases de données géographiques et non géographiques
mais également d’offrir à l’ensemble des services intéressés un outil d’analyse performant et
intuitif, sans disposer d’un profil d’actuaire.

De cette piste technologique pressentie, nous devons à présent chercher à décliner des
applications opérationnelles destinées à l’ensemble des métiers d’une société d’assurance non vie
de façon à atteindre l’objectif recherché au début de cette thèse : explorer les pistes d’outils en
vue de développer un ERM destiné à une gestion transversale et qualitative des risques, par une
analyse spatiale et multidimensionnelle de portefeuilles exposés aux risques climatiques et
technologiques.

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


138
Chapitre 3 : Intérêt transversal à l’ensemble des métiers d’une société
d’assurances

Ce chapitre a pour objet d’envisager la déclinaison possible d’outils géodécisionnels


adaptés l’ensemble des métiers concernés par la gestion des risques d’un portefeuille non
vie.

Cette démarche prospective ne se veut en aucun cas exhaustive. Notre propos est ici de
rassembler les entités opérationnelles et de bâtir une démarche globale de gestion des
risques au sein d’une société d’assurances.

En s’appuyant ainsi sur une solution géodécisionnelle décrite précédemment, il apparait


désormais possible de relever les défis identifiés au début de notre propos :
- Être en mesure de mieux connaître son exposition afin de déterminer son niveau
d’engagement et ses besoins en fonds propres. Ce besoin fait appel au développement de
modèles intégrés à la gestion des risque de l’entreprise ;
- Être capable d’améliorer transversalement la gestion de ses risques, de la tarification à
la gestion sinistres en passant par la souscription avec la mise en place d’une démarche
Entreprise Risk Management.

3.1 Répondre aux défis posés par chaque étape du cycle de vie d’un processus ERM

III.3.1.i Mise en place d’une plateforme d’identification exhaustive des risques


et d’analyse d’exposition de portefeuille

Les sociétés d’assurances ont en interne des besoins opérationnels afin de gérer au mieux leurs
relations avec les assurés et leur garantir la meilleure protection. Pour cela il est nécessaire de
prendre en compte la distribution géographique des risques naturels afin de maîtriser son
exposition et d’éviter une trop forte concentration de valeurs financières dans une zone à risque
élevé.

Même si aujourd’hui il ne peut y avoir de politique de souscription ajustée en fonction du niveau


d’exposition, les évolutions à venir du contexte réglementaire doivent obliger les sociétés à
réfléchir sur une prise en compte de l’exposition.

Indépendant du régime juridique, les risques climatiques sont autant de risques à traiter en
respectant les lois fondamentales de l’assurance que sont :

- la nécessité de production : avoir le plus grand nombre d’assurés pour pouvoir mutualiser les
risques de façon plus aisée.

- l’homogénéité des risques : classifier les risques dans des catégories de tarifs homogènes,
majorer le tarif pour les risques les plus graves, refuser d’assurer les risques certains.

- la dispersion des risques : éviter que les risques se réalisent en même temps. Cette loi est
particulièrement vraie pour les risques naturels lorsqu’une quantité trop importante d’assurés se
trouvent dans une zone touchée par une catastrophe.

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


139
- la division des risques : éviter un trop gros risque dont le coût ne pourrait être compensé par les
primes. Cela signifie qu’il est nécessaire de n’accepter qu’une fraction acceptable du risque.

- La nécessité de filtrer les risques identifiés dans les zones exposées, par un canal de distribution
comme Internet

Figure 93 : Schéma de mise en place d’une plateforme géodécisionnelle transversale à l’ensemble des
entités métier Covéa concernées par la gestion des risques climatiques et technologiques.
Sources : C.DUMARTINET, Pôle Risques Majeurs, Groupe COVEA

Dans l’application de ces lois fondamentales, il apparaît nécessaire de piloter la souscription en


prenant en compte les caractéristiques géographiques non seulement de l’aléa mais aussi de
l’assuré et de l’ensemble du portefeuille de la société.

Par ailleurs l’assureur se doit aussi d’être force de proposition en matière de prévention ; il s’agit
de pouvoir orienter les ingénieurs préventionnistes vers les sites assurés les plus vulnérables afin
d’effectuer des visites d’expertises, d’analyser de façon détaillée le niveau de vulnérabilité aux
aléas naturels pour les entreprises mais aussi pour certaines catégories de particuliers.

III.3.1.ii Intégration de la gestion des risques et diffusion généralisée


de l’analyse spatiale

Distinction entre Systèmes d’Information Géographique et plateforme géodécisionnelle:

Comme présenté précédemment, l’incorporation d’une cartographie dynamique comme celle de


MapIntelligence dans une solution décisionnelle de type Qlikview pourrait porter à confusion et
laisser penser que des doublons sont possibles entre les SIG exploités dans les enseignes et une
solution géodécisionnelle explorée.

Il convient de rappeler que les Systèmes d’Information Géographiques (SIG) sont des technologies
proches du géodécisionnel mais non substituables, tant dans leur usage que dans la compatibilité
avec d'autres systèmes (décisionnels). Par exemple, un éditeur comme Pitney Bowes Business
Insight propose dans son catalogue une offre SIG avec MapInfo et une offre géodécisionnelle avec
MapIntelligence. Les 2 technologies ont des positionnements bien distincts et des utilisations
spécifiques.

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


140
En effet, les SIG servent de travail préparatoire aux analyses spatiales faites par un
géomaticien (d'un service géomarketing, d'analyse des risques, etc.) alors que le géodécisionnel
présente des fonctions de restitution et d'analyse cartographiques.

L’intérêt est ici de permettre à des non géomaticiens de mener des études spatiales en
restituant les développements géomatiques initialement développés avec un SIG tout en
apportant la capacité d'analyse et les fonctions d'un système décisionnel qui ne sont pas
présentes dans un SIG.
Par exemple, l’intégration des données internes dans le Datamart ou le traitement de couches
vectorielles sont autant de tâches qui peuvent être préparées par un géomaticien et intégrées
dans la plateforme. Ces opérations nécessitent une expertise spécifique. L’utilisateur de la
plateforme décisionnel, sans disposé de ce savoir-faire technique, peut bénéficier des travaux
préliminaires accomplis par le géomaticien et exploiter pleinement la plateforme géodécisionnelle
sans connaissance préalable en SIG ou retraitement de données.

Il est possible pour tout collaborateur, d’effectuer ces analyses spatiales quelque soit sa formation
ou ses fonctions exercées au sein de la société.
Les utilisateurs dont nous dessinerons les besoins dans les paragraphes suivants peuvent ainsi
exploiter la plateforme sans avoir à passer par la phase de préparation des bases de données et
par les étapes d’exploitation d’un SIG pour lesquelles une formation en géomatique est
indispensable. Cette facilité d’accès et la complémentarité de cette technologie permet par
conséquent une utilisation très large au sein de l’entreprise et de « démocratiser » l’usage de
l’analyse spatiale.

À ce titre, pour mener des études requérant des données géographiques et des bases de données
internes importantes, pouvoir déployer l'analyse d'exposition de portefeuille à l'ensemble des
métiers tout en améliorant la restitution de l'analyse au travers de tableaux de bord, un
département dédié à la gestion des risques, notamment climatiques et technologiques, doit
pouvoir s'appuyer à la fois sur des SIG et disposer d'une plateforme d'analyse géodécisionnelle.

2.1 Conception des produits, tarification et souscription

L’actuariat technique a pour principales activités :

- d'assurer la conception technique des produits (création de nouveaux produits ou adaptation de


produits existants) avec l'élaboration des formules et zoniers nécessaires à l'établissement des
tarifs ;
- d'assister les services opérationnels pour l'évaluation des risques, la conception des contrats, le
suivi statistique de la sinistralité, l'appréciation des risques financiers ;
- de mener des études de rentabilité et de prévision ;
- de détecter les sources de problèmes et de proposer des mesures correctrices ;
- de calculer les réserves mathématiques et les provisions techniques que la société doit
constituer ;
- de participer à l'élaboration des comptes et notamment des états réglementaires.

III.2.1.ii Conception/ adaptation de produits

• Définition de produits : les services d’actuariat technique ont besoin d’analyser les risques –
définir les garanties – concevoir les tarifs – élaborer les normes de tarification – définir les
méthodes de calcul et les procédures - prévoir les résultats.

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


141
Dans le cas ci-dessous, des risques géocodés sont extraits spatialement d’une plateforme
géodécisionnelle pour une analyse des profils d’assurés présents sur zone.
L’actuaire peut ainsi avoir accès aux données socio économiques intégrées dans la plateforme.
Une analyse spatiale permet de connaître par quartiers l’âge de la population, ses revenus, les
catégories socioprofessionnelles présentes sur la zone de souscription.

De plus, en fonction des données disponibles, il est possible d’afficher des informations sur l’âge
du bâti, éventuellement le coût d’acquisition des biens immobiliers au niveau de la rue.

En définissant une zone (en rouge sur l’écran ci-dessous), le profil des risques assurés est restitué
sous forme d’histogramme. L’utilisateur de la plateforme peut également associer la valorisation
de son portefeuille et ou la représentativité de ses assurés par rapport aux données intégrées
(exemple : valorisation des risques présents en fonction du prix au m2, ou répartition par types de
risques).

Figure 94 : Exemple de fonctionnalités d’analyses locales de risques. Source : Groupe COVEA

• Adaptation de produits : concevoir les outils d’analyse – réaliser les études techniques sur le
portefeuille - évaluer l’évolution des risques – proposer des adaptations en termes de tarification
et/ ou de garanties - assurer la maintenance du système de tarification – évaluer l’évolution des
résultats.

Une fois le produit conçu, les services d’actuariat technique ont en charge la réalisation d’études
techniques, le suivi de la sinistralité et de l’équilibre technique.

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


142
Sur la base des informations internes à l’entreprise (III. 2.3.i) intégrée dans le Datamart ou
émanant du Datawarehouse (III.1.2.i), un suivi peut être fait de la sinistralité d’un portefeuille ou
d’un produit en cours. Dans l’exemple ci-dessous, l’utilisateur peut, en fonction des paramétrages
opérés dans MapIntelligence décrits précédemment (III.1.2.i), faire afficher sur la cartographie
dynamique de l’outil, identifier par codes couleurs les codes postaux par produits présentant une
dégradation du rapport Sinistre/prime. Des seuils peuvent être définis dans l’outil. Sans être
géomaticien, la simple sélection des coûts moyens pour une garantie, un événement et une zone
définie permet d’identifier rapidement des « anomalies » et de localiser les actions correctives à
effectuer.

Figure 95 : Exemple d’analyse d’exposition d’un portefeuille et de sa sinistralité. Phase de sélection des
champs. Source : Groupe COVEA et PBBI

L’analyse spatiale présente pour intérêt, non seulement de repérer géographiquement des faits,
mais également de les expliquer.

Une analyse des résultats peut être menée au regard des facteurs exogènes aux portefeuilles.
Ainsi des sinistres dont les coûts moyens sont supérieurs à une moyenne définie sont restitués
dans leur environnement.
Pour illustrer notre propos, il peut être détectés que des risques souscripteurs à proximité d’une
Zone Urbaine Sensibles (ZUS) voient leurs sinistralités en incendies graves augmenter de façon
sensibles. De même, un retour d’expérience tempête peut montrer que les maisons individuelles
situées en zones boisées ont des taux de sinistralité et des coûts moyens plus importants que les
pavillons situés en zones périurbaines.

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


143
Figure 96 : Exemple d’analyse d’exposition d’un portefeuille et de sa sinistralité. Phase de visualisation
des risques et des sinistres en fonction des aléas sélectionnés. Source : Groupe COVEA et PBBI

III.2.1.ii Optimiser la souscription

La réduction d’une exposition à un aléa passe par la qualité de sélection de ses risques. Et la
sélection d’un risque de correspondre au niveau d’appétence pour le risque abordé
précédemment dans les chapitres concernant le pilier 2 de la Directive Solvabilité 2 et l’ERM.

Prenons l’exemple de l’inondation. Un modèle stochastique comme celui développé par JBA
permet d’attribuer une période de retour par rapport à des débits de fleuve. En fonction des
débits, sur la base de données géomorphologiques, la modélisation hydraulique estime
localement les zones inondées et les hauteurs d’eau associées. Ainsi, des zoniers sont définis ainsi
que leurs périodes de retour associées.

Une plateforme géodécisionnelle qui intégrerait les modèles hydrauliques et stochastiques


permettrait à une équipe de définir l’appétence aux risques de crues. Une sélection de la couche
sur MapIntelligence permettrait d’extraire le nombre de risques concernés.

En fonction des données de l’Insee sur le nombre de risques présent sur une zone, un assureur
qui estime localement sa part de marché peut convenir qu’au regard de ses fonctions propres, les
garanties de ses contrats, ses traités de réassurance, etc., le niveau d’exposition acceptable se
situe au niveau d’une crue cinquantennale.

Une autre compagnie d’assurance à l’appétence du risque plus affirmés pourrait admettre un
seuil de souscription aux risques n’étant pas situés dans des zones considérées comme
décennales par le modèle hydraulique.

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


144
Figure 97 : Exemple de fonctionnalités pour la souscription d’un risque. Source : Groupe Covéa / PBBI

De façon simple et intuitive, un actuaire peut ainsi, à condition de disposer de l’information


externe et de portefeuilles géolocalisés, faire de simulation de son exposition et définir des seuils
d’acceptabilité.

Dès lors que la règle de souscription est définie, l’accès des souscripteurs à la plateforme peut
permettre une analyse rapide de l’exposition du risque, notamment les risques industriels.

Le souscripteur visualise l’emplacement du risque et dispose d’un rapport d’exposition comme le


propose déjà aujourd’hui le SIGMRN.

Ainsi, une politique de souscription est facilitée et permet :

- de réduire les délais nécessaires. Les réponses aux propositions et les décisions devront être
prises dans des délais très courts ;

- de mettre à disposition une masse d'information importante et par conséquent, minimiser le


rôle des connaissances acquises nécessaires.

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


145
Figure 98 : Exemple de d’analyse d’exposition sur site d’un risque industrie par téléchargement d’un
rapport d’exposition de risque. Source : Groupe COVEA

Il sera facile, même si le souscripteur ne connaît pas un domaine, de disposer des informations
techniques, de statistiques, de fréquences, voire de disposer de l'assistance d'un expert situé à
l'autre bout du monde.

2.2 Maîtrise de l’exposition du portefeuille

III.2.2.i Surveillance de portefeuilles

Dans le cadre d’une politique de surveillance d’un portefeuille de risques professionnels, une
compagnie pourrait être amenée à extraire d’une plateforme les risques qui lui semblent
dépasser un niveau acceptable d’exposition et procéder à leur identification.

Sur cette base, le service en charge de la surveillance pourrait envisager des visites sur sites,
mieux définir une politique d’acceptation du risque correspondant à l’appétence de la société.

Suite à une vérification par des équipes de préventeurs d’une exposition trop élevée d’un site, des
mesures pourraient être envisagées au cas par cas :
- soit pour refuser d’assurer ou résilier le contrat si le niveau trop élevé d’exposition ne permet
pas une réduction de l’exposition par une politique de prévention

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


146
- soit la mise en place d’une politique de prévention. Un préventeur pourrait, en saisissant
l’adresse du risque, connaître la hauteur d’eau estimée par un modèle hydraulique et préconiser
l’élévation des stocks afin de diminuer les pertes d’exploitation en cas de survenance d’une crue.
- Dans l’hypothèse d’une évolution du régime CatNat, il pourrait être envisagé de pouvoir
moduler une surprime en fonction des aménagements de prévention intégrées ou non dans le
plan de construction.

III.2.2.ii Détermination des cumuls de risques par zones

Pour les besoins de la Directive Solvabilité 2 ou les besoins d’achats de capacité en réassurance,
une société d’assurances doit pouvoir estimer où se situent ses cumuls de risques et estimer
l’exposition maximale de son portefeuille à des aléas comme le risque de conflagration par
exemple.

À la question : quel est votre cumul de risques dans un rayon de 300 m par rapport à une usine
Seveso, la plateforme peut fournir une estimation des cumuls de risques pour une zone et/ou un
aléa donné.

L’intégration d’un portefeuille géocodé permet de détecter les cumuls de risques sur un territoire.
La superposition d’un aléa comme une zone inondable peut ainsi attirer l’attention du
souscripteur sur l’exposition d’un portefeuille donné à un aléa.

Figure 99 : Exemple de fonctionnalités d’extraction et d’analyses de cumuls de risques.


Source : Groupe COVEA

Les capacités d’analyse du géodécisionnel permettent, sur la base d’une analyse spatiale,
d’extraire avec le module décisionnel de la plateforme la liste des cumuls de risques, les détails
des risques et les informations associées.

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


147
Ainsi, cette étude contribue au calcul de la valorisation du portefeuille. Aux cumuls de risques en
volume peuvent être associées toutes les informations relatives aux risques assurés, notamment
les capitaux assurés, les franchises du contrat, etc.

De plus, la connaissance de son exposition à des périls donnés permet de mieux appréhender le
calcul des réserves obligatoires et d’adopter une approche interne plus adaptée à la réalité de
l’exposition des risques assurés par l’entreprise. Ainsi, nous rejoignons notre souci d’optimiser les
fonds propres au regard des calculs fournis par la formule standard (I.2.1.i).

2.3 Gestion des sinistres

III.2.3.i La plateforme géodécisionnelle : une aide à la gestion de crise

La pertinence d’un Système d’Information Géographique ou d’une solution géodécisionnelle sera


toujours dépendante de la qualité des données internes et externes qui alimentent l’analyse
spatiale.

Si nous partons de l’hypothèse que l’entreprise a géolocalisé son portefeuille de risques à


l’adresse et qu’elle dispose de données sur un aléa comme des données inondation par exemple,
il est possible d’envisager des applications pour la gestion sinistre d’un événement.

Figure 100 : Exemple de modélisation d’une crue et de l’exposition d’un portefeuille de risques
localement assurés. Source : Groupe COVEA

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


148
L’intérêt est ici d’identifier les zones impactées, de disposer rapidement d’information sur le
nombre de risques en portefeuilles et de prendre les mesures adéquates pour gérer l’événement
et venir en aide aux assurés.

En fonction des évaluations de dommages qui peuvent être réalisées par extraction des
risques assurés sur la zone impactée (avec toutes les limites exposées sur la modélisation,
II.3.3.i), des décisions peuvent être prises d’ouvrir une agence commerciale à proximité
pour accueillir les sinistrés et faciliter l’ouverture des dossiers.

C’est également la possibilité d’orienter les forces d’expertises salariées et libérales sur
les zones en fonction de critères comme l’intensité de l’événement, le concentration de
risques assurés ou des typologies de risques comme les résidences principales pour la
prise en charge du relogement des sinistrés.

Figure 101 : Exemple de restitution et d’analyse de sinistralité. Source : Groupe COVEA

III.2.3.ii Impact sur les calculs de provisions

La survenance d’un événement comme une tempête, outre les problématiques sinistres de
gestion de crise, pose le problème du provisionnement de l’événement, surtout lorsque ce
dernier survient en fin d’exercice comme c’est fréquemment le cas.

Là encore, le géodécisionnel peut permettre d’apporter des éclairages sur l’événement, les taux
d’endommagement et la volumétrie de sinistres attendus, la localisation des expertises mais aussi
sur les coûts moyens.

L’intérêt du géodécisionnel est de pouvoir associer des données très diverses, aux formats de
données hétérogènes et de pouvoir, sur la base d’une analyse spatiale, effectuer une analyse
poussée comme la répartition des coûts moyens attendus par départements en fonction des

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


149
données portefeuille, les sinistres d’événements passés, les normes de construction et les rafales
observées lors de la tempête.

Des rafales à 150 km/h provoqueront des taux de dommages naturellement supérieurs à des
vents plus faibles, mais la typologie des dommages sera également très différente. Pour des
dommages différents, l’impact sur le coût moyen peut ainsi varier de simple ou double suivant
qu’il s’agit de quelques tuiles arrachées avec des infiltrations d’eau.
De même, pour des vitesses de vent équivalentes sur 2 départements aux normes de
constructions différentes, une analyse spatiale s’appuyant sur des analyses de type OLAP (III.2.2.i)
à partir de données internes et externes complexes, permet une estimation plus fine des
provisions techniques qui peut contribuer à aider une direction technique à prendre les décisions
adéquates.

Figure 102 : Exemple de fonctionnalités d’analyses de sinistralité tempête. Source : Groupe COVEA

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


150
Conclusion

Les assureurs dommages sont aujourd’hui confrontés à un impact de plus en plus


significatif sur leurs résultats des risques majeurs (climatiques & technologiques). Face à
la recrudescence de ces risques et à leurs perspectives défavorables, les compagnies
d’assurance devront revoir de façon radicale la maitrise de leur exposition à ces risques et
plus généralement la gestion de leurs risques ; d’autant que le cadre juridique et
prudentiel les y contraints (Directive Solvabilité 2, Catnat).

2 défis se présentent aux assureurs :


- Etre en mesure de mieux connaître leur exposition afin de déterminer son niveau
d’engagement et leurs besoins en fonds propres. Ce besoin fait appel au développement
de modèles.
- Etre capable d’améliorer transversalement la gestion de leurs risques, de la tarification
à la gestion sinistres en passant par la souscription avec la mise en place d’une démarche
Entreprise Risk Management.

La modélisation interne et l’Entreprise Risk Management (ERM) est une révolution des
esprits autant que des structures. Aucune entreprise d’Assurances ne pourra demain faire
l’économie d’une organisation performante du contrôle de son exposition aux risques. A
terme, cela signifie que des modèles internes seront nécessaires, pour définir et
démontrer le contrôle de cette exposition, au-delà des obligations créées par la Formule
Standard (SCR). Elle offre en outre des perspectives considérables d’amélioration de la
qualité du management, bien au-delà des sécurités sur la solvabilité.

L’exposition aux risques majeurs de l’Assureur ne s’arrête évidemment pas à la


couverture des risques qu’il accepte, mais bien à l’ensemble de son activité, y compris les
conditions de cette acceptation.
L’ERM est le fondement de l’action du management d’entreprise, notamment parce qu’il
engage la responsabilité des membres du Conseil d’Administration, influe sur la notation
des Agences et fonde le contrôle des autorités françaises (ACP) et européennes.

Définir « l’appétit pour le risque » de l’entreprise est l’acte fondateur de l’ERM. Cet
appétit se définit dans la logique de Solvabilité II, en termes d’exposition des fonds
propres de l’entreprise mais aussi d’aversion aux risques. Cela revient à définir la part des
fonds propres perdus ou la perte d’exploitation maximale tolérable, dans le cas d’une
année marquée par de nombreux sinistres, compte tenu des protections tirées de la
réassurance. Cela revient aussi, et ce sera sans doute la conséquence majeure de
Solvabilité II, à définir le portefeuille de souscription de manière optimale par rapport au
niveau des fonds propres et à la marge de solvabilité disponible, sous une contrainte de
résultat d’exploitation attendu, de rémunération du capital (ROE). Les besoins optimaux
de fonds propres et de marges de solvabilité sont mesurés en fonction du portefeuille de
souscription. A contrario, c’est une analyse d’exposition de portefeuilles qui permet de
déterminer les besoins en fonds propres.

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


151
Plus que jamais, les systèmes d’information seront impliqués dans l’évaluation, la
tarification, la réassurance des risques. L’ERM et Solvabilité II imposeront aux entreprises,
même non cotées, des obligations de transparence et de reporting qui nécessiteront des
systèmes d’information plus centralisés et plus sophistiqués.

Le constat couramment partagé a été posé du manque d’outils robustes en France pour
l’évaluation des risques majeurs dans l’assurance dommages, de proposer des solutions
techniques permettant le développement d’outils répondant spécifiquement aux besoins
des assureurs dommages en France, tant sur la maîtrise d’exposition de portefeuille, que
la mise en place d’un ERM pour améliorer la gestion des risques au niveau de l’ensemble
de métier d’un compagnie.

La piste technologique pressentie réside dans les solutions géodécisionnelles. Le


géodécisionnel se définit comme une discipline technologique regroupant l’ensemble des
moyens, outils et méthodes permettant de collecter, consolider, modéliser et restituer
des données en vue d’offrir des capacités d’analyse globales et détaillées dans l’espace et
dans le temps. Ces systèmes reposent sur une méthode de modélisation dite spatiale
multidimensionnelle.

Le terme de Système d’Information Géographique intelligent est utilisé comme synonyme


du terme géodécisionnel.

Du fait du caractère spatialisé des risques naturels et technologiques, tout outil d’analyse
ne peut s’affranchir de la composante géographique des biens exposés (enjeux) et des
dangers naturels (aléas). Les risques naturels sont ceux ayant la plus forte dépendance
géographique, comme en témoignent les nombreux ouvrages dédiés à la gestion spatiale
des risques naturels et les outils exploitant l’information géographique.

La gestion des risques climatiques et technologiques nécessite d’analyser un certain


nombre d’indicateurs sur la vulnérabilité des enjeux (les biens, les personnes, les activités)
susceptibles d’être affectés par la survenance d’un ou de plusieurs aléas. Les indicateurs
sont consolidés à partir de la confrontation de données ayant des contenus homogènes,
associant des composantes géographiques et non géographiques, provenant de plusieurs
sources différentes. Le croisement des données sur les aléas et sur les enjeux permet
d’obtenir un premier diagnostic sur la vulnérabilité et d’en déduire les pertes financières.
La composante géographique est essentielle à prendre en compte pour pouvoir réaliser
ces croisements. Que ce soit pour la caractérisation des aléas comme des enjeux, il y a
une représentation géographique associée : un aléa est caractérisé par une emprise
géographique et une intensité variable d’une zone à une autre du bassin de risques
étudiés les enjeux sont caractérisés par une localisation et une distribution spatiale sur le
territoire.

L’exploration de ces indicateurs sous-tend la manipulation d’un volume important


d’informations géographiques et non géographiques. Une vision complète des
phénomènes nécessite de pouvoir étudier les valeurs des indicateurs à des échelles
détaillées comme à des échelles agrégées au travers de vues de synthèse ; le passage
d’une échelle géographique détaillée comme une parcelle cadastrale à une échelle

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


152
nationale implique une capacité à gérer de gros volumes de données. Les modes de
stockage et d’interrogation des indicateurs doivent permettre de restituer à l’utilisateur
les résultats de la façon la plus pragmatique possible.

Les Systèmes d’Information Décisionnels (SID), utilisés au sein des systèmes d’information
d’entreprise, permettent aux décideurs d’accéder à des fonctionnalités d’analyse et de
reporting à partir de données collectées dans les diverses sources de données distribuées
dans le système d’information de l’entreprise. Les SID sont entendus comme l’ensemble
des moyens, des outils et des méthodes qui permettent de collecter, consolider,
modéliser et restituer les données d’une entreprise en vue d’offrir une aide à la décision
et de permettre aux responsables de la stratégie d’une entreprise de voir de façon
synthétique l’ensemble de l’activité traitée. Ils reposent sur une méthode de modélisation
de données dite multidimensionnelle permettant de construire des structures de
données orientées par thème afin de pouvoir explorer et analyser les données pour la
prise de décision.

Afin de répondre à des problématiques d’entreprise ayant une composante géographique,


certains systèmes décisionnels tentent de se doter d’extensions géographiques en
intégrant des fonctionnalités propres aux sciences de la géomatique.

Celle-ci est entendue comme l’ensemble des méthodes et outils permettant de


représenter, d’analyser et d’intégrer des données géographiques autour de trois activités
que sont la collecte, le traitement et la diffusion.

Ainsi, le géodécisionnel a été proposé comme piste technologique exploratoire pour


apporter des réponses aux problématiques transversales de l’ensemble des métiers d’une
société d’assurances exposée aux risques majeurs.

Les systèmes d’information Géodécisionnels (SIGD) sont une technologie émergente qui
n’a pas encore fait l’objet d’une véritable appropriation par le monde économique des
entreprises tout spécialement le secteur de l’assurance dommages.
Cette technologie tend à apporter une réponse opérationnelle à la gestion qualitative des
risques, par une analyse spatiale et multidimensionnelle de portefeuilles de risques,
rendant possible la mise en place d’un ERM au sein d’une compagnie d’assurances non
vie.

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


153
Table des matières

Partie 1 : Les assureurs dommages, confrontés à des évolutions majeures,


sont contraints de revoir leur approche en matière de gestion des
risques

Chapitre 1 : L’assurance dommage voit son exposition croissante aux risques


majeurs

1.1 Diagnostic de vulnérabilité des risques majeurs sur les portefeuilles d’assurance
dommages
I.1.1.i Risques climatiques : définition du périmètre d’étude et analyse chiffrée de l’impact 7
I.1.1.ii Évolution des fréquences et de l’intensité des risques majeurs 14

1.2 Impacts sur le marché français de l’assurance dommages et perspectives d’évolution


I.1.2.i Impacts des événements climatiques sur la sinistralité 16
I.1.2.ii Les projections imposent aux assureurs des adaptations face à la survenance
d’événements d’ampleur 18

1.3 Pour faire face à ce constat, les stratégies de transfert de risques se développent
I.1.3.i La réassurance traditionnelle 23
I.1.3.ii Les Cat Bonds : vers une nouvelle couverture des risques 23

Conclusion Chapitre 1 25

Chapitre 2 : Les évolutions législatives et réglementaires contraignent


les assureurs à mieux maîtriser leurs expositions face aux risques majeurs

2.1 Vers une réforme à moyen terme du régime Catnat pourrait changer la donne
I.2.1.i Le système d’assurance « catastrophes naturelles » en France 26
I.2.1.ii Anticiper un désengagement possible de l’État 29

2.2 Les nouveaux besoins de marges de Solvabilité 2 introduit une approche globale des
risques et de l’exposition d’une compagnie d’assurance
I.2.1.i Solvabilité II présente une approche globale de l'appréciation des risques 32
I.2.1.ii Maîtriser la marge par une politique globale de gestion des risques 34

2.3 Prochaine étape : une approche qualitative de la gestion des risques amènera les
assureurs à revoir profondément la gestion des risques
I.2.3.i L’ORSA (Own Risk and Solvabilité Assessment): vers le développement
d’une culture de la gestion de risque 38
I.2.3.ii Passer du modèle standard au développement d’un modèle interne 39

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


154
Chapitre 3 : Pour relever ces défis et améliorer la gestion des risques, les
assureurs doivent entreprendre une démarche structurante : imaginer et
mettre en place l’Entreprise Risk Management (ERM) dédié à l’assurance
dommage

3.1 L’Entreprise Risk Management (ERM) : une démarche fondamentale à laquelle


devront se conformer les assureurs
I.3.1.i Définition de l’Entreprise Risk Management 40
I.3.1.ii ERM & Solvabilité 2 : une démarche de gestion qualitative des risques 41

3.1 Axes de développement stratégiques d’un assureur confronté au renforcement de la


gestion de risque et la maîtrise d’exposition d’un portefeuille
I.3.2.i Structuration de la démarche de gestion des risques par le référentiel COSO 42
I.3.2.ii Identification et évaluation des risques 44

3.3 Intégrer les risques et leur gestion au pilotage de l’activité de l’entreprise d’assurance
I.3.3.i Analyser l’exposition d’un portefeuille de risques au vu de ses caractéristiques
propres et de son environnement externe 46
I.3.2.ii Intégrer l’analyse du risque à l’ensemble des métiers 47

Conclusion de la 1ère partie 49

Partie 2 : Le développement de technologies comme la géomatique permet


d’apporter des solutions de nouvelles générations plus adaptées à la
maîtrise d’exposition de portefeuilles Dommage

Chapitre 1 : Mesures d’exposition de portefeuilles : des solutions de marché


répondent partiellement aux besoins de sociétés d’assurance

1.1 Les modèles de marché : une 1ère réponse à l’évaluation d’exposition de portefeuilles
II.1.1.i Benchmark des modèles de marché RMS, EQECAT, AIR: l’approche traditionnelle issue
des besoins en réassurance 50
II.1.1.i Limites de ces “Black boxes” 51

1.2 Des initiatives de marchés : nécessaires mais pas suffisantes pour apporter une
réponse holiste à la gestion des risques d’une société d’assurance non vie
II.1.2.i Des apports en matière d’information et de lobbying
sur le champ non concurrentiel 52
II.1.2.ii Les efforts fournis par les acteurs de la réassurance par la production de modèles ne
permettent toutefois pas de répondre aux besoins spécifiques des sociétés
d’assurance en matière de gestion globale des risques 57

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


155
1.3 Outils internes Vs outils de marché : des attentes d’outils propres à chaque
portefeuille et dédié aux besoins spécifiques de chaque assureur
I.1.3.i Le processus d’approfondissement de la gestion des risques passe par
une appropriation des risques via des outils/modèles internes 63
I.1.3.ii Valoriser les données propres à un portefeuille au regard d’éléments externes pour
une meilleure analyse d’exposition aux risques majeurs 64

Chapitre 2 : La géomatique : une nouvelle approche de l’analyse d’exposition


de risques et une première réponse technologique aux développements
d’outils internes

2.1 Intérêt des Systèmes d’Information Géographiques (SIG) pour l’appréhension spatiale
d’un portefeuille de risques
II.2.1.i Les SIG permettent l’intégration des données hétérogènes et leurs analyses spatiales 67
II.2.1.ii La géolocalisation des portefeuilles permet d’intégrer le risque dans son
environnement78

2.2 Contribution des SIG à la modélisation d’exposition aux risques majeurs


II.2.2.i Contribution de la géomatique à la modélisation des risques 82
II.2.2.ii Traitements et analyse de données portefeuille nécessaires à la modélisation Cat 84

2.3 Initiatives sur le marché français


II.2.3.i La modélisation des catastrophes en France : la CCR 85
II.2.3.ii Coventéo : initiative d’un assureur français 87

Chapitre 3 : Opportunités de développement de modèles internes pour un


assureur

3.1 Apprentissage des SIG dans une compagnie d’assurance


II.3.1.i La problématique de l’introduction des SIG dans les organisations 91
II.3.1.ii Schéma d’apprentissage des SIG par les assureurs 93

3.2 Opportunités pour un assureur de disposer de modèles/outils internes


II.3.2.i Challenger les modèles de marché & apprentissage de la gestion des risques 94
II.3.2.ii Une initiative commune : la société PERILS 97

3.3 Limites et perspectives à l’élaboration de modèles


II.3.3.i Difficultés techniques de modélisation l’exposition d’un risque 98
II.3.3.ii Incertitudes inhérentes aux modèles : « We make models, men make decisions » 104

Conclusion de la 1ère et 2nde parties 108

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


156
Partie 3: Le géodécisionnel permet la mise en place d’une véritable
démarche ERM par un management transversal de la gestion des risques

Chapitre 1 : Partage des connaissances internes : pour une meilleure gestion


plus transversale des risques chez un assureur

1.1 Nécessité d’accroître le rôle de l’Intelligence Économique au sein d’une compagnie


d’assurance
III.1.1.i Enjeux de la maîtrise de l’information dans la maîtrise des risques 110
III.1.1.ii Apports de l’IE pour un assureur 112

1.2 Les Systèmes d’Information Décisionnels et leur exploitation actuelle


III.1.1.ii Aide à la décision et renforcement du pilotage de branches d’activité
(processus OLAP) 114
III.1.1.ii Fonctions essentielles de l'informatique décisionnelle 116

1.3 Conditions pour la mise en place d’une culture ERM au sein de la compagnie
d’assurance
III.1.3.i Facteurs clés pour la mise en place d’une démarche ERM 117
III.1.3.ii Efforts à produire et culture ERM 120

Chapitre 2 : Le géodécisionnel : une solution émergente dans la gestion des


risques d’un assureur

3.1 Définition du concept de géodécisionnel


III.2.1.i Définition du Géodécisionnel (SIGD): un couplage entre les Systèmes d’Information
Décisionnels (SID) et les Systèmes d’Information Géographiques (SIG) 122
III.2.1.i Les concepts clés de la visualisation d’un SIGD 123

3.2 SIGD : capacité à combiner les composantes multidimensionnelles et les composantes


géographiques pour développer l’aide à la décision

III.2.2.i Requêtages et analyse spatiale : le Spatial OLAP 124


III.2.2.ii Exploitation du Spatial OLAP au travers des tableaux de bord 126

3.3 Couplage entre un SIG et un SID : démonstration de l’intégration de données


III. 2.3.i La démarche d' « Implémentation » d’un SIGD 128
III. 2.3.ii Appropriation technologique sur une plateforme expérimentale 137

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


157
Chapitre 3 : Intérêt transversal à l’ensemble des métiers d’une société
d’assurance

3.1 Répondre aux défis posés par chaque étape du cycle de vie d’un processus ERM

III.3.1.i Mise en place d’une plateforme d’identification des risques et d’analyse globale
d’exposition de portefeuille 139
III.3.1.ii Intégration de la gestion des risques et diffusion généralisée de l’analyse spatiale au
sein de l’entreprise 140

2.1 Conception des produits, tarification et souscription


III.2.1.i Conception/ adaptation de produits 141
III.2.1.ii Optimiser la souscription144

2.2 Maîtrise de l’exposition du portefeuille


III.2.2.i Surveillance de portefeuilles 146
III.2.2.ii Détermination des cumuls de risques par zones 146

2.3 Gestion des sinistres

III.2.3.i La plateforme géodécisionnelle : une aide à la gestion de crise 147


III.2.3.ii Impact sur les calculs de provisions 149

Conclusion 151

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


158
Table des illustrations

Figure 1 : Nombres de catastrophes naturelles de 1990 à 2010, Source : Munich Re Topics


Geo 2010 ............................................................................................................................... 8
Figure 2 : Géocodage des risques assurés par GMF Assurances, Source : Covéa................. 8
Figure 3 : Principaux événements majeurs en France depuis 1999, Source : FFSA 2012... 10
Figure 4 : Étendues des tempêtes, Source : Coventéo, Groupe Covéa .............................. 10
Figure 5 : Trajectoires de tempêtes sur la France, Source : La Chaîne Météo ................... 11
Figure 6 : Caractéristiques d’une crue par débordement : Source : Prim.net, Ministère de
l’Ecologie et du Développement Durable ........................................................................... 11
Figure 7 : La typologie d’inondation retenue en France, Source : Prim.net, Ministère de
l’Ecologie et du Développement Durable ........................................................................... 11
Figure 8 : Exposition au risque inondation en France, Source : Prim.net, Ministère de
l’Ecologie et du Développement Durable ........................................................................... 12
Figure 9 : Schéma de retrait / gonflement des argiles, Source : Prim.net, Ministère de
l’Ecologie et du Développement Durable ........................................................................... 12
Figure 10 : Cartographie du risque de subsidence en France, Source : BRGM................... 13
Figure 11 : Cartographie de sismicité en France, Source : Prim.net ................................... 13
Figure 12 : Schéma d’endommagement par la sismicité, Source : Prim.net, Ministère de
l’Écologie et du Développement Durable .......................................................................... 13
Figure 13 : Schéma de conflagration, Source : Prim.net, Ministère de l’Ecologie et du
Développement Durable ..................................................................................................... 14
Figure 14 : Nombre de catastrophes naturelles classées comme « grandes » et «
dévastatrices de 1980 à 2010. Source : Munich Re Topics Geo 2010 ................................ 15
Figure 15 : Coûts des catastrophes naturelles classées comme « grandes » et «
dévastatrices » en dollar constant. Source : Munich Re Topics Geo 2010 ......................... 15
Figure 16 : Répartition des coûts par typologies d’événements naturels. Source : FFSA,
avril 2009 ............................................................................................................................. 17
Figure 17 : Répartition des dommages par branches entre des inondations et des
tempêtes, Source : Argus de l’assurance, février 2011, chiffres Géma / FFSA .................. 17
Figure 18 : Poids relatifs des principaux événements naturels en France. Source : Argus de
l’assurance, février 2011, chiffres Géma / FFSA ................................................................. 18
Figure 19 : Coûts des catastrophes naturelles relevant du régime Catnat et des tempêtes
en millions d’euros constants. Source : Argus de l’assurance, février 2011, chiffres Géma /
FFSA ..................................................................................................................................... 18
Figure 20 : Facteurs d’impacts sur les coûts indemnitaires. Etude relative à l’impact du
changement climatique et de l’aménagement du territoire sur la survenance
d’événements naturels en France, Source: FFSA 2010....................................................... 20
Figure 21 : Part des réassureurs dans l’assurance des catastrophes, Sources : Insurance
Information Institute, Avril 2008......................................................................................... 23
Figure 22 : Résultats techniques de la CCR. Source : Rencontres GEMA – FFSA – CCR,
septembre 2009 .................................................................................................................. 26

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


159
Figure 23 : Évolution des primes et des sinistres pour le marché avant et après
réassurance. Source : IGF, 2005 .......................................................................................... 27
Figure 24 : Évolution du nombre de dossiers CatNat et de leur coût moyen. Source : CCR
pour IGF, 2005..................................................................................................................... 28
Figure 25 : Cartographie de la fréquence des sinistres effectuées à par des données de la
FFSA, Source: J. CHEMITTE .................................................................................................. 28
Figure 26 : Source : Emmanuel DUBREUIL, Guy Carpenter ................................................ 32
Figure 27 : Illustration de l’approche « Footprint », Source : Guy Carpenter 2011 ........... 33
Figure 28 : Exemple des taux de dommage pour le vent, Source : Emmanuel DUBREUIL,
Institut des actuaires........................................................................................................... 33
Figure 29 : Facteurs d’endommagement tempête par département retenus dans le QIS 5,
Source : Guy Carpenter ....................................................................................................... 34
Figure 30 : Synthèse de la gestion des risques mise en place dans l’entreprise, Institut des
Actuaires, mai 2011............................................................................................................ 36
Figure 31 : Principes fondateurs de l’ORSA : renforcer le dispositif et la culture de gestion
des risques. Source : Actuaris............................................................................................. 43
Figure 32 : Le cube COSO 2. Source: PriceWaterHouseCoopers ........................................ 44
Figure 33 : Le processus ERM, Source : Actuaris................................................................. 46
Figure 34 : Classification des risques en assurance non-vie. Source : Guy Carpenter........ 47
Figure 35 : Intégration transversale du risque au sein d’une société d’assurance non vie.
Source : C.DUMARTINET, Groupe COVEA ........................................................................... 49
Figure 36 : Comparaison des modèles de marché. Source : Groupe COVEA...................... 53
Figure 37 : Copie d’écran du portail Cartorisque. Source : Groupe COVEA........................ 54
Figure 38 : Base de données Gaspar, juillet 2009 - IGN, BD Carto© limites communales,
Source : MEEDDM ............................................................................................................... 55
Figure 39 : Copie d’écran du SIGMRN. Source Groupe COVEA........................................... 57
Figure 40 : Données argiles du BRGM exploitées par Guy Carpenter, Source : Guy
Carpenter, 2009................................................................................................................... 59
Figure 41 : Modélisation des inondations par JBA pour le compte de Guy Carpenter,
Source : Guy Carpenter, 2009 ............................................................................................. 59
Figure 42 : Comparaison des données hydrauliques disponibles sur les portails publics
(Cartorisque, SIGMRN) et les données hydrauliques issues de développements privés (JBA
pour Guy Carpenter). Source: Group COVEA...................................................................... 61
Figure 43 : Étapes clés du traitement des données reçues par la CCR. Source : J. CHEMITTE
............................................................................................................................................. 62
Figure 44 : Copie d’écran du site Cérès(CCR). Source : Groupe COVEA.............................. 63
Figure 45 : Schéma de principe des SIG de J. DENEGRE J. et F. SALGE, 1996, Source :
J.CHEMITTE.......................................................................................................................... 69
Figure 46 : Les différents types d’usage des SIG et le cycle de vie d’une application,
Source : J.CHEMITTE............................................................................................................ 69
Figure 47 : Typologies d’utilisateurs selon M. RIEDO, Source : C.DUMARTINET ................ 70
Figure 48 : Illustration de données pouvant servir dans l’analyse d’un portefeuille de
risques aux aléas climatiques et technologiques ; Source : C. DUMARTINET .................... 70

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


160
Figure 49 : Exemple de format Raster : en orange les zones périurbaines, en rouge les
zones urbaines, en noir les routes départementales. Source : l’outil Covigéo, Groupe
COVEA.................................................................................................................................. 73
Figure 50 : Exemple d’objets vectoriels. Source : Géoportail, IGN ..................................... 74
Figure 51 : Exemple de superposition de formats raster et vectoriels. Source : Covigéo,
Groupe COVEA .................................................................................................................... 74
Figure 52 : Exemple de croisements de données. Source : C. DUMARTINET ..................... 75
Figure 53 : Proportion d’endommagement par typologies de risques. Source : Groupe
COVEA.................................................................................................................................. 76
Figure 54 : Croisement de données externes et internes dans un SIG. Source : C.
DUMARTINET....................................................................................................................... 77
Figure 55 : Exemple de géocodage de risques. Source : Territoires & Marketing.............. 79
Figure 56 : Un exemple de fichier d’adresse géocodé. Source : Groupe COVEA................ 80
Figure 57 : Géocodage d’un objet sur le territoire français par ses coordonnées (x ;y) dans
un repère Lambertien. Source : M. RIEDO.......................................................................... 80
Figure 58 : Géocodage statistique d’objet au département. Source : M. RIEDO ............... 81
Figure 59 : Modélisation de l’exposition : méthodologie d’analyse. Source : Emmanuel
LEBLANC, AMRAE 2008 ....................................................................................................... 83
Figure 60 : Rappel méthodologique d’une modélisation, Source : C. DUMARTINET ......... 86
Figure 61 : Crue du Rhône en 2003, coût historique de cet événement pour le marché par
commune, Source : E risks, CCR .......................................................................................... 87
Figure 62 : Méthodologie adaptée à la modélisation tempête, Source : Groupe COVEA.. 89
Figure 63 : Endommagement d’un portefeuille de risques spécifique aux caractéristiques
du bâti français. Source : Coventéo, Groupe COVEA .......................................................... 90
Figure 64 : Système d’Information & organisation. Source : J.CHEMITTE d’après
T.JOLIVEAU .......................................................................................................................... 92
Figure 65 : Comparaison des taux de destructions entre les modèles de marché et le
modèle standard QIS 5. Source : Emmanuel DUBREUIL, Institut des actuaires, 2011) ...... 96
Figure 66 : Comparaison des montants simulés pour un événement 200al simulé par
chacun des 3 modèles de marché et pour le QIS 5, en milliards €. Source : Emmanuel
DUBREUIL, Institut des actuaires, 2011 .............................................................................. 97
Figure 67 : Modélisation a posteriori de Xynthia. Emmanuel DUBREUIL, Guy Carpenter
2011..................................................................................................................................... 99
Figure 68 : Couverture de réassurance sur base PERILS, Source : Guy Carpenter ............. 99
Figure 69 : Représentation schématique d’une fonction de vulnérabilité d’un bâtiment
(Source : J.CHEMITTE d’après les travaux de J. TOOTHILL)............................................... 101
Figure 70 : Comparaison des primes de risque pure pour un péril donné proposé par 3
modèles de marché. Source : Partner Ré.......................................................................... 106
Figure 71 : Les problématiques clés de l’Intelligence économique
Source : L. GUERAUD......................................................................................................... 111

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


161
Figure 72 : Le cycle de l’information : de la surveillance à l’utilisation opérationnelle.
Source : L.GUERAUD.......................................................................................................... 112
Figure 73 : Segmentation des enjeux avec et sans Intelligence économique. Source : L.
GUERAUD .......................................................................................................................... 113
Figure 74 : Architecture décisionnelle fondée sur un entrepôt de données, Source : J.IRIS
........................................................................................................................................... 117
Figure 75 : Critères de mise en place d'un contrôle interne et d'une gestion des risques.
Source : INGEA / La Tribune .............................................................................................. 118
Figure 76 : Capability Maturity Model framework.
Source: CARNEGIE MELLON UNIVERSITY, 1993 ................................................................ 119
Figure 77 : Compréhension des éléments clés de l’ERM par PWHC.
Source : L. GUERAUD......................................................................................................... 119
Figure 78 : Interaction entre l'activité métier et le "Risk Management" d’après PWHC.
Source : L. GUERAUD......................................................................................................... 120
Figure 79 : Mise en place des outils et méthodologies d'évaluation qualitative des risques
par PWHC. Source : L. GUERAUD ...................................................................................... 121
Figure 80 : Exemple d’une plateforme géodécisionnelle développée par Pitney Bowes
Business Inside pour les besoins du pilote mené par le Pôle Risques majeurs de Covéa.
Source : Groupe COVEA.................................................................................................... 123
Figure 81 : L’analyse d’exposition de portefeuilles aux risques majeurs comporte 2
approches complémentaires: SIG et SID. Le géodécisionnel propose de combiner les
avantages de chaque approche. Source : Université de Laval.......................................... 125
Figure 82 : Schéma des étapes de la démarche d’implémentation d’une solution
géodécisionnelle. Source: Groupe COVEA ........................................................................ 128
Figure 83 : Exemple d’un fichier sinistres en MRH. Source : Groupe COVEA ................... 129
Figure 84 : Modélisation OLAP de bases de données portefeuilles. Source : Groupe COVEA
........................................................................................................................................... 130
Figure 85 : Étape de chargement des bases dans Qlikview. Source : Groupe COVEA...... 131
Figure 86 : Étape de jointure entre bases de données. Source : Groupe COVEA............. 132
Figure 87 : Étape de configuration de l’outil cartographique de l’assistance
MapIntelligence. Source : Groupe COVEA ........................................................................ 132
Figure 88 : Paramétrage de MapIntelligence : Calcul du coût moyen par Code Postal d’un
sinistre tempête et représentation thématique dans la cartographie dynamique de
MapIntelligence. Source : Groupe COVEA ....................................................................... 133
Figure 89 : Configuration de l’interface utilisateur avec les listes de données internes
Source : Groupe COVEA .................................................................................................... 135
Figure 90 : Configuration de l’interface utilisateur avec les listes de données externes
Source : Groupe COVEA .................................................................................................... 135
Figure 91 : Configuration de l’interface utilisateur avec les Charts (jauges,
histogrammes, compteurs, cartographique dynamique MapIntelligence, etc.)
Source : Groupe COVEA .................................................................................................... 136
Figure 92 : Visualisation de la plateforme géodécisionnelle développée par Pitney Bowes
Business Insight pour les besoins du pilote mené par le Pôle Risques majeurs de Covéa.
Source : Groupe COVEA .................................................................................................... 137

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


162
Figure 93 : Schéma de mise en place d’une plateforme géodécisionnelle transversale à
l’ensemble des entités métier Covéa concernées par la gestion des risques climatiques et
technologiques. Sources : C.DUMARTINET, Pôle Risques Majeurs, Groupe COVEA ........ 140
Figure 94 : Exemple de fonctionnalités d’analyses locales de risques
Source : Groupe COVEA .................................................................................................... 142
Figure 95 : Exemple d’analyse d’exposition d’un portefeuille et de sa sinistralité. Phase de
sélection des champs. Source : Groupe COVEA et PBBI ................................................... 143
Figure 96 : Exemple d’analyse d’exposition d’un portefeuille et de sa sinistralité. Phase de
visualisation des risques et des sinistres en fonction des aléas sélectionnés. Source :
Groupe COVEA et PBBI...................................................................................................... 144
Figure 97 : Exemple de fonctionnalités pour la souscription d’un risque. Source : Groupe
Covéa / PBBI ...................................................................................................................... 145
Figure 98 : Exemple de d’analyse d’exposition sur site d’un risque industrie par
téléchargement d’un rapport d’exposition de risque. Source : Groupe COVEA .............. 146
Figure 99 : Exemple de fonctionnalités d’extraction et d’analyses de cumuls de risques.
Source : Groupe COVEA .................................................................................................... 147
Figure 100 : Exemple de modélisation d’une crue et de l’exposition d’un portefeuille de
risques localement assurés. Source : Groupe COVEA....................................................... 148
Figure 101 : Exemple de restitution et d’analyse de sinistralité.
Source : Groupe COVEA .................................................................................................... 149
Figure 102 : Exemple de fonctionnalités d’analyses de sinistralité tempête
Source : Groupe COVEA .................................................................................................... 150

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


163
Bibliographie

ACAM ; Principaux enseignements de QIS 5 ; Analyses et synthèses

Actuaris, Comment mettre en place et conduire un processus ERM ? Congrès IA, le 23 Juin 2010

ASSOCIATION ACTUARIELLE INTERNATIONALE, Enterprise Risk Management“All of life is the


management of risk, not its elimination” Walter Wriston, former chairman of Citicorp October 1,
2008 Stuart Wason FSA, FCIA

AH-CHUNG, Benfield, Comparaison of Catastrophe Modelling tools, september 2007

Augros et M. Querel, 2001, Les dérivés climatiques et naturels : de nouvelles opportunités pour les
investisseurs. http//www.cdcixis-cm.com/Federal/TauxEtChange/doc/derives_climatiques.pdf

AIR Catastrophe Modeling : http://www.airworldwide.com/_Public/html/catmodeling.asp

AMRAE, Modélisation des Risques : Enjeux et Couvertures des Catastrophes Naturelles, Deauville
2008

AMRAE, Panorama Systèmes d’Information de Gestion des Risques, 2009

Aon Benfield, Event Recap Report, Windstorm Klaus – Jan. 23-24, 2009

Aon Global Risk Consulting, Enterprise Risk Management : intégrez la gestion des risques au cœur
du pilotage de vos activités, 2011

Aon Global Risk Consulting ; Solvabilité 2 : les assureurs à l’épreuve du deuxième pilier et de
l’ORSA ; 2010

BECK, La société du risque sur la voie d’une autre modernité, Flammarion, octobre 2003

BENFIELD PARIS – Renouvellement des programmes de réassurance Tempête en France, ETUDE


2008

BOUCHET, Intelligence économique et gestion des risques, entretien avec Alain JUILLET

BORDIN ; SIG concepts, outils et données. Lavoisier, 2002,

CAREY, "Storm Warnings: Extreme Weather Is a Product of Climate Change ", Scientific American,
28 juin 2011

CCSF : Consultation publique - projet de réforme du régime d'indemnisation des catastrophes


naturelles

CARON, Cadre descriptif des projets d’implantations de technologies géomatiques dans les
organisations, CGR, Université de Laval, 1996

CCR ; Présentation à l’AFPCN, Le retour d’expérience à la CCR, 20 mars 2007

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


164
CLASTOT, Mise en œuvre du géodécisionnel, Département d’Enseignement et de Recherche en
Informatique & Technologies Urbaines, avril 2008

CHEMITTE, Adoption des technologies de l’information géographique et gestion des


connaissances dans les organisations, 2008

CHEMITTE ; Adoption des technologies de l’information géographique et gestion des


connaissances dans les organisations, 2008

CHIROIU, Modélisation de dommages consécutifs aux séismes. Extension à d’autres aléas naturels.
Janvier 2004

CEIOPS, CP 52: Draft L2 Advice on SCR Standard Formula – Reinsurance mitigation

CHARBONNIER, Pratique du Risk Management, Argus, 1983

CHARBONNIER ; BRIANT, Impact du changement climatique sur les assurances, ENPC 2008

DENEGRE J., SALGE F., Les Systèmes d’Information Géographique, PUF, coll. Que sais-je? N° 3122,
2004

DERIEN ; Solvabilité 2: Une réelle avancée?, Ecole Doctorale Sciences Economiques et de Gestion,
septembre 2010

DUPUY, Modèles de tempête sur l'Europe, Groupe de travail ENSAE – Actuariat, 22 juin 2009

DUMARTINET, MAZZANTI ; « En quoi et comment la nouvelle marge de Solvabilité européenne -


Solvency II- va-t-elle changer la gestion des risques des entreprises d’assurance européenne ?,
2010

DELOITTE, designing a successful ERM function, 2008

ERMINE, La gestion des connaissances, Hermès-Lavoisier, 2003

EQECAT : http://www.eqecat.com

Eurapco Executive Program, Action on climate change, June-October 2007

European Commission, 2000, Assessment of Potential effects and Adaptations for Climate Change
in Europe, The Europe Acacia Project

ESRI, Eric Rodenberg, Introduction to GIS, 2006

ESRI, Comment associer la cartographie et le décisionnel dans le domaine des assurances : Le


projet S.P.I.D (SMACL, Projet, Informations, Décisionnelles), octobre 2005

FFSA, Synthèse de l’étude relative à l’impact du changement climatique et de l’aménagement du


territoire sur la survenance d’événements naturels en France, Avril 2009

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


165
FFSA – APREF ; Le Marché de la Réassurance en 2010, International –France, 6 juillet 2011

FAESSEL, « Le Rôle des TIC dans la pratique de l’IE à l’heure du Web 2.0 », mémoire de master
Intelligence économique et création de valeur, université Paul Cézanne, 2008

GUERAUD, Quel est l’apport d’une gestion des risques d’entreprise chez un réassureur
traditionnel européen ?, Février 2009

Guy Carpenter’s Enterprise Risk Analysis for Property & Liability Insurance Companies Recognized
as Essential ERM Reading, 2007

GIEC / Eurapco ; Etude d’impact du changement climatique sur les produits, leurs tarifications et
leurs fréquences

GIMOND, Le cycle de l’assurance Non-Vie, Une opportunité stratégique, L’exemple du marché des
risques d’entreprises, 2010

GOUARNE, Le Projet Décisionnel, Enjeux, Modèles, Architectures du Data Warehouse, Novembre


1997

HABERT, Laboratoire de cartographie appliquée –- IRD – 2000,


http://www.cartographie.ird.fr/publi/documents/sig1.pdf

LIMPIDA, De l’informatique décisionnelle à la gestion de la performance

LEBRATY, Les systèmes décisionnels, 2006

LESSARD, Le Métier de CRO sous Solvency 2

MARIN, L’usage des Systèmes d’Information PLM (Product Life-Cycle Management) contribue t-il à
l’innovation collaborative?, 12 mai 2009

MICHEL, Assurance et Catastrophes Naturelles en France, CCR, octobre 2008

MUNICH Ré, « TOPICS GEO – Catastrophes naturelles 2010, Analyses – Évaluations – Positions » ,
2010

Guy Carpenter, le rôle de la réassurance dans le calcul du SCR Cat Journées IARD de l’Institut des
actuaires; 31 Mars 2011

Guy Carpenter’s Enterprise Risk Analysis for Property & Liability Insurance Companies Recognized
as Essential ERM Reading; November 2007

INGEA / La tribune/ Etat de l’art de contrôle interne et du Risk Management dans le secteur de
l’assurance et de la protection sociale, 2007

Institut des Actuaires Conférence sur le rôle de la réassurance dans le calcul du SCR Cat Journées
IARD, 31 Mars 2011

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


166
INTERNATIONAL ACTUARIAL ASSOCIATION, Enterprise Risk Management, “All of life is the
management of risk, not its elimination” Walter Wriston, former chairman of Citicorp, October
2008

IRIS, Contribution de la méthodologie et de la technologie géodécisionnelle pour l’aide à


l’évaluation des risques naturels dans le secteur de l’assurance en France, 2009

IPCC, 2001 : Climate change, Working group II, Impacts, adaptation and vulnerability, chapter 8,
insurance and other financial services, http://www.grida.no/climate/ipcc_tar/wg2/321.htm

L’Argus de l’assurance, L’assurance tempête européenne: vers plus de transparence, 12


novembre 2010

La Tribune de l’Assurance, Catastrophes naturelles, La titrisation comme mode de financement,


juin 2009
Les Rencontres de l’Argus de l’Assurance, Risques climatiques : comment faire face aux coûts des
Catastrophes naturelles, 24 novembre 2010

L’Echos des actuaires, Enterprise Risk Management au sein de Solvabilité II, Décembre 2009

Les Echos ; Solvabilité II forcera les assureurs à changer de « business model », n°20682 du 21
mail 2010

Lloyds.com; Valuable research rewarded with Science of Risk prize

MILLIMAN, Report on the possible impact of the likely Solvency II QIS 5 Standard formula on the
European Market, June 2010

Ministère de l’Ecologie, du Développement durable et de l’Aménagement du territoire


Guide général, Les risques majeurs

Ministère de l’Ecologie, du Développement durable et de l’Aménagement du territoire,


www.prim.net

MRN (Mission des Risques Naturelles), www.mrn.asso.fr

MRN, Eléments de définition d’une plateforme et compétences nécessaires à la modélisation de


l’exposition d’un portefeuille d’assurance, juillet 2006

RIEDO, Typologie et connaissance des logiciels SIG, Cours de l’EPFL, 2005

THOUROT, Entretien accordé à L.GUERAUD en juillet 2008

JOLIVEAU, Géomatique et gestion environnementale du territoire. Recherche sur les usages des
SIG. HDR, 2004

PASQUIER, Les données spatiales, un outil stratégique au service de l’entreprise, 2009

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


167
Partner Ré, Point de vue, Assurabilité et partage des risques, octobre 2005

Pitney Bowes Business Insight, Five Steps Toward Solvency II and Beyond; Meeting Long Term
Goals and Commitments within New Regulatory and Risk Management Requirements, White
Paper, 2011

PriceWaterHouseCoopers, Does ERM matter?, 2008

PriceWaterHouseCoopers, Les assureurs français et européens face aux défis de Solvabilité,


octobre 2010

Towers Perrin, Embedding ERM, a tough nut to Crack, 2008

THEURAY, Aon Benfield, Utilisation d’un Système d’Information Géographique pour la


cartographie des risques sur un portefeuille d’entreprise d’assurances, 31 septembre 2009

Risk Management Solutions : http://www.rms.com

ROCHE et B.RAVELEAU, Aspects organisationnels des SIG, Lavoisier 2004

http://www.ensae.org/gene/main.php?base=38&base2=1&detail_article=748

http://www.propertycasualty360.com/2011/01/21/rms-air-eqecat-respond-to-near-term-model-
criticis

OPTIMIND, Solvabilité II : Limites et opportunités de la réforme, janvier 2010

MBA ENASS 2010-2012 Thèse professionnelle Charles DUMARTINET


168
Thèse soutenue en 2012

pour l’obtention du diplôme du


MBA Manager d’entreprise
spécialisation Assurance

Sous
la direction de :
Richard REY

Président du Jury :
François EWALD

Une école est un lieu de production et de diffusion de connaissances.

L’Ecole nationale d’assurances s’organise pour répondre le mieux possible à cette mission en
direction de ses élèves d’abord, mais aussi de la profession de l’assurance et de ses partenaires :

• les « séminaires innovation » animés par les auditeurs du Centre des Hautes Etudes
d’Assurance (CHEA), permettent aux professionnels de suivre les grandes innovations en assurance telles
qu’on peut les observer à l’étranger ;

• « les travaux de l’Enass » sont destinés à faire bénéficier la profession des travaux menés au sein
de l’Enass par ses professeurs et ses élèves, à tous les niveaux, dans la mesure où les jurys qui les ont
évalués ont noté leur qualité et leur originalité. Ces travaux vous seront adressés par Internet, certains
d’entre eux pouvant faire l’objet d’un tirage sur papier ou même, être édités.

Nous souhaitons que toutes ces initiatives vous soient profitables.

François Ewald
Directeur de l’Ecole nationale d’assurances

Vous aimerez peut-être aussi