Vous êtes sur la page 1sur 183

COMMISSARIAT GÉNÉRAL DU PLAN

INCERTITUDE, PRÉCAUTION ET
ASSURABILITÉ

Convention d'étude n° 35/2002


du 10 décembre 2002

Sophie CHEMARIN, Claude HENRY, Erwann MICHEL-KERJAN

Laboratoire d'Èconométrie
Ècole polytechnique
30 novembre 2004
TABLE DES MATIERES

Chapitre 1 INTRODUCTION 5

Chapitre 2 INCERTITUDE SCIENTIFIQUE ET PRINCIPE


DE PRECAUTION 14

1. Controverse sérieuse ou rideau de fumée ? 15


2. Le principe de précaution dans les textes officiels 17
3. Une science incertaine : Jusqu'à quel point ? 20
4. Amiante 22
5. Antibiotiques comme promoteurs de croissance 24
6. Encéphalopathie spongiforme bovine (ESB) au Royaume-Uni 26
7. Changement climatique 28
8. La science incertaine de la sûreté des produits chimiques mis sur
le marché 32

Chapitre 3 DU RISQUE A L'INCERTITUDE DANS LES


MODELES DE DECISION 36

1. Comment le risque se manifeste à l'individu 37


2. Comment l'individu évalue le risque auquel il est confronté 42
3. En quel sens l'individu a-t-il de l'aversion pour le risque 46
4. Le paradoxe d'Ellsberg et l'ambiguïté 53
5. Sur le chemin de modèles de décision en incertitude non
probabilisable 56
6 Un aboutissement (provisoire) 59

2
CHAPITRE 4 ASSURABILITE ET INCERTITUDE 61

Introduction: 1. Loi des grands nombres sans indépendance 62


stricte
2. Risques naturels catastrophiques et lois de
Pareto-Lévy 63
1ère partie La régulation des risques systémiques et nouveaux
risques 65
1. Le nouvel univers du risque 66
2. Quelles conséquences pour la gestion des
risques dans le futur ? 76
3. Une dialectique entre assurabilité et outils
d'assurance 87
2ème partie Outils d'assurance et incertitude 88
1. Des instruments d'assurance nouveaux. 90
2. Le sociétariat : force ou faiblesse de la "Société
du risque"? 106
3. Partage du risque et politique publique 115

Chapitre 5 ASSURABILITE DES RISQUES ET


INCERTITUDE: UNE ANALYSE A TRAVERS LE
RISQUE TERRORISTE 120

1ère partie Au matin du 11 septembre 2001 : l'assurance en


question 125
1. Le 10 septembre 2001 : le risque terroriste dans
les contrats d'assurance 125
2. Le 11 septembre 2001 : l'assurance face à un
terrorisme nouveau 130
3. Le 12 septembre 2001 : le risque terroriste sans
assurance 134

3
2ème partie Incertitude et assurabilité des risques catastrophiques
: pourquoi le terrorisme est-il différent ? 137
1. Potentialité de pertes catastrophiques 138
2. Risques interdépendants 139
3. Manque de données historiques et symétrie non-
informationnelle 142
4. Une "incertitude dynamique" 143
5. Limites du recours aux modèles de
quantification 144
6. Perception du risque 146
7. Les Etats, porteurs de risque de terrorisme 148
3ème partie Incertitude et assurabilité des risques catastrophiques
des partenariats privé-public 149
1. L'assurance commerciale terroriste en Espagne
(Consorcio) 150
2. L'assurance commerciale terroriste au
Royaume-Uni (Pool Re) 151
3. L'assurance commerciale terroriste aux Etats-
Unis (TRIA) 152
4. L'assurance commerciale terroriste en France
(GAREAT) 157
5. L'assurance commerciale terroriste en
Allemagne (Extremus) 163
4ème partie Conclusion 169

REFERENCES 173
INDEX NOMINUM 179
INDEX RERUM 181

4
CHAPITRE 1

INTRODUCTION

5
Sans Black et Scholes1, il n'y aurait pas de tarification efficace des options
sur les marchés financiers. Mais sans von Neumann et Morgenstern2, complété
par Savage3, il n'y aurait pas eu Black et Scholes. Sans Rothschild et Stiglitz4,
nous ne comprendrions pas avec précision les effets des asymétries d'information
sur la formulation des contrats d'assurance. Mais sans von Neumann et
Morgenstern, Rothschild et Stiglitz n'auraient pas disposé du cadre conceptuel
qui sert de socle à leur contribution pionnière. Sans Arrow, Fisher et Henry5,
l'importance du lien entre irréversibilité, rythme d'arrivée de l'information et
décision publique, n'aurait pas été mesurée, et un pan entier de l'économie de
l'environnement n'aurait pas vu le jour. Mais ce lien serait resté à l'état de vague
intuition si le langage formalisé développé par von Neumann et Morgenstern
n'avait pas été disponible.

Rarement une contribution théorique, formulée dans un cadre mathématique


original, a eu autant d'influence sur le développement de l'analyse économique et
de certaines de ses applications parmi les plus importantes. Aux exemples
mentionnés ci-dessus, on peut immédiatement ajouter Arrow et Pratt6, leurs
indices d'aversion pour le risque et les théorèmes de sélection de portefeuille que
ceux-ci ont permis d'énoncer. Dixit et Pyndick7, auteurs d'une nouvelle approche
des choix d'investissements des entreprises, tenant compte de l'effet des
irréversibilités dans un univers où l'information disponible évolue. Arrow8
encore, ainsi que Borch9, pour le rôle de l'aléa moral ("moral hazard") dans les

1
Black, F. and M. Scholes (1973).
2
Von Neumann, J. and O. Morgenstern (1947).
3
Savage, L. (1957).
4
Rothschild, M. and J.E. Stiglitz (1976).
5
Arrow, K. and A.C. Fisher (1974).
Henry, C. (1974).
6
Arrow, K. (1971).
Pratt, J.W. (1964).
7
Dixit, A.K. and R.S. Pindyck (1994).
8
Arrow, K. (1971).
9
Borch, K. (1968).
6
rapports entre assureurs et assurés ; et plus tard entre régulateurs et régulés dans
les travaux de Laffont et Tirole10.

Mais toute révolution scientifique, aussi profonde et influente soit-elle, a ses


limites. Celle mise en branle par von Neumann et Morgenstern n'échappe pas au
lot commun. Ces limites ont d'abord été mises en lumière sous forme de ce qu'on
a appelé des "paradoxes" (d'Allais11 d'abord, d’Ellsberg12 ensuite) ; en fait, il
s'agit de la mise en évidence de contradictions entre d'une part les prédictions du
modèle de von Neumann et Morgenstern, complété par Savage, et d'autre part
certains comportements face au risque qu'Allais et Ellsberg avaient pu observer
dans le cadre d'expériences astucieuses et suffisamment simples pour que leur
interprétation ne puisse être mise en cause. L'expérience d'Ellsberg était
particulièrement significative, en ce qu'elle mettait en évidence des
comportements incompatibles avec la mise en œuvre de distributions de
probabilités dans les décisions prises par les agents participant à l'expérience. Or
l'existence de distributions de probabilités comme références des comportements
est une pierre angulaire du modèle de von Neumann et Morgenstern, ainsi que de
Savage.

Les résultats d'Ellsberg venaient opportunément illustrer une distinction


fondamentale, exprimée en 1921 indépendamment par Keynes13 et Knight14,
mais relativement négligée dans les décennies suivantes. Il s'agit de la distinction
entre risque et incertitude, le risque étant par définition probabilisable alors que
l'incertitude ne l'est pas. Aussi bien Knight que Keynes étaient convaincus de
l'ubiquité de l'incertitude dans les phénomènes économiques. Knight l'a plutôt
rencontrée dans ses travaux d'économie de l'entreprise. Keynes, quant à lui, a pu

10
Laffont, J.-J. and J. Tirole (1993).
11
Allais, M. (1953).
12
Ellsberg, D. (1963).
13
Keynes, J.M. (1921).
14
Kinght, F. (1921).
7
apprécier son rôle, chacun le sait, dans la conduite des politiques
macroéconomiques des Etats, mais aussi sur les marchés financiers (il l'a
d'ailleurs fort bien maîtrisée dans ce champ, puisqu'en tant que trésorier de son
collège, King's College, Cambridge, il en a spectaculairement augmenté la
valeur du capital en bourse, en dépit des crises des années 30).

Le présent rapport se situe dans la ligne des préoccupations de Keynes et


Knight, mais en s'intégrant dans la révolution scientifique de von Neumann et
Morgenstern, ou plus précisément dans les prolongements et réorientations de
cette révolution scientifique, que la résurgence de la distinction entre risque et
incertitude a suscités. Nous rendons compte tant de contributions conceptuelles
significatives que de développements d'instruments et d'institutions qu'appellent
de nouveaux enjeux en matière de choix publics et d'assurance.

Le principe de précaution, qui s'est largement diffusé dans les procédures de


choix publics, repose par nature sur une maîtrise appropriée de l'incertitude
(chapitre 2). Il y a de nombreuses formulations du principe de précaution, ce qui
suscite parfois la critique ou l'ironie. Mais, à y bien regarder, on se rend compte
que toutes ces formulations (à l'exception d'un petit nombre qui peuvent
aisément être écartées pour défaut de cohérence) se ramènent à une prescription
fondamentale : il ne faut pas tirer prétexte de ce qu'une information scientifique
est incertaine pour ne pas la prendre en compte dans une procédure de décision
publique (concernant la santé publique ou l'environnement, qui sont les deux
domaines de responsabilité publique où, à l'heure actuelle, le principe de
précaution a une valeur juridique ; mais il n'y a pas de raison de fond à cette
limitation). Cela ne veut évidemment pas dire que tout information incertaine
soit recevable (il faudrait sinon prendre en compte à peu près n'importe quelle
information, aussi farfelue soit-elle), ni même que toute information recevable
s'insère de la même manière dans la procédure et se répercute de la même
8
manière sur la décision. Une information scientifique incertaine est diversement
fiable ; elle l'est d'autant plus qu'elle comporte un noyau théorique cohérent et de
portée significative, que ce noyau théorique rend compte d'observations
pertinentes et d'origines suffisamment variées, et que le tout a été soumis à la
critique d'une communauté scientifique large et diversifiée (pour éviter les biais
que peut générer une communauté scientifique homogène et dominante)15. Nous
caractérisons, dans le chapitre 2, le concept de fiabilité, et de niveaux de fiabilité,
d'une information scientifique incertaine. Nous le faisons à travers une
discussion conceptuelle reposant sur l'examen de quatre familles de décisions
(qui ont ou n'ont pas été prises au moment opportun) dans quatre domaines
d'application : la production et l'utilisation de l'amiante ; l'administration
d'antibiotiques aux animaux d'élevage dans le but de favoriser et d'accélérer leur
croissance ; l'apparition de l'encéphalopathie spongiforme bovine (ESB, souvent
appelée "maladie de la vache folle") et du nouveau variant de la maladie de
Creutzfeld-Jacob ; les perspectives de changement climatique. On y voit pour
quelles raisons et sous quelles formes, tenant à la qualité de l'information
scientifique pertinente, le principe de précaution aurait dû, a été, ou devrait être
mobilisé.

Du principe de précaution, il n'existe à l'heure actuelle que des tentatives de


formalisation préliminaires et partielles16. Elles utilisent des concepts et
représentations mathématiques qui ont leur origine dans les travaux de von
Neumann et Morgenstern. Mais, comme on l'a vu ci-dessus, ces travaux
concernent le risque, et pas l'incertitude non probabilisable. Des travaux
beaucoup plus récents les prolongent dans le champ de l'incertitude. Ils sont
suffisamment avancés pour fournir des éléments aptes à éclairer l'assurance sous
incertitude. Ils ne sont pas suffisamment avancés pour permettre aujourd'hui une

15
Voir Kuhn, T. S. (1972).
16
Voir Henry, C. et M. Henry (2002).
9
formalisation complètement satisfaisante du principe de précaution, dont la
dynamique pose des problèmes encore trop difficiles. C'est donc en ayant
essentiellement en vue leurs applications en assurance, que les outils
mathématiques de base de von Neumann, Morgenstern et leurs successeurs sont
présentés – aussi pédagogiquement que possible – dans le chapitre 3.

Le modèle von Neumann-Morgenstern permet de pousser l'approche


traditionnelle de l'assurance (distribution de probabilités sur l'ensemble des
niveaux possibles de dommages, lois des grands nombres) plus loin qu'on le
pense souvent. Il est ainsi parfois possible d'estimer la probabilité d'un
événement (un niveau de dommages par exemple) situé hors de l'ensemble de
ceux qui se sont réalisés, ceci par estimation d'une droite de Pareto à partir de ces
derniers. Et quand aux lois de grands nombres, leur validité ne requiert pas –
contrairement à ce qui se dit et s'écrit souvent – la stricte indépendance
stochastique des risques agrégés ; une indépendance approchée – plus
exactement asymptotique – suffit, laquelle par exemple caractérise les risques de
dommages matériels dans l'assurance automobile. Cependant, aussi utiles que
soient ces extensions de l’approche traditionnelle, il est indispensable d’aller au-
delà face à des évolutions récentes qui affectent la nature même des risques
qu'on doit traiter, ou qui en créent d'autres dont on n'a pas d'expérience
antérieure. Par exemple, les manifestations du changement climatique déjà
enregistrées modifient les conditions d'apparition et de déroulement de divers
types de catastrophes naturelles ; et tant ces modifications que les manifestations
qui les influencent sont largement incertaines. Des évolutions techniques,
économiques et sociales, considérées essentiellement comme des progrès,
peuvent avoir aussi des effets négatifs incertains : les économies les plus
développées sont tributaires de nombreux réseaux, largement dépendants les uns
des autres, qui contribuent fortement à leur prospérité, mais aussi à leur
vulnérabilité vis-à-vis d'accidents (difficiles à anticiper correctement, du fait de
10
la complexité des réseaux et de leurs interdépendances) ou d'actes de
malveillance.

De telles incertitudes ne sont pas superficielles, elles sont profondes, et


constituent de ce fait un véritable défi pour les méthodes traditionnelles de
l'assurance et de la réassurance. Ce défi a été relevé de diverses façons,
notamment par mise en oeuvre de nouvelles institutions (qui correspondent
parfois au renouveau et au repositionnement d'institutions existantes ou ayant
existé) et de nouveaux instruments. La dominante de ces innovations
institutionnelles est le caractère de mutuelle, qui exploite mieux que d'autres
formes l'information et la solidarité au sein de l'ensemble des agents exposés aux
dommages concernés, mais qui en revanche laissent à la charge de ces agents
une partie significative de l'incertitude. De nombreuses mutuelles ont été créees
à cette fin, qui vont du Pharma-pool allemand aux mutuelles de couverture de
responsabilité civile (notamment médicale) en France et aux Etats-Unis.
Certaines de ces mutuelles sont annoncées comme provisoires, ce qui suggère
qu'après une période de transition, on reviendrait aux structures et méthodes
traditionnelles d'assurance. De ceci, on peut douter, car les nouveaux problèmes
auxquels ces institutions permettent de faire face sont là pour durer, ils ne se
dissoudront pas progressivement dans les approches traditionnelles.

Nouvelles institutions, nouveaux instruments aussi, dont l'objectif principal


est d'élargir l'ensemble des couvertures susceptibles d'êtres mobilisées, en
particulier de solliciter des couvertures dont les pourvoyeurs sont familiers avec
l'incertitude. C'est toute l'idée de la démarche qui consiste à répondre aux
demandes d'assurance, impliquant significativement de l'incertitude, par appel
aux marchés financiers. Ceux-ci brassent des capitaux, et font des gains et des
pertes, dont les montants sont d'un à deux ordres de grandeur au-dessus des
capitaux, des gains et des pertes sur les marchés d'assurance et de réassurance.
11
Les gains et les pertes sur les marchés financiers sont largement incertains et,
une fois agrégés, sont très peu corrélés avec les gains et les pertes d'assurance.
Tous ces facteurs sont très favorables à une introduction de titres d'assurance sur
les marchés financiers. Jusqu’à présent cependant, les réalisations ne sont pas à
la hauteur d’attentes pourtant justifiées. Pour Kunreuther, peut-être le meilleur
expert en la matière, cette situation est due à la nouveauté des instruments ainsi
proposés aux investisseurs : après une période d’apprentissage, qui contribuera à
la fois à les rassurer, et à diminuer les coûts de transaction, promesses et
réalisations se rejoindront, et les nouveaux instruments de finance-assurance
prendront toute leur place aux côtés des mécanismes de mutualisation.

Ces derniers s’avèrent aussi un recours largement utilisé pour faire face à
cette forme récente de catastrophes, très peu naturelles celles-là, que vise à
provoquer le terrorisme international. Comme on peut le voir dans le chapitre 5,
l’assurance contre ce type de risques était généralement tacitement ou
explicitement accordée aux souscripteurs de couvertures dommages-
responsabilité. Du moins, avant le 11 septembre 2001. Au lendemain du drame,
la situation a été presque partout renversée, l’offre d’assurance disparaissant ou
n’étant plus disponible qu’à des tarifs prohibitifs. Il est apparu que, sans la
mutualisation la plus large, incluant les Etats comme assureurs ou réassureurs de
dernier ressort, il était impossible de débloquer cette nouvelle situation. Car les
risques associés au terrorisme international sont non seulement de grandes
dimensions et intrinsèquement incertains, il posent des problèmes, de répartition
de l’information entre parties concernées, ainsi que d’interactions entre efforts de
protection consentis par les uns et intensité des menaces pesant sur les autres,
tels qu’ils se situent au-delà de ce que l’assurance et la réassurance (même
étendues comme au chapitre 4) peuvent affronter seuls. Plus encore que les
problèmes de responsabilité considérés au chapitre 4, ils appellent l’engagement
de communautés plus vastes – à l’heure actuelle essentiellement les Etats- à des
12
fins et avec des moyens qui dépassent les seules corrections des "défaillances de
marché", avancées pour justifier l'intervention de l'Etat dans la vie économique.
La démarche est suffisamment nouvelle (sauf, dans une certaine mesure, en
Espagne et en France) pour être partout présentée comme provisoire. Prendre le
pari, dans un environnement d'incertitude croissante, que ce provisoire-là est
appelé à durer, ne paraît pas quant à lui, sur les bases des analyses que ce rapport
présente, un pari très risqué.

13
CHAPITRE 2

INCERTITUDE SCIENTIFIQUE ET PRINCIPE


DE PRECAUTION

14
1. CONTROVERSE SERIEUSE OU RIDEAU DE FUMEE ?

On dit et on écrit beaucoup que l'Europe, parce qu'elle a de l'aversion pour


le risque, aime se réfugier sous l'ombrelle du principe de précaution, tandis que
les Etats-Unis, pays d'entrepreneurs sachant prendre des risques, se méfient du
même principe, et l'attaquent lorsque cela sert leur intérêts internationaux. Ceci
serait vrai depuis la fin de la décennie des années quatre-vingts, alors
qu'auparavant les positions étaient plutôt inversées ; l'Europe serait devenue plus
frileuse, tandis que les Etats-Unis, portés par leur formidable renaissance
économique et politique au cours des années quatre-vingts-dix, seraient plus
audacieux que jamais.

Il est vrai que les Etats-Unis ont changé ; que, dans presque tous les
domaines, la régulation publique s'est allégée, et les décisions sont devenues en
moyenne plus indifférentes aux enjeux d'environnement, de santé publique et de
cohésion sociale, qui sont les enjeux les plus susceptibles de mobiliser le
principe de précaution. Il est vrai aussi que celui-ci a trouvé une place, légitimée
en droit, dans un nombre croissant d'actes du Conseil et de la Commission, et
d'arrêts de la Cour de Justice de l’Union Européenne. Il est encore vrai que
quelques conflits emblématiques, sur le bœuf aux hormones et les organismes
génétiquement modifiés en particulier, peuvent à première vue donner le
sentiment d'une Union européenne crispée sur le principe de précaution.

La réalité est beaucoup plus nuancée et diverse, ce qui est largement


méconnu ; méconnu et voilé, car il est plus facile, et politiquement plus attractif,
de projeter l'image d'un combat entre deux champions défendant deux causes
clairement opposées. Comme l'écrivent Jonathan Wiener et Michael Rogers :
« En fin de compte, ni l’Europe ni les Etats-Unis ne peuvent prétendre être le
15
plus précautionneux sur tous les fronts. Dans ces conditions, la notion d’une
grande bataille transatlantique à propos du risque et de la précaution est
trompeuse »17.

Beaucoup d’institutions américaines, en particulier des tribunaux, restent


plus précautionneux que leurs homologues européens en ce qui concerne les
régulations de la mise sur le marché de nouveaux produits chimiques (les choses
pourraient changer pour ces derniers si la nouvelle directive européenne sur les
produits chimiques est approuvée sans modification substantielle par rapport au
texte actuellement soumis à discussion), en ce qui concerne aussi la diffusion de
l’encéphalopathie spongiforme bovine (ESB), la sécurité routière et la
réglementation des consommations de "drogues légales" (tabac et alcool).
L'Union européenne est davantage attachée à la précaution quand il s'agit, non
seulement d'organismes génétiquement modifiés, d'hormones et d'antibiotiques
dans l'alimentation animale, mais aussi de politiques environnementales
(notamment l'émission de gaz à effet de serre et donc les consommations
énergétiques), l'alimentation humaine en général (mais les différences ne sont
pas toujours nettes), et évidemment les règles de port d'armes.

Ce sont les comportement vis-à-vis de la viande de bœuf qui illustrent le


mieux les échanges des rôles supposés de l'Union Européenne et des Etats-Unis,
et aussi les contradictions internes à chacun. L'Union européenne a maintenu un
embargo total sur la viande de bœuf, dont l'alimentation a incorporé des
hormones, en dépit d'une condamnation en première instance et en appel à
l'Organisation Mondiale de la Santé (OMS), saisie d'une plainte des Etats-Unis
pour entrave injustifiée au commerce international. La fermeté de la position
européenne est d'autant plus remarquable qu'à l'époque elle ne disposait pas d'un
dossier scientifique consistant, même au sens d'une science incertaine (voir

17
Wiener, J. and M. Rogers (2002), p. 3.
16
sections 2 et 3). Son dossier scientifique était beaucoup plus solide quand elle a
banni, en 1997, certains antibiotiques de l'alimentation animale, et n'a d'ailleurs
pas été contesté légalement (voir section 5), bien que les Etats-Unis continuent
d'affirmer que ces interdictions ne sont pas justifiées. En revanche, soucieuses de
ne pas entrer en conflit avec le Royame-Uni, les autorités de l'Union européenne
ont pendant des années toléré sans réagir l'explosion de l'épidémie d'ESB, ainsi
que l'apparition et la confirmation d'une nouvelle forme de maladie de
Creutzfeld-Jacob touchant l'homme. Ce n'est qu'après que le Royaume-Uni lui-
même ait reconnu que la situation devenait intenable que le principe de
précaution a été invoqué à Bruxelles et à Luxembourg (voir section 6). Les
Etats-Unis en revanche ont, des le début de l'épidémie en Europe, interdit pour
des motifs de santé publique, l'importation de viande bovine en provenance de
pays de l'Union européenne ; dans la suite, il semble bien qu'ils aient réussi à
circonscrire sur leur territoire la maladie à quelques cas importés du Canada.

Il n'y a pas que l'application du principe de précaution qui est, on vient de le


voir, quelque peu zigzagant. Les définitions qu'on en donne – en particulier dans
les textes à implication internationale – peuvent paraître à première vue, si pas
contradictoires, au moins foisonnantes. Un effort de clarification est donc
doublement nécessaire, effort auquel les sections suivantes sont consacrées.

2. LE PRINCIPE DE PRECAUTION DANS LES TEXTES OFFICIELS

Le principe de précaution est invoqué dans un nombre croissant de


conventions et de jugements internationaux, ainsi que de textes juridiques
nationaux. Les formulations en sont variables, mais elles avancent toutes l’idée
qu’il ne faut pas attendre pour prendre des décisions, particulièrement en matière
d’environnement ou de santé publique, que la connaissance scientifique sur
laquelle elles s’appuient soit complètement stabilisée.
17
Ainsi la Convention-cadre des Nations-Unies sur les changements
climatiques (1992) enjoint-elle aux Parties « de prendre des mesures de
précaution pour prévoir, prévenir ou atténuer les causes des changements
climatiques et en limiter les effets néfastes. Quand il y a risque de perturbations
graves ou irréversibles, l’absence de certitude scientifique ne doit pas servir de
prétexte pour différer l’adoption de telles mesures, étant entendu que les
politiques et mesures qu’appellent les changements climatiques requièrent un
bon rapport coût-efficacité, de manière à garantir des avantages globaux au coût
le plus bas possible18 ». L’élément original dans cette injonction est clairement
que l’absence de certitude scientifique ne doit pas empêcher toute action de
protection de l’environnement, ici du climat de la planète. Qu’une telle action
doive avoir une efficacité en rapport avec son coût est un rappel utile mais banal,
encore que l’évaluation de l’efficacité et du coût dépende de la connaissance
scientifique sur la base de laquelle l’évaluation est conduite ; elle peut être
rendue difficile, par exemple, par l’absence d’une distribution de probabilités
bien définie pour rendre compte de l’incertitude affectant les effets néfastes à
éviter et les coûts pour y parvenir ; ce point sera repris plus bas.

Il faut en outre que le risque porte sur des « perturbations graves ou


irréversibles » : si les seules perturbations envisageables sont bénignes, il n’y a
en effet vraisemblablement pas lieu de se mobiliser à leur sujet, quel que soit le
statut du risque ; en revanche, qu’il y ait des perturbations irréversibles à
craindre peut être en soi un indice de gravité, car aucune correction ne pourra
intervenir ultérieurement, et aucun élément supplémentaire d’information ne
pourra être utilisé (destruction de la valeur d’option19). Quoiqu’il en soit, ces
deux conditions, de même que celle portant sur le rapport coût-efficacité, sont

18
Texte reproduit dans OCDE (2002).
19
Voir C. Henry (1974/1) et (1974/2).
18
pertinentes qu’il y ait ou non « absence de certitude scientifique » (l’incertitude
qui est caractérisée par une distribution de probabilités objectives relève de la
« certitude scientifique ») ; c’ est bien cette absence, et elle seule, qui est liée
organiquement au principe de précaution. Des énoncés du principe qui s’y
réfèrent dans des termes équivalents sont donc eux-mêmes essentiellement
équivalents, de quelque façon qu’ils soient par ailleurs formulés.

Dans la Convention pour la protection du milieu marin de l’Atlantique


du Nord-Est (Convention OSPAR, 1992), l’absence de certitude scientifique est
définie plus précisément comme l’absence de « preuves concluantes d’un rapport
de causalité entre les apports20 et les effets » ; « concluantes » est utilisé dans le
sens, implicite, d’une science complètement stabilisée. Dans la Déclaration
ministérielle de la troisième conférence internationale sur la protection de la
Mer du Nord (1990), l’idée est la même, à condition d’interpréter « preuve
scientifique » d’une manière étroitement exigeante : « les participants
continueront à mettre en œuvre le principe de précaution, qui est d’entreprendre
une action pour éviter les effets potentiellement nocifs de substances qui sont
persistantes, toxiques et susceptibles de bioaccumulation, même lorsqu’il
n’existe aucune preuve scientifique mettant en évidence un lien causal entre les
émissions et les effets21». Que les substances en cause soient persistantes,
toxiques et susceptibles de bioaccumulation, qualifie ici leur gravité.

Que le principe de précaution soit invoqué en l’absence de « certitude


scientifique », ou de « preuves concluantes d’un rapport de causalité », n’indique
pas sur quels éléments de diagnostic il doit s’appuyer. L’Organe d’Appel de
l’OMC donne quelques indications à ce sujet22, dans le jugement qu’il a rendu en
dernière instance dans le conflit du « bœuf aux hormones » qui a opposé les

20
C’est-à-dire les apports d’énergie ou de substances susceptibles d’être nocives dans le milieu marin.
21
Voir aussi OCDE (2002).
22
C’est une démarche très rare dans les textes officiels.
19
USA et l’Union européenne. Il le fait en se démarquant du jugement du Panel
qui avait examiné le différend en première instance :

« To the extent that the Panel intended to refer to a process characterized by


systematic, disciplined and objective inquiry and analysis, that is, a mode of
studying and sorting out facts and opinions, the Panel’s statement is
unobjectionable. However, to the extent that the Panel purports to exclude from
the scope of a risk assessment, in the sense of Article 5.1, all matters not
susceptible of quantitative analysis by the empiricial or experimental laboratory
methods commonly associated with the physicial sciences, we believe that the
Panel is in error ».

3. UNE SCIENCE INCERTAINE : JUSQU'A QUEL POINT ?

La science certaine, stabilisée, telle que le panel de l’OMC la réclamait à


l’Union européenne pour justifier le refus d’importation de bœuf aux hormones,
est bien illustrée par les deux exemples suivants, l’un en physique, l’autre en
biologie. Lorsqu’un faisceau de particules, dans un accélérateur comme celui du
CERN, entre en collision à très haute énergie avec une cible de noyaux
atomiques, la nature des produits de collision et les trajectoires sur lesquelles il
s’éloignent des points d’impact, sont prédites par la mécanique quantique en
termes de probabilités objectives, lesquelles sont confirmées par les fréquences
statistiques des observations dans les chambres à bulles en aval des collisions.
Exemple en biochimie : parmi les très nombreuses protéines que comporte le
corps humain, l’une, baptisée CCR5, lorsqu’elle se fixe sur la surface d’une
cellule, ouvre une voie d’entrée dans la cellule au virus du sida ; cette propriété a
été établie expérimentalement par des chercheurs des National Institutes of
Health américains et de l’Université Libre de Bruxelles ; elle est aussi bien

20
comprise théoriquement, et est à la base de la mise au point d’une nouvelle ligne
de médicaments, qui empêchent l’ouverture de l’accès à l’intérieur de la cellule.

Il est clair, en contraste avec les caractéristiques de ces deux exemples, qu’il
faut souvent prendre des décisions lourdes de conséquences en l’absence de
connaissances scientifiques qui comporteraient une compréhension théorique
complète des phénomènes en cause (les dépendances causales exactes, le cas
échéant) ainsi que des vérifications expérimentales complètement convaincantes.
Pensons par exemple aux différences entre ce qui est suspecté du rôle d’autres
protéines, les prions, dans le déclenchement de l’ESB (« maladie de la vache
folle »), et ce qui est connu de celui de CCR5 dans le développement du sida.
De même l’interaction des ondes, émises par les antennes-relais de téléphonie
mobile, avec le cerveau humain23 sont beaucoup moins bien connues que les
interactions de particules dans un accélérateur.

Sur quelles bases rationnelles agir alors ? comment caractériser et utiliser


rationnellement des connaissances scientifiques incomplètes, constituant une
science incertaine ? Comment résister à la tentation de différer des décisions qui
peuvent s’avérer urgentes – par exemple en raison de possibles effets
irréversibles si rien n’est fait – sans pour autant céder à des illusions ou des
chimères scientifiques, et tout en gardant dans toute la mesure du possible des
degrés de liberté pour pouvoir faire ultérieurement usage de connaissances
devenues plus précises ? Ces questions peuvent être résumées de la manière
suivante : sous quelles conditions touchant à la nature de l’incertitude
scientifique est-il pertinent d’invoquer le principe de précaution ? Car il ne suffit
évidemment pas de dire, comme dans la Convention-cadre des Nations-Unies sur
les changements climatiques (1992), ainsi que dans de nombreux autres textes,

23
Voir Académie des Sciences (2001) ; de ce fait, les effets sur la santé humaine font l’objet de très vives
controverses, personne n’ayant ni des éléments de modèle théorique, ni des données empiriques, permettant un
jugement scientifiquement structuré.
21
que « l’absence de certitude scientifique ne doit pas servir de prétexte pour
différer l’adoption de telles mesures » ; on ne peut pas rester purement négatif
quant à l’évaluation de l’état de la science et des conditions de l’action..

C’est à partir de quatre dossiers, bien connus quant à l’ampleur de leurs


conséquences, maintenant avérées, ou seulement encore possibles, mais moins
bien connus quant aux ressorts et à la chronologie scientifique24 des décisions
qu’ils ont impliquées, que nous allons tenter de répondre aux questions que nous
venons de poser. Nous allons caractériser et évaluer, aux étapes cruciales du
déroulement de chacun, la science alors disponible, et la pertinence qu’il y aurait
eu de mettre en œuvre le principe de précaution. Les deux premiers sont de notre
point de vue essentiellement historiques25 ( ils ne le sont pas en ce qui concerne
les conséquences humaines et économiques de décisions trop tardives ); il s’agit
de l’extraction et de l’utilisation de l’amiante d’une part, de l’administration
d’antibiotiques aux animaux d'élevage comme promoteurs de croissance, d’autre
part. Le troisième est plus récent et reste plus incertain : l’ESB et sa variante
humaine. Le dernier concerne fondamentalement l’avenir à long terme : le
changement climatique.

4. AMIANTE

En 1898, c’est-à-dire vingt ans après les débuts de l’exploitation de


l’amiante, des inspecteurs médicaux des établissements industriels au Royaume-
Uni ont établi des corrélations fortes entre des atteintes aux bronches et aux
poumons et l’occupation de postes de travail exposés aux poussières d’amiante.
En poussant plus avant leurs investigations, ils ont suggéré un lien de cause à
effet : observées au microscope, les poussières d’amiante ont l’aspect de

24
Nous n’insistons pas ici sur les autres aspects de ces processus de décision.
25
Leurs chronologies détaillées font l’objet de deux chapitres dans European Environment Agency (2001).
22
minuscules éclats de verre tranchants. En 1906, c’est en France, dans l’industrie
textile, que des éléments concordants sont réunis : forte corrélation établie entre
nombres anormaux de décès et conditions de travail exposées aux poussières
d’amiante, exploration de liens de causalité. En 1911, des chercheurs
britanniques exposent des rats à des atmosphères plus ou moins chargées en
poussières d’amiante : leurs résultats s’accordent avec les observations
antérieures chez les humains.

Cependant la nature exacte des "maladies de l'amiante" n’était pas connue à


l’époque. Cela n’a pas empêché, dès 1918, des compagnies d’assurance
d’estimer les faits, et les premières explications scientifiques qui en étaient
avancées, suffisamment convaincants pour les amener à refuser de couvrir les
travailleurs exposés à l’amiante. Les autorités publiques n’ont cependant pas
suivi à l’époque : elles ont accepté l’argument des industriels qui faisaient valoir
que, avec l’amélioration des conditions de travail, l’intensité de l’exposition
diminuait, et donc aussi le risque de maladie. Jusqu’à quel point ? Personne n’en
avait idée. Mais l’argument fut accepté ; cela faisait vingt ans (délai moyen de
développement des maladies) de « gagnés » avant que des observations
correspondant aux nouvelles conditions de travail puissent être faites. Sur cette
base, les compagnies d’assurance reformulèrent des offres de couverture, sans
anticiper à quel point elles auraient à regretter cette décision.

Dans les années trente, l’amiante a été clairement associé au cancer du


poumon, et dans les années cinquante au mésothéliome (forme par ailleurs très
rare de cancer), et cette fois dans des environnements qui n’étaient pas
uniquement professionnels, et avec des délais d’apparition beaucoup plus courts.
Mais il a encore fallu quarante ans, et des dizaines de milliers de malades et de
morts, avant que les conséquences pratiques de ces résultats scientifiques aient

23
été tirées. Ce n’est manifestement pas l’état de la connaissance scientifique qui
peut justifier de tels délais.

5. ANTIBIOTIQUES COMME PROMOTEURS DE CROISSANCE

Les problèmes soulevés par les antibiotiques ajoutés à la nourriture des


animaux d’élevage sont moins spectaculaires, mais non moins significatifs. Que
l’administration d’antibiotiques, à doses subthérapeutiques, favorise la
croissance a été reconnu au début des années cinquante, et rapidement exploité à
grande échelle en Europe et en Amérique du Nord. Cela pouvait-il présenter des
dangers ? La théorie darwinienne suggérait une réponse positive ; dans un autre
contexte - mais l’avertissement avait une portée générale - Alexandre Fleming
avait lui-même mis en garde contre une utilisation incontrôlée de la pénicilline
car, disait-il dans une interview au New York Times en 1945, « les microbes
seraient éduqués à résister à la pénicilline ».

Mais cette référence à la sélection naturelle, aussi pertinente fût-elle, restait


trop générale ; elle suggérait une voie d’investigation, mais ne pouvait pas être
en elle-même le support scientifique d’une stratégie de précaution. En
particulier, il fallait comprendre les effets de l’administration d’un antibiotique
sur l’efficacité d’un autre, dans la mesure où, à plusieurs antibiotiques utilisés
comme additifs nutritionnels, correspondaient des antibiotiques thérapeutiques,
utilisés en médecine vétérinaire ou humaine ; deux antibiotiques sont, en ce sens,
correspondants s’ils ont des structures moléculaires et des modes d’action
voisins. En 1968 on disposait d’assez de données expérimentales positives à ce
sujet pour que, sur les bases théoriques et empiriques ainsi disponibles, une
commission mise en place par le Gouvernement britannique sous la présidence
du professeur Michael Swann recommande l’interdiction en alimentation
animale de trois antibiotiques spécifiques, en raison de leurs affinités avec des
24
antibiotiques utilisés ou récemment approuvés en médecine humaine. Ces
recommandations n’ont pas été contestées, sauf dans les milieux agricoles et par
les entreprises pharmaceutiques. Elles sont néanmoins restées lettre morte au
Royaume-Uni comme dans l’Union européenne en général.

C’est d’abord en Suède, pas avant 1997 cependant, que les choses ont
basculé. Dans ce pays, de plus en plus d’agriculteurs se sont inquiétés de perdre
progressivement la confiance des consommateurs. Une commission mise en
place par le Gouvernement suédois a rapidement produit un rapport
reconnaissant « que le risque d’une résistance croissante associée à l’usage
généralisé d’antibiotiques comme facteurs de croissance est loin d’être
négligeable, et que les conséquences potentielles pour la santé humaine et
animale sont sérieuses ». La commission suédoise soulignait que la connaissance
scientifique était suffisante pour justifier ces conclusions, même si les liens de
causalité entre absorption d’un antibiotique par des animaux, et résistance à un
autre antibiotique dans l’organisme des consommateurs de ces animaux,
n’étaient pas tous élucidés. Sur cette lancée, le Conseil européen des ministres de
l’Agriculture a interdit en 1998 quatre antibiotiques dans l’alimentation animale
(dont deux déjà identifiés trente ans plus tôt par la commission Swann), en
présentant sa décision comme « une mesure de précaution visant à minimiser le
risque de développement de bactéries résistantes, et à préserver l’efficacité de
certains antibiotiques utilisés en médecine humaine ».

Dans les deux cas, amiante et antibiotiques, il semble qu’une base


scientifique appropriée ait été disponible bien avant que des décisions adéquates
aient été prises. Cette base était appropriée en ce sens qu’il existait un modèle
théorique, sans aucun doute incomplet mais rendant compte des éléments
fondamentaux de la réalité, et par ailleurs en accord avec des données
empiriques non anecdotiques ; c’est d’ailleurs sur des bases scientifiques
25
comparables, voire plus ténues, que des décisions médicales sont fréquemment
prises. Nous devons cependant reconnaître que cette appréciation est fondée sur
des histoires achevées, dont le dénouement éclaire la portée des étapes
antérieures. Nous allons maintenant nous priver de cet avantage en considérant
l’ESB et le changement climatique.

6. L'ENCEPHALOPATHIE SPONGIFORME BOVINE (ESB) AU

ROYAUME-UNI

Le premier cas identifié d'ESB a été porté à la connaissance des autorités


britanniques en 1986. A l'époque, on n'en comprend pas davantage l'origine
biologique que pour la tremblante du mouton ; cette maladie, observée depuis
des siècles, semble avoir une parenté avec l'ESB. Il apparaît bientôt que l'ESB
pourrait être liée à une alimentation des bovins à base de farines animales26.

Face à cette situation, le ministère de l'Agriculture a certes pris des mesures


prophylactiques, dans la mesure cependant où elles ne sont pas susceptibles
d'effrayer les consommateurs. Ce que le rapport Phillips27 qualifie ainsi : « les
fonctionnaires et les ministres suivirent une approche dont l'objet était en
quelque sorte de mettre l'opinion sous tranquillisant ». Fonctionnaires et
ministres – y compris les responsables de la santé – sont restés longtemps
convaincus que l'ESB ne pouvait pas contaminer l'homme, en raison de
l'existence d'une barrière des espèces ; c'était une croyance scientifique bien
ancrée mais qui jusque là n'avait pas été soumise à une véritable
expérimentation, et qu'aucun développement de la biologie moléculaire ne venait
corroborer. Quoiqu'il en soit, il fallait absolument éviter que « le public réagisse
de façon irrationnelle ».

26
Fabriquées à partir de rebuts d'abattoir.
27
Rapport de la commission d'enquête réunie en 1997 par le Gouvernement britannique sous la présidence
de Lord Phillips of Worth Matravers ; voir Phillips et al (2000).
26
Cependant la croyance en une barrière des espèces a été mise à mal en
1990, lorsque des chercheurs du Royal Veterinary College sont parvenus à
inoculer l'ESB à des souris et surtout lorsque, peu après, d'autres chercheurs à
l'université de Bristol ont contaminé un chat domestique. Plus grave encore, des
cas de maladie de Creutzfeld Jacob sont apparus chez l'homme en nombre
inhabituel ; les symptômes ne sont d'ailleurs pas exactement ceux de cette
maladie rare ; en particulier, ce sont systématiquement des personnes jeunes qui
sont atteintes. Enfin un biologiste américain, le professeur Prusiner, identifie une
famille de protéines, qu'il appelle prions, à propos desquelles il émet l'hypothèse
qu'elles pourraient être les agents à la fois de ESB et du nouveau variant de la
maladie de Creutzfeld Jacob ; c'est une hypothèse révolutionnaire, mais qu'il
parvient progressivement à étayer sur les plans tant expérimental que
théorique28.

Il devient de plus en plus difficile pour les officiels britanniques de s'en


tenir à une politique de mesures contraintes par l'impératif de ne pas effrayer les
consommateurs. D'ailleurs la presse accueillait plus volontiers des explications
de scientifiques indépendants que des comités d'experts officiels. Néanmoins, le
Premier ministre John Major, en décembre 1995, se voulait toujours rassurant :
« Il n'existe aucune preuve selon laquelle la maladie puisse se transmettre à
l'homme ». Au sens littéral de preuve, c'est exact ; mais c'est ignorer des
présomptions scientifiques de plus en plus fortes et de mieux en mieux établies.
Le ministère de l'Agriculture enfonçait le clou dans un dépliant d'information
distribué en février 1996 : « Il n'y a aucune preuve de lien entre l'ESB et la
maladie de Creutzfeld Jacob ; le comité d'expertise indépendant considère que le
bœuf britannique est sans danger ».

28
Suffisamment pour que le prix Nobel de médecine lui soit décerné en 1997.
27
C'est pourtant ce même comité d'expertise « indépendant » qui, le 16 mars
1996, cédait devant ce qui était devenu le corps de connaissance scientifique le
plus solide disponible à ce moment : il était impossible d'expliquer l'apparition
du nouveau variant de la maladie de Creutzfeld Jacob autrement que par
contamination à partir de l'ESB, et une telle contamination n'était plus
inconcevable ; la croyance en une barrière entre espèces s’était écroulée. Le 20
mars 1996, le ministre de la Santé transmit ce message à la Chambre des
Communes. Ainsi que l'indique le rapport de la Commission Phillips : « la
réaction du public fut qu'il avait été trompé, délibérément trompé par les
pouvoirs publics » Trop d'assurances catégoriques avaient été données, sur une
base scientifique très insuffisante, pour que ces révélations, beaucoup plus
solidement étayées scientifiquement, ne provoquent pas des réactions plus
dévastatrices que celles que, pendant des années, on avait voulu éviter en
rassurant l'opinion. Et quand plus tard, l'embargo sur le bœuf britannique, décidé
la même année par le Conseil des ministres de l'Union européenne, est attaqué
par le Royaume-Uni devant la Cour de Justice des Communautés Européennes,
celle-ci a confirmé la décision au nom du principe de précaution.

7. CHANGEMENT CLIMATIQUE

La base scientifique est ici fournie par les travaux du Groupe


intergouvernemental d’experts sur l’évolution du climat (GIEC, en anglais
IPCC). Le changement climatique se manifesterait principalement par des
températures plus élevées, des cycles hydrologiques plus accentués et plus
chaotiques, une hausse du niveau des mers, et de possibles « surprises »29,
comme par exemple l’affaiblissement de circulations thermohalines30. Pour
estimer ces effets, le GIEC a distingué six scénarios d’émission de gaz à effet de

29
Evénements dont il est particulièrement difficile de caractériser le degré d’incertitude.
30
Le cas le plus souvent cité est l’affaiblissement du flux de chaleur transporté vers l’Europe par le Gulf
Stream.
28
serre – les gaz dont l’accumulation dans la haute atmosphère est à l’origine du
changement climatique – qu’il insère dans plusieurs modèles climatiques. Les
principaux résultats, rapportés dans le troisième et plus récent rapport GIEC
(2001), sont les suivants :

• La concentration de CO2 (le principal gaz à effet de serre) dans la haute


atmosphère s’établirait en 2100 dans une fourchette comprise en 540 et
970 ppm, soit 1,5 à 2,7 fois le niveau en 199031.
• Entre 1990 et 2100, la température moyenne du globe augmenterait de
1,4° C à 5,8° C.
• Le niveau moyen des mers monterait de 0,09 à 0,88 mètres pendant la
même période.

Ces changements seraient plus importants que tout ce que la planète a pu


connaître depuis au moins 10 000 ans, et trop rapides pour permettre à la faune
et surtout à la flore de s’adapter en bon ordre. Localement, ils pourraient être
encore plus marqués (désertification accélérée, ou au contraire augmentation
spectaculaire d’événements pluvieux violents, remontée vers le nord des
maladies parasitaires, etc…), mais l’incertitude sur leur répartition géographique
reste encore trop grandes pour que des cartes puissent sérieusement être
proposées.

Pourquoi de tels intervalles d’incertitude ? parce que de nombreux facteurs


critiques sont fondamentalement incertains : l’intensité d’émission des gaz à
effet de serre (ainsi, par exemple, les émissions de CO2 entre 1990 et 2000 ont-
elles été sensiblement plus importantes qu’on ne l’avait imaginé au début de la
décennie), l’impact des nuages et des aérosols (ainsi a-t-on découvert que,
paradoxalement, on aura à regretter, du point de vue de l’évolution du climat, la
31
Année de base retenue dans le Protocole de Kyoto ; sur l'économie de celui-ci, voir R. Guesnerie (2003).
29
diminution des émissions de SO2 et de NOx, car la présence de ces gaz dans la
basse atmosphère tend à réduire l’effet de serre), la capacité des océans à stocker
le CO2 (s’il y avait, ce qu’on ne sait pas, un seuil à partir duquel les océans, au
lieu de continuer à stocker du CO2, se mettraient à en dégager, le rythme de
concentration dans l’atmosphère s’accélérerait fortement), la capacité de
nouvelles technologies à stocker en grandes quantités le CO2 dans le sol ou dans
des roches (certains chercheurs nourrissent de grands espoirs à ce sujet), et, bien
entendu, la variabilité naturelle du climat.

Aux amplitudes possibles de ces facteurs critiques, aucune distribution de


probabilités – qu’elle soit objective ou subjective – ne peut être directement32
associée ; et il en est évidemment de même pour les manifestations du
changement climatique recensées ci-dessus. En ce sens, la science du
changement climatique est incertaine. Mais elle est suffisamment structurée et
informée par des observations empiriques (fussent-elles celles des carottes
glaciaires où du CO2 fossile se trouve piégé) pour qu'on puisse en confiance fixer
certaines bornes à cette incertitude. Ces bornes ne sont pas fournies par la forme
canonique d’investigation scientifique conduite dans les conditions contrôlées
d’un laboratoire, à la lumière d’une théorie stabilisée et exhaustive, mais elles
résultent cependant d’un processus de production scientifique méthodique,
systématiquement soumis à la critique, qui ne laisse aucune place aux illusions
scientifiques ou aux prophéties incontrôlables.

Le GIEC est un groupe international d’experts scientifiques, travaillant sous


l’égide de l’ONU et de l’Organisation météorologique mondiale. Ces
scientifiques sont choisis par leurs pairs, pays par pays, et simplement confirmés
par leurs gouvernements respectifs. Leur travail est organisé en sous-groupes par

32
Une association indirecte, dans un modèle de décision, d’un ensemble de distributions de probabilités,
peut par contre être possible ; voir chapitre 2.
30
domaine d’investigation ; ces sous-groupes confrontent leurs résultats puis les
rassemblent dans des rapports publiés périodiquement (1990, 1995, 2001). Pour
ce faire, ils collectent dans le monde entier les données pertinentes disponibles,
suscitent la production de données nouvelles en tant que de besoin et, sur cette
base, mobilisent leur compétences respectives (en physique, chimie, biologie,
écologie, économie, etc.) pour évaluer les composantes et les conséquences du
changement climatique.

Tout ceci tend à indiquer que le processus, continu, d’investigation du


GIEC contribue à la connaissance scientifique de l’évolution du climat d’une
manière rigoureuse, systématiquement organisée et contrôlée, tant du point de
vue théorique qu’empirique. Le physicien J. Ziman (2000) caractérise
la crédibilité scientifique de la manière suivante : « The credibility of science
depends as much on how it operates as a collective social enterprise as it does on
the principles regulating the type of information that this enterprise accepts and
transforms into knowledge ». Il semble que les travaux du GIEC se situent
favorablement sur les deux échelles.

Il est donc d’autant plus remarquable que le gouvernement des Etats-Unis


les rejettent comme non fondés scientifiquement. L’administration Bush a
récemment produit un plan de son cru pour mieux connaître les perspectives du
changement climatique et y faire face. Ce plan a été examiné par un pannel
d’experts réunis par la National Academy of Sciences. Selon le New York Times
(1er mars 2003) : « The panel described Mr Bush’s plan as a redundant
examination of issues that had largely been settled ; bereft of vision, executable
goals and timetables – in short, little more than a cover-up for inaction ». C’est-
à-dire exactement ce que le principe de précaution, lorsqu’il est invoqué – dans
les conditions scientifiques adéquates, que nous nous sommes efforcés de
caractériser - doit permettre d'éviter.
31
8. LA SCIENCE INCERTAINE DE LA SURETE DES PRODUITS CHIMIQUES

MIS SUR LE MARCHE

L'ordre de grandeur (aussi étonnant que cela puisse paraître, il est


impossible d'être plus précis) du nombre de produits chimiques mis sur le
marché international tourne autour de 50 000. Si l'on se restreint aux produits
chimiques produits ou importés en grandes quantités (plus de 1000 tonnes par
an) dans l'Union européenne, on peut être un peu plus précis : leur nombre se
situe dans la fourchette 2500-3000. Ce qui est frappant, c'est que moins de 30 %
de ces produits largement utilisés ont été sérieusement examinés quant à leur
effets externes (au sens de l'analyse économique) possibles ; encore
"sérieusement examinés" veut-il seulement dire examinés d'une manière qui
satisfasse les critères minimaux imposés par les régulations européennes.

Dans ces conditions, demander que chaque produit fasse l'objet


d'investigations de laboratoire et de terrain conformes aux pratiques scientifiques
en apparance les plus exigeantes n'est pas réaliste. D'ailleurs, dans beaucoup de
cas, même si ces investigations étaient effectuées, elles ne révèleraient pas toutes
les potentialités de nuisance des produits chimiques en cause, car ceux-ci ont des
structures moléculaires trop compliquées pour être analysées par les méthodes
physiques et chimiques classiques. D'où la nécessité et l'utilité d'approches
moins précises (dans leur démarche mais pas nécessairement dans leurs
résultats) mais plus aisées à manier et, on l'espère, plus éclairantes pour les
décisions qu'ont à prendre les régulateurs.

Ces approches sont de nature moins analytiques, elles procèdent davantage


par comparaison et par des démarches plus dynamiques anticipant mieux les
effets de l'immersion d'un produit dans un milieu (un écosystème, un être
32
vivant). La science qui en résulte reste certes incertaine, mais elle est plus
praticable et souvent plus fiable que celle à laquelle on tend par une pure
démarche analytique. Nous allons en donner deux exemples.

Tous les produits chimiques peuvent être identifiés selon certaines


grandeurs qui ont une signification physique, chimique ou biologique générale,
et dont la valeur pour chaque produit est révélatrice de certains aspects de son
comportement dans telle ou telle circonstance et dans tel ou tel milieu. Il s’agit
principalement des températures de fusion et de volatilité, de la solubilité dans
l’eau et dans les graisses. La masse moléculaire et la géométrie de la structure
moléculaire tridimensionnelle influencent aussi fortement les propriétés
biologiques et la réactivité chimique (donc la toxicité) du produit.

Ainsi des molécules à forte réactivité ne posent pas de problèmes


environnementaux étendus mais peuvent engendrer des réponses toxiques aiguës
à proximité du lieu de leur production ou de leur utilisation, en fonction du
milieu qu’elles rencontrent. C’est donc la paire molécule-milieu qu’il faut
étudier et le cas échéant réguler, mais seulement du point de vue des affinités
chimiques susceptibles de se traduire par la formation de composés toxiques.
Exemple très différent du point de vue des caractéristiques pertinentes et donc
des conséquences à attendre : des molécules solubles dans l’eau peuvent avoir
une aire de diffusion très étendue, et seront dangereuses si leur structure
tridimensionnelle est telle qu’elles se fixent à des récepteurs significativement
présents dans le milieu ; dans ce cas, les recommandations sont soit de les
confiner soigneusement, soit de les mettre en présence d’une réactif qui brise la
structure en cause ; il n’est pas nécessaire d’investiguer dans le détail leurs autres
propriétés. Autre exemple encore : la solubilité dans les graisses,
indépendamment de toute autre caractéristique d’une molécule, constitue un
signal majeur de danger de fixation dans les êtres vivants : il n’est pas
33
scientifiquement nécessaire d’en savoir plus pour exiger les plus grandes
précautions dans les manipulations des produits en cause, et même pour les
interdire, comme les polluants organiques persistants (DTT, non pas
directement, mais du fait de son métabolite DDE, de nombreux PCB) dont on a
identifié la présence jusque dans les graisses des ours polaires.

Une seconde famille de méthodes que l’on peut mettre en œuvre, sans
devoir multiplier les tests de propriétés physiques et de réactions chimiques des
molécules dont on doit réguler les utilisations, conduit à identifier des cibles
privilégiées (parce qu’elles ont une forte chance d’être atteintes, ou parce
qu’elles sont particulièrement sensibles et donc révélatrices), et à observer ou
expérimenter l’action sur elles des molécules en cause. Le lait maternel constitue
à cet égard une excellente cible ; la présence de polluants dans le lait maternel
sert ainsi d’indicateur sensible de l’exposition directe des adultes et aussi de
l’exposition indirecte des nouveaux-nés (des observations particulièrement
impressionnantes à cet égard ont été faites sur des échantillons de femmes Inuit
dans le Grand Nord canadien).

Pour ce qui est des dangers pour l’environnement, un rôle analogue au lait
maternel peut être joué par des écosystèmes particulièrement sensibles,
populations de planctons (en raison notamment de la grande variété d’espèces
coexistant en un même endroit, et donc de la grande variété d’effets
observables), massifs coraliens, mangroves (par exemple dans les Everglades, au
sud de la Floride).

A toutes ces approches, il ne faut pas demander une révélation exhaustive


des propriétés physiques, chimiques et biologiques des produits chimiques en
examen. Mais elles fournissent souvent des informations suffisamment précises,
fiables, et pertinentes pour ce qu’on doit en faire, de telle sorte qu’elles entrent
34
bien dans la catégorie de la science incertaines mais fiable qui constitue le
support du principe de précaution.

35
CHAPITRE 3

DU RISQUE A L'INCERTITUDE DANS LES


MODELES DE DECISION

36
De von Neumann-Morgenstern à Ghirardato-Maccheroni-Marinacci ce
chapitre analyse les étapes essentielles de l'élaboration, de la critique et du
dépassement du modèle fondamental de von Neumann et Morgenstern. A cette
prise en compte progressive de l'incertitude dans les modèles de décision,
correspond l'extension de l'assurabilité à des situations elles aussi incertaines et
pas seulement risquées.

Il est intéressant d'observer qu'aujourd'hui, tandis que les consultants


américains spécialisés dans l'évaluation des portefeuilles des compagnies
d'assurance et de réassurance utilisent pour ce faire une famille de distributions
de probabilités (et non plus seulement une distribution de probabilités en un
sens, plus ou moins précis, moyenne), des mathématiciens et économistes
français et italiens obtiennent de manière endogène dans leurs modèles de
décision sous incertitude des ensembles de distributions de probabilités à partir
desquelles la décision est prise selon des modalités dont il est rendu compte de
manière précise à la fin du chapitre.

1.COMMENT LE RISQUE SE MANIFESTE A L’INDIVIDU

Dans le modèle de décision individuelle face au risque proposé par John


von Neumann et Oskar Morgenstern33, un "risque" (ou plus précisément une
variable risquée, ou variable aléatoire) est la combinaison d'un ensemble de
niveaux de revenu (ou de gain, ou de richesse) possibles pour l'individu en cause
et d'une distribution correspondante de probabilités objectives (fournies à
l'individu par son environnement) :

33
Dans von Neumann, J. and O. Morgenstern (1947).
37
X = {x1 ,..., xN } ensemble des niveaux de revenu possibles

µ = {π 1 ,..., π N } distribution de probabilités correspondante

où π i (i = 1,..., N ) est la probabilité que le niveau de revenu de l'individu


soit effectivement π i . On a évidemment

π i ≥ 0 (i = 1,..., N )
et
N
∑ π k = 1.
k =1

On a ainsi défini une variable aléatoire ~


x sur X avec µ , telle que

Pr {~x = xi } = π i .

C'est sur des revenus (ou gains, ou richesses) aléatoires que l'individu va
exprimer des préférences et faire des choix. Ou, ce qui revient au même du
moment que X est fixé une fois pour toutes (ce qui sera toujours possible dans
les situations que nous aurons à considérer, en prenant X dès le départ
suffisamment grand, quitte à avoir beaucoup de πi nulles, ce qui n'est pas

gênant), sur des distributions de probabilités µ associées à X.

Quels événements peuvent engendrer un revenu aléatoire ~


x ? un jeu de
hasard, un placement financier, un dommage matériel accidentel, un contrat
d'assurance pour ce dommage,… Dans tous ces exemples, le revenu aléatoire
dépend d'un ou plusieurs événements aléatoires, tel que point d'arrêt d'une
roulette, circonstances d'une guerre, prix du baril de pétrole, gravité d'un

38
accident,… Von Neumann et Morgenstern étaient évidemment conscients de
cette dépendance, mais ne cherchaient pas à la formaliser autrement qu'en ce qui
concerne ses conséquences sur le revenu (ou gain, ou richesse)34. Autrement dit,
dans l'approche des choix face au risque qu'ils développent, on considère
toujours que l'individu s'intéresse exclusivement aux revenus possibles et aux
probabilités correspondantes, mais pas aux circonstances qui les provoquent. Il
ne lui importe pas, par exemple, de réaliser un revenu aléatoire en bourse plutôt
qu'au jeu, ou encore d'encaisser une indemnité d'assurance ; il ne lui importe pas
non plus de subir un dommage matériel du fait d'un accident de la circulation
plutôt que d'un incendie. Cette neutralité aux circonstances de réalisation du
risque ne sera plus vraie dans les approches plus générales considérées dans les
dernières sections de ce chapitre.

Pour illustrer cette formalisation de base due à von Neumann et


Morgenstern, considérons-en deux applications qui sont au cœur des
mathématiques financières.

2.1. Titre à rendement aléatoire


Admettons que l'individu en cause possède, à l'instant initial (instant 0 ), un
revenu initial certain35 x0 qu'il peut placer auprès d'une institution financière
(qui peut être un marché financier), c'est-à-dire qu'il peut échanger contre un
revenu différé aléatoire ~
x, appelé titre (ou encore actif). Cela signifie qu'à
l'instant 1, par exemple au bout d'un an, l'individu possèdera non plus x0 , mais

x = x0 (1 + ~
~ r)

34
Nous ne rappellerons plus dans la suite la diversité des interprétations possibles.
35
Une variable certaine est une variable aléatoire qui prend la même valeur dans tous les événements
aléatoires susceptibles de l'affecter. Cette définition correspond au sens commun.
39
~
r étant le rendement aléatoire du titre ~
x . Dans le cas particulier où ~
r est
lui-même certain ( ~
r est égal au même nombre r quoiqu'il arrive entre les
instants 0 et 1), alors

~
x = x0 (1 + r )

est un revenu certain égal au revenu initial augmenté du produit de celui-ci par le
taux d'intérêt r.

2.2 Contrat d'assurance


Considérons une variable aléatoire ~
x définie sur

X = {x1 ,..., xN }

avec la distribution de probabilités

µ = {π 1 ,..., π N }

Dans X, considérons le plus grand des xi , qui peut être (moyennant, si


nécessaire, une renumérotation)

x1 = max k =1,..., N xk .

On peut alors interpréter la variable aléatoire

~
d = x1 − ~
x

40
définie sur

{0 , x1 − x2 ,..., x1 − xN }

avec la même distribution de probabilités

µ = {π 1 , π 2 ,..., π N }

comme un dommage matériel aléatoire dû à un événement tel que accident,


incendie, vol, etc. Les diverses réalisations possibles de cet événement aléatoire
ont une gravité plus ou moins forte, car provoquent des dommages plus ou
moins grands.

Dans ces conditions, on dit que l'individu considéré souscrit un contrat


d'assurance (avec un autre agent économique, l'assureur) s'il échange le revenu
aléatoire ~
x contrer un autre revenu aléatoire

~
x == −α + β
~


• α est la prime d'assurance ; c'est une variable certaine,
indépendante de la réalisation de l'événement aléatoire sous-
jacent à ~
x ; elle est payée par l'assuré à l'assureur
antérieurement à cette réalisation.

~
• β est l'indemnité versée à l'assuré ; c'est le remboursement,
~ ~
partiel ou total, du dommage d qu'il subit ; β est une variable

41
aléatoire dont les réalisations possibles, avec la distribution de
probabilités µ , soit telles que

∀ i = 1,..., N , 0 ≤ β i ≤ d i
avec

Pr {β = β i } = π i .
~

On observe que, comme il fallait s'y attendre, β1 = 0 : il n'y a rien à indemniser


quand il n'y a pas de dommage.

~ ~
Dans le cas particulier où β = d , on dit que le contrat d'assurance est à
couverture totale : ~
x est échangé contre le revenu certain

~
x − α + d = x1 − α .
~

2. COMMENT L'INDIVIDU EVALUE LE RISQUE AUQUEL IL EST CONFRONTE

Dans l'analyse microéconomique du comportement du consommateur,


celui-ci compare entre eux des vecteurs (appelés parfois paniers de
consommations) dont les composantes sont des quantités de biens ou services
offerts à sa consommation. Ici, l'individu confronté au risque compare des
revenus aléatoires. Von Neumann et Morgenstern admettent qu'il est capable de
classer ceux-ci, dans le sens suivant : quels que soient les revenus aléatoires ~
x'
et ~
x " qu'il est amené à comparer,

• soit il préfère strictement ~


x'à ~
x" : ~
x '> ~
x"

42
• soit il préfère strictement ~
x" à ~
x' :~x '< ~x"
• soit ~
x ' et ~
x " lui soit indifférents : ~
x '∼ ~x ".

On a là un préordre de préférences, dont on suppose, comme dans l'analyse du


consommateur, qu'il est transitif et continu ; ces deux hypothèses sont naturelles
du moment qu'on admet que les préférences de l'individu en cause sont
rationnellement définies. Alors, le théorème de Gérard Debreu36 sur l'existence
d'une fonction d'utilité s'applique : le préordre des préférences peut être
représenté par une fonction d'utilité V , continue, bornée et croissante, et définie
à une transformation continue croissante près, dans le sens où :

V (~
x ') > V ( ~
x ") si et seulement si ~
x '> ~
x"
V (~
x ') < V ( ~
x ") si et seulement si ~
x '< ~
x"
V (~
x ') = V ( ~
x ") si et seulement si ~
x '∼ ~
x ".

Pas plus que dans l'analyse du comportement du consommateur, jamais on


n'a prétendu que l'individu confronté au risque effectue ses choix en calculant la
valeur de la fonction d'utilité pour chaque revenu aléatoire qu'il souhaite
comparer à d'autres. Ce que dit le théorème d'existence, c'est que tout ce passe
comme s'il effectuait ce calcul, bien qu'il ne le fasse pas effectivement. Personne,
jamais, ne connaîtra quelle fonction V caractérise tel individu : mais la seule
connaissance de l'existence d'une fonction V , et de ses propriétés qualitatives,
informe sur la structure des choix effectués par l'individu dont les préférences
peuvent être représentées par V. Dans l'analyse du comportement du
consommateur, où l'espace des choix est celui des quantités consommées, cette
connaissance est riche et opérationnelle : elle comporte les propriétés

36
Debreu, G. (1964).
43
fondamentales des fonctions de demande, par exemple. Mais ici l'espace des
choix, espace de variables aléatoires, est beaucoup plus compliqué, et de ce fait
V n'apporte pas directement d'information opérationnelle sur les choix
effectués. C'est pourquoi von Neumann et Morgestern ont introduit la célèbre
hypothèse de l'espérance de l'utilité.

On dit qu'un fonction V vérifie l'hypothèse de l'espérance de l'utilité si et


seulement s'il existe une fonction numérique u définie sur X

u : X → R : x → u (x)
qui soit continue, croissante et bornée, et telle que, quel que soit le revenu
aléatoire possible ~
x , on ait

V ( x ) = E [u ( x )] = ∑ π K u ( xk ).
N
~ ~
k =1

La fonction u est appelée fonction de von Neumann-Morgenstern (fonction


VNM). Puisque V n'est définie qu'à une transformation continue croissante
près, u n'est elle-même définie qu'à une transformation affine croissante près ;
on peut donc fixer

u (0) = 0

ce qui est systématiquement la règle de normalisation adoptée ici pour u . Celle-


ci étant définie sur X et à valeurs dans R , son maniement et son estimation
numérique sont relativement faciles ; c'est une des raisons principales de son
utilisation systématique dans les calculs financiers et assurantiels.

44
Mais cet avantage, largement déterminant, a son revers : la restriction aux
fonctions d'utilité V qui vérifient l'hypothèse de l'espérance de l'utilité diminue
la généralité de la représentation des préférences entre revenus aléatoires. La
situation aurait même pu être plus préoccupante si von Neumann et Morgenstern
n'avaient pas été capables de caractériser cette perte de généralité sur des
préférences elles-mêmes (et non pas de la manière assez peu transparente qui est
celle de l'hypothèse de l'espérance de l'utilité). Ils sont parvenus à cette
caractérisation dans leur théorème de l'espérance de l'utilité, lequel s'énonce
comme suit :

Théorème de l'espérance de l'utilité


Si les préférences peuvent être représentées par une fonction d'utilité V et
satisfont un axiome de comportement appelé axiome d'indépendance, alors V
vérifie l'hypothèse de l'espérance de l'utilité37.

Le contenu de l'axiome d'indépendance peut être résumé de la manière


suivante : le sens de la préférence entre deux revenus aléatoires n'est pas changé
lorsqu'on applique à chacun de ceux-ci la même perturbation aléatoire. Plus
précisément, l'axiome d'indépendance s'énonce ainsi : quels que soient les
revenus aléatoires ~
x' , ~
x" et ~
x , et quel que soit le nombre λ compris entre 0

et 1, si on a

V (~
x ') ≥ V ( ~
x ")

alors on a aussi

37
La démonstration de ce théorème est donnée au chapitre 3 de Kreps, D. (1990). Voir aussi le livre
fondateur von Neumann, J. and O. Morgestern (1944).
45
V (λ ~
x '+(1 − λ )~
x ) ≥ V (λ ~
x "+(1 − λ )~
x ).

A l'origine, l'aspect restrictif de l'axiome d'indépendance n'est pas apparu,


on n'a pas vu quels comportements il exclut. Les paradoxes d'Allais et surtout
d'Ellsberg ont plus tard conduit à s'interroger sur la portée des limites de
l'axiome d'indépendance, et incité à dépasser ces limites. Mais avant d'y venir,
nous devons nous arrêter un moment sur le concept d'aversion pour le risque, et
sur sa mesure. Cela fournira un point de comparaison utile avec l'aversion pour
l'ambiguïté qu'Ellsberg a illustrée et qu'ultérieurement d'autres économistes et
mathématiciens ont intégrée dans des modèles qui ont repoussé les limites du
modèle de l'espérance de l'utilité de von Neumann et Morgenstern.

3. EN QUEL SENS UN INDIVIDU A DE L'AVERSION POUR LE RISQUE

L'aversion pour le risque est le plus souvent définie pour des préférences
vérifiant l'hypothèse de l'espérance de l'utilité, hypothèse qui garantit l'existence
d'une fonction VNM u.

La concavité de u est alors un indicateur de l'intensité de l'aversion pour le


risque. En effet si u est strictement concave (strictement indique que cette
fonction est véritablement concave, qu'on n'est pas dans le cas limite d'une
fonction linéaire, laquelle correspond à la neutralité vis-à-vis du risque) on a, par
définition même de la concavité,

E [u (~
x )] < u (E {~
x }) ;

donc, puisque l'hypothèse de l'espérance de l'utilité est vérifiée,

46
V (~
x ) < V (E {~
x }).

Or, cette dernière égalité signifie que, au revenu aléatoire ~


x , l'individu en cause
préfère strictement le revenu certain égal à l'espérance mathématique de ~
x : il
évalue ~
x à moins que sa valeur moyenne E [~
x ].

Ceci est bien une indication d'aversion pour le risque. Mais ce n'en est pas
une mesure. Voyons maintenant comment définir celle-ci. Comme u est
continue et que u (0 ) = 0 , il existe, en raison de la première des deux inégalités
ci-dessus, un nombre positif x , compris entre 0 et E [~
EC x ], tel que

E [u (~
x )] = u ( xEC )

c'est-à-dire

V (~
x ) = V ( xEC ) .
Par conséquent xEC apparaît comme le revenu certain équivalent (ou

équivalent – certain) à ~
x , du point de vue des préférences de l'individu en
cause. Et la différence
ρ = E [~x ]− xEC ,

appelée prime de risque, mesure la diminution de son revenu moyen que


l'individu est prêt à accepter pour être complètement débarrassé du risque
affectant ~
x . C'est une mesure de l'aversion pour le risque. Ce n'est pas la seule :
l'indice de Arrow-Pratt est plus souvent utilisé dans les calculs financiers et
assurantiels.

47
Si on décompose ~
x en une partie certaine x0 = E [~
x] et une partie

aléatoire ε~ d'espérance mathématique nulle, c'est-à-dire

x = x0 + ε~
~ avec E [ε~ ] = 0 ,

alors −ρ apparaît comme l'équivalent certain de ε~ , en ce sens que

E [u ( x0 + ε~ )] = u ( x0 − ρ ) .

La prime de risque ρ dépend de x0 et de ε~ , et naturellement de u, qui

exprime de manière synthétique l'attitude de l'individu vis-à-vis du risque ; on


choisira donc pour elle la notation

ρ = ρ (u ; x0 , ε~ ).

Il ne faut pas confondre prime de risque et prime d'assurance. Elles sont


reliées entre elles de la manière suivante. Dans un contrat d'assurance, nous
avons vu que
~ ~
x = x1 − d

est échangé contre

~
x = −α + β .
~

48
Si le contrat d'assurance est à couverture totale, la prime d'assurance maximum
αM que l'individu en cause est prêt à payer est déterminée par l'équation

V (~
x ) = V ( x1 − α M ) = u ( x1 − α M )

En se reportant à la définition donnée ci-dessus de la prime de risque ρ , on voit


donc qu'on a l'égalité des deux équivalents-certains

E [~
x ] − ρ = x1 − α M

soit encore

[ ~
]
E x1 − d − ρ = x1 − α M .

Comme x1 = E [x1 ], puisque x1 est une variable certaine, on a par conséquent


la relation

α M = ρ + E [d ]
~

qui signifie que la prime d'assurance maximum que l'individu est prêt à payer
comporte deux composantes, la moyenne du dommage qu'il craint et la prime de
risque, qui exprime son aversion vis-à-vis du caractère aléatoire de ce dommage.
On mesure donc l'aversion pour le risque au moyen de la prime de risque.
Alternativement on peut la mesurer au moyen de l'indice absolu de Arrow-Pratt,
qui est plus commode dans les utilisations calculatoires. Cet indice, encore
appelé indice absolu d'aversion pour le risque, et noté I a (u , x0 ) , est en fait un
indice différentiel de concavité de la fonction VNM u 38 :

38
Son existence requiert que u soit au moins deux fois continûment différentiable.
49
u " ( x0 )
I a (u , x0 ) = −
u ' ( x0 )
où x0 est une revenu certain quelconque.

Encore faut-il s'assurer de l'équivalence de ces deux mesures ; elle résulte


immédiatement du théorème de Pratt39. Dans ce théorème, on considère deux
individus, dont les fonctions VNM sont respectivement u1 et u2 , concaves et au
moinsdeux fois continûment différentiables. On considère comme
précédemment

x = x0 + ε~
~

et on utilise les notations, pour i = 1, 2,

xEC (ui ; ~
x ) = x0 − ρ (ui ; x0 , ε~ ) .

On a alors le théorème de Pratt, qui s'énonce comme suit :

Théorème de Pratt
Les quatre propriétés suivantes sont équivalentes :

1 u1 est "plus concave" que u2 , c'est-à-dire que la fonction g définie

par

g = u1 o u2−1

39
Pour des développements plus détaillés sur la mesure de l'aversion pour le risque et, en particulier, pour la
démonstration du théorème de Pratt, voir Arrow, K. (1974).
50
est elle-même une fonction concave.

2 Pour tout revenu aléatoire ~


x possible, on a

ρ (u1 ; x0 , ε~ ) ≥ ρ (u2 ; x0 , ε~ )

3 Pour tout revenu aléatoire ~


x possible, on a

xEC (u1 ; ~
x ) ≤ xEC (u2 ; ~
x ).

4 Quel que soit le nombre positif x0

I a (u1 ; x0 ) ≥ I a (u2 ; x0 ) .

On voit donc qu'entre tous les indicateurs introduits pour mesurer l'aversion pour
le risque, il n'y a aucune contradiction : qui a plus d'aversion pour le risque selon
un indicateur en a plus aussi selon un autre.

Pour montrer qu'il ne s'agit pas de développements abstraits, donnons deux


exemples de critères de sélection de portefeuille bâtis à partir des indices
d'Arrow-Pratt, sachant qu'à l'indice absolu s'adjoint l'indice relatif d'aversion
pour le risque :

I r (u ; x0 ) = x0 I a (u ; x0 ).

On sait qu'un portefeuille est un ensemble d'actifs (ou titres) ayant des
rendements aléatoires (pour quelques-uns d'entre eux, peut-être, certains).

51
Imaginons un individu disposant d'un revenu initial certain x0 , qu'il cherche à
placer sous forme de portefeuille constitué de deux types d'actifs :

• un actif risqué à rendement aléatoire ~


r
• un actif certain à rendement certain s.

Comment alors l'individu peut-il répartir, au mieux de ses intérêts, son revenu
initial entre ces deux actifs ? La réponse dépend de son attitude vis-à-vis du
risque formalisée par sa fonction VNM u.

Considérons qu'il place en actif risqué le montant y et en actif sans risque

le montant (complémentaire par rapport à son revenu initial x0 ) x0 − y , et qu'il


le fait rationnellement du point de vu de son intérêt personnel, c'est-à-dire de
façon à maximiser l'utilité E [u (~
x )] , où

x = y (1 + ~
~ r ) + ( x0 − y )(1 + s ) .

On a alors les deux théorème suivants :

Théorèmes de sélection de portefeuille40


(1) Si l'indice absolu d'aversion pour le risque de l'individu
diminue lorsque le revenu initial x0 augmente, alors le montant
y placé sous forme d'actif risqué augmente avec x0 .

40
Voir Gollier, C. (1998) .
52
(2) Si l'indice relatif d'aversion pour le risque diminue lorsque le
revenu initial x0 augmente, alors la proportion y / x0 du

revenu initial sous forme d'actif risqué augmente avec x0 .

4. LE PARADOXE D'ELLSBERG ET L'AMBIGUÏTE

Le paradoxe d'Allais41 n'avait fait qu'égratigner au début des années 50 le


modèle de von Neumann-Morgenstern, car il ne mettait en cause que les
comportements dans des situations extrêmes. Le paradoxe d'Ellsberg42, formulé
dix ans plus tard, a en revanche montré que les limites du modèle étaient
beaucoup plus significatives qu'on ne l'avait pensé auparavant. Il a fallu un
certain temps pour en prendre conscience, et beaucoup plus pour commencer à
formuler des modèles moins restrictifs qui ne tombent sous le coup ni du
paradoxe d'Allais ni du paradoxe d'Ellsberg.

Ce dernier a été présenté dans le contexte suivant : un expérimentateur met


un échantillon de sujets face à la situation suivante : un vase contient 90 boules
dont on sait que 30 sont rouges et les 60 autres bleues ou jaunes (on ne connaît
pas parmi celles-ci les proportions respectives de bleues et de jaunes ; il est tout
aussi possible qu'il y en ait 30 et 30, que 0 et 60, ou 60 et 0, etc…). Chaque sujet
va tirer une boule au hasard et a le choix entre deux loteries (c'est-à-dire deux
types de conséquences) :

- soit gagner € 100 si une boule rouge sort, et ne rien gagner autrement
(loterie R) ;
41
Voir Allais, M. (1953) et Allais, M. (1987).
42
Ellsberg, D. (1961). David Ellsberg est très connu pour son paradoxe, mais il l'est bien davantage pour
avoir transmis à des journalistes américains les "Pentagon papers" auxquels il avait accès en raison de sa position
au ministère américain de la Défense. Ces documents ultra confidentiels montraient, de l'intérieur, les
incohérences de la conduite de la guerre au Vietnam sous l'administration Nixon. Les poursuites engagées contre
lui par le Pentagone n'ont jamais abouti en raison du scandale du Watergate, et de la chute de Nixon.
53
- soit gagner € 100 si une boule bleue sort, et ne rien gagner autrement
(loterie B ).

Expérimentalement, on observe que la plupart des sujets préfèrent la loterie R à


la loterie B.

Ensuite, on fait une deuxième expérience, dans laquelle chaque sujet va


encore tirer du vase une boule, en ayant cette fois le choix entre deux autres
loteries:

- soit gagner € 100 si une boule rouge sort, rien si c'est une bleue, et €
100 aussi si c'est une jaune (loterie R∪J)
- soit ne rien gagner si une boule rouge sort, € 100 si c'est une bleue et
aussi € 100 si c'est une jaune (loterie B ∪ J ).

Expérimentalement, on observe que la plupart des sujets préfèrent la loterie


B ∪ J à la loterie R ∪ J . Qui plus est, la plupart des sujets à la fois préfèrent
R à B et B ∪ J à R ∪ J .

Ellsberg montre alors que ces préférences simultanées sont incompatibles


avec l'existence de probabilités sur la base desquelles ces sujets feraient leurs
choix. En effet, s'ils se comportaient conformément au modèle de von Neumann-
Morgenstern, ou plus exactement conformément au modèle de Savage43, leur
préférence pour R par rapport à B ne pourrait être compatible qu'avec l'inégalité
entre probabilités

43
Dans le modèle de Savage les probabilités sont subjectives, et non pas objectives comme dans le modèle
de von Neumann-Morgenstern. Voir Savage, L. (1954).
54
Pr (R ) > Pr ( B )
puisque les gains sont les mêmes (€ 100).

De même, leur préférence pour B∪J par rapport à R∪J ne pourrait être
compatible qu'avec

Pr (B ∪ J ) > Pr ( R ∪ J )

puisque les gains sont les mêmes (deux fois € 100). Mais, en raison de
l'indépendance stochastique des tirages,

Pr ( B ∪ J ) = Pr (B ) + Pr ( J )
et
Pr (R ∪ J ) = Pr (R ) + Pr ( J )

On devrait donc avoir simultanément

Pr (R ) > Pr (B )
et
Pr (B ) + Pr ( J ) > Pr (R ) + Pr ( J )

ce qui est manifestement impossible.

Ce qui se passe, c'est qu'en préférant R à B, B ∪ J à R ∪ J , les


et
sujets fuient l'ambiguïté inhérente aux loteries qui séparent B et J , alors qu'il
n'y a pas de distinction correspondante au sein de l'information disponible avant
tirage. Et cette fuite devant l'ambiguïté n'est pas représentable en probabilité, du
55
moins avec une distribution unique de probabilités. C'est bien le cœur des
modèles de von Neumann-Morgenstern et de Savage qui est touché.

5. SUR LE CHEMIN DE MODELES DE DECISION EN INCERTITUDE NON

PROBABILISABLE

Les travaux d'Ellsberg ont constitué un stimulant puissant à dépasser les


limites des modèles de von Neumann-Morgenstern et Savage ; en particulier à
traiter vraiment de cette incertitude que, dès 1921, John Maynard Keynes et
Franck Knight (travaillant en totale indépendance l'un de l'autre)44, ont distingué
du risque, celui-ci étant probabilisable alors que, selon leur définition,
l'incertitude ne l'est pas. Si en effet les sujets d'Ellsberg, dans un contexte
beaucoup plus simple que ceux dans lesquels les décisions financières,
assurantielles, celles exprimant les choix publics, etc… doivent être prises, nient
par leur comportement l'existence d'une distribution de probabilités qui, selon
von Neumann-Morgenstern-Savage, les guiderait, alors c'est que Keynes et
Knight avaient raison : l'incertitude intrinsèque mérite elle aussi un traitement
systématique, que les modèles disponibles n'assurent pas.

Dès les travaux d'Allais, on avait compris que, si le modèle de von


Neumann-Morgenstern a une faiblesse sérieuse, c'est dans l'hypothèse sur les
comportements que constitue l'axiome d'indépendance qu'elle se loge. C'est donc
d'abord de cette hypothèse que les travaux post-Ellsberg ont cherché à se libérer.
Ainsi Itzhak. Gilboa et David Schmeidler45 ont-ils affaibli l'axiome
d'indépendance de manière drastique : ce n'est plus vis-à-vis d'une perturbation
aléatoire quelconque ~
x que les préférences doivent rester invariantes, mais
seulement vis-à-vis d'une perturbation certaine x. Ils restreignent de ce fait

44
Keynes, J.M. (1921) et Knight, F. (1921).
45
Gilboa, I. and D. Schmeidler (1989).
56
beaucoup moins l'ensemble des préférences auxquelles leurs résultats vont
s'appliquer ; autrement dit les comportements dont leur modèle rend compte sont
beaucoup plus divers ; en particulier, ils ne tombent plus sous le coup des
paradoxes d'Allais et d'Ellsberg.

Mais, pour obtenir une caractérisation formalisée des comportements en


termes de maximisation d'une espérance mathématique d'une fonction
généralisant la fonction VNM u, Gilboa et Schmeidler introduisent une
nouvelle hypothèse sur les préférences. Il s'agit d'une hypothèse d'aversion pour
l'ambiguïté : ~
x ', ~
x" étant deux revenus aléatoires possibles quelconques, et λ
un nombre quelconque compris entre 0 et 1, alors, si ~
x ' et ~
x " sont indifférents
pour l'individu concerné, on a

λ ~x '+(1 − λ ) ~x " ≥ ~x ' 46.

Dans ces conditions, Gilboa et Schmeidler obtiennent la remarquable


caractérisation suivante : il existe un ensemble P de distributions de
probabilités sur X , ensemble fermé et convexe, et une fonction u : X → R 47,
tels qu'un revenu aléatoire quelconque ~
x ' est préféré à un autre revenu aléatoire
quelconque ~
x " si et seulement si :

min µ '∈P Eµ ' [u (~


x ')] > min µ "∈P Eµ " [u (~
x ")],

46
Et ≥~
x " , sans qu'il soit nécessaire de l'indiquer, puisque ~
x ' et ~
x " sont quelconques dans leurs
ensembles respectifs de variation.
47
Analogue à la fonction VNM dont elle partage les propriétés.
57
la notation Eµ [u (~
x )] signifiant qu'on calcule l'espérance mathématique de

u (~
x ) avec la distribution de probabilité µ .

Ce résultat est non seulement remarquable intrinsèquement, par l'ampleur


du pas qu'il fait franchir à la théorie de la décision en incertitude, tout en restant
dans la ligne de formalisation de von Neumann-Morgenstern et, plus
spécifiquement, de Savage48. Il est également remarquable par le fait qu'il exhibe
un ensemble de distributions de probabilités que l'individu concerné considère
comme méritant examen, c'est-à-dire méritant qu'on applique chacune des
distributions de l'ensemble à l'évaluation de l'indicateur u (~
x ) , et qu'on compare
ces évaluations comme l'indique l'inégalité ci-dessus.

Cependant, comme représentation des comportements en incertitude, le


résultat de Gilboa et Schmeidler est insatisfaisant. Il s'avère que leur hypothèse
d'aversion à l'ambiguïté est trop unilatérale : elle conduit à exclure tous les
comportements qui ne manifestent pas le pessimisme représenté par la
minimisation sur l'ensemble P des deux côtés de l'inégalité ci-dessus ; il s'agit
de choisir, relativement à P , la moins mauvaise des pires situations.
Le travail de Gilboa et Schmeidler apparaît donc comme une étape très
significative, pas vraiment opérationnelle en soi mais traçant clairement une voie
de généralisation.

48
Car, chez Savage, la distribution de probabilités n'est pas fixée a priori, elle apparaît, de même qu'ici,
comme un résultat ; mais elle est unique, en égard au caractère plus restrictif des hypothèses de Savage.
58
6. UN ABOUTISSEMENT (PROVISOIRE)

Deux équipes de chercheurs ont poursuivi dans cette voie ; l'une est
française (Gajdos, Tallon, Vergnaud, …)49 et l'autre italienne (Ghirardato,
Maccheroni, Marinacci, …). Ces deux équipes ont obtenu des résultats
remarquables ; au moins provisoirement, ce sont à ce jour les Italiens qui ont
obtenu le résultat le plus général, qui se prête aussi à une interprétation très
claire, malgré les difficultés mathématiques que les auteurs ont dû surmonter. En
dépit de ces qualités, beaucoup reste à faire.

Voici l'essentiel du modèle de Ghirardato-Marccheroni-Marinacci.


Les hypothèses sont les mêmes que chez Gilboa-Schmeidler (en particulier
l'affaiblissement radical de l'axiome d'indépendance), sauf qu'il n'y a pas
d'hypothèse d'aversion pour l'ambiguïté : on n'impose rien a priori sur l'attitude à
l'égard de l'ambiguïté. Le problème de caractérisation des choix devient alors
beaucoup plus difficile, et sa solution beaucoup plus riche. Comme Gilboa –
Schmeidler, Ghirardato-Maccheroni-Marinacci démontrent qu'il existe un
ensemble P de distributions de probabilités sur X , ensemble fermé (et même
faiblement compact) et convexe, et une fonction u : X → R (avec les

propriétés habituelles) ; P et u sont tels – ici apparaît la nouveauté décisive -


que les préférences sur la revenus aléatoires possibles ~
x sont représentées par
les somme pondérée suivante d'espérances mathématiques en u :
α min µ∈P Eµ [u (~x )] +
+ (1 − α ) max µ∈P Eµ [u (~
x )]

49
Voir par exemple Gajdos, T. , J.M. Tallon and J.C. Vergnaud (2004).
59
où α , qui est une valeur numérique comprise entre 0 et 1, unique si P n'est pas
réduit à une distribution de probabilités unique, et est endogène au résultat ainsi
énoncé, s'interprète comme le coefficient (on pourrait aussi dire indice)
d'aversion pour l'ambiguïté.

La généralité du résultat et la clarté de son interprétation en termes


d'ambiguïté en font une étape capitale sur le chemin d'un traitement complet et
opérationnel de la décision sous incertitude. Il contient tous les résultats
précédents. Et, dans un tout autre registre, il rationalise les procédures
heuristiques d'évaluation des portefeuilles de "risques" (c'est-à-dire de contrats
signés par des compagnies d'assurance ou de réassurance, où beaucoup de
"risques" sont en fait des engagements incertains, au sens de la distinction que
nous avons pratiquée dans ce chapitre) qu'opèrent aux Etats-Unis des firmes de
notation spécialisées dans l'assurance. Etape cependant, et non pas
aboutissement car, en matière d'agrégation de choix individuels, d'une part, et de
modèles dynamiques de l'autre, a peu près tout reste à faire.

60
CHAPITRE 4

ASSURABILITE ET INCERTITUDE

61
Les choix publics et la théorie de la décision n'ont pas le monopole de la
prise en compte de l'incertitude. Sa présence s'est affirmée dans une multitude de
situations et d'activités et, par conséquent, à travers des demandes d'assurance
qui ne satisfont pas aux critères traditionnels d'assurabilité. Il n'y a pas si
longtemps, il ne pouvait – au moins en théorie – y avoir assurabilité sans que les
sommes en jeu et les probabilités correspondantes puissent être évaluées avec
une précision suffisante. En outre, pour garantir sa solvabilité en (presque) toutes
circonstances, le portefeuille de risques couverts par un assureur devait être
suffisamment fourni en risques stochastiquement indépendants pour que joue en
sa faveur une loi des grand nombres (qui garantit que, si les risques indépendants
détenus sont suffisamment nombreux, le risque résiduel moyen est aussi petit
qu'on le veut).

On assure aujourd'hui, et réassure, bien au-delà de ces limites. C'est donc


que les critères d'assurabilité se sont élargis, grâce à des institutions et des
instruments nouveaux. Quelles institutions, quels instruments, et donc quels
critères, c'est l'objet de ce chapitre de l'examiner et de l'analyser. Auparavant, il
n'est pas inutile d'attirer l'attention sur le fait que le critère traditionnel lui-même
couvre un champ plus vaste qu'on le croit souvent.

INTRODUCTION

1. LOI DES GRANDS NOMBRES SANS INDEPENDANCE STRICTE

Les lois de grands nombres sont effectives dans des conditions moins
restrictives que celles qui sont communément énoncées. L'indépendance
stochastique des risques concernés n'est pas requise, mais seulement une

62
indépendance asymptotique ou, ce qui revient au même, une indépendance qui
décroît avec une mesure appropriée de la distance entre ces risques50.

Un exemple d'un telle dépendance est fourni par une population


d'automobilistes disséminés sur un territoire suffisamment vaste. Ici, le concept
de distance est immédiat : pour deux quelconques de ces automobilistes, le
risque de se rencontrer est d'autant plus faible que leurs domiciles sont éloignés.
Si aucune loi des grands nombres n'était effective dans ce cas, le fondement de
l'assurance automobile serait sapé.

2. RISQUES NATURELS CATASTROPHIQUES ET LOIS DE PARETO-LEVY

Autre exemple de champ plus vaste qu'on ne le reconnaît en général : à un


événement qui ne s'est jamais produit, il peut être possible d'assigner une
probabilité estimée à partir d'événements antérieurement observés dont
l’événement potentiel apparaît comme un cas extrême. Considérons par exemple
les ouragans sur la côte sud-est des Etats-Unis. On en a recensé 112 entre 1925
et 1995 qui ont, chacun, causé des dommages supérieurs à 1 million de dollars
(les trente plus importants ont causé des dommage cumulés de l'ordre de 300
milliards de dollars, jusqu'à atteindre pour Andrew, le plus dévastateur d'entre
eux, survenu en 1992, 30 milliards de dollars). Si on construit, en double échelle
logarithmique, la courbe de fréquence cumulée des dommages observés à
l'occasion d'évènements qui ont coûté plus de 100 millions de dollars chacun, on
peut répondre à la question : combien d'ouragans ont-ils occasionné des pertes
supérieures à telle ou telle valeur ? La graduation en double échelle
logarithmique permet de faire figurer des montants très élevés de dommages
dans un format lisible. Or on constate que, pour des montants de dommages très
élevés, les observations s'alignent sur une droite (obtenue en fait par estimation

50
Henry, C. (1981).
63
économétrique à partir des observations). Cette droite est une droite de Pareto, et
le mathématicien français Paul Lévy a caractérisé la distribution de probabilités
qui l'engendre (distribution dite L. stable).

A partir d'un telle estimation et des propriétés des distributions L-stables,


mises en évidence par Paul Levy51, il est possible d'estimer la probabilité
d'occurrence d'une ouragan plus violent que tous ceux qui se sont produits (qui
sont ceux correspondent aux observations sur la droite de Pareto). Ainsi
assureurs et réassureurs disposent-ils d'une probabilité pour pondérer les
dommages correspondant à cet ouragan potentiel.

Mais cette méthodologie n'est praticable qui « toutes choses égales par
ailleurs », c’est-à-dire si les causes (climatologiques, démographiques,
urbanistiques, etc…) sous-jacentes des ouragans, et de l’ampleur des dommages
qu’ils causent, ne se transforment pas au cours du temps, ou tout au moins se
transforment selon un processus à peu près prévisible (croissance économique,
développements de l’urbanisation). Mais le régime des ouragans est affecté par
le rythme et les modalités du changement climatique, qui sont des variables
incertaines. Et l’on franchit ainsi la frontière entre risque et incertitude. On entre
alors dans un univers différent, que ce chapitre a pour objet d’explorer d’un
point de vue assurantiel.

51
Lévy, P.(1937).
64
1ERE PARTIE - LA REGULATION DES RISQUES SYSTEMIQUES ET
NOUVEAUX RISQUES

Si l’OCDE pointe les catastrophes naturelles, les accidents technologiques,


les maladies infectieuses, le terrorisme et la sécurité alimentaire comme des
risques majeurs du 21ème siècle, ce n’est pas uniquement parce que la nature de
ces risques paraît avoir changé, mais c’est avant tout parce que l’on assiste à une
évolution du contexte dans lequel ils apparaissent.

La complexification des activités économiques et la concentration urbaine


toujours plus importante qui en résulte, montrent que le risque devient plus
endogène (c’est à dire qu’il dépend des activités de l’ensemble des agents
économiques), plus durable voire irréversible, d’une ampleur toujours plus
importante et d’une amplification plus intense. De plus, le progrès technologique
agit également comme une force modifiant la nature du risque. S’il facilite la
collecte et le traitement de l’information, en reposant sur une interaction entre
divers acteurs au sein de réseaux, il multiplie ainsi les voies de propagation des
catastrophes et augmente la vulnérabilité des sociétés aux risques majeurs. Ces
changements qui se produisent en terme de démographie, d’environnement, de
technologies et de structures socio-économiques se répercutent alors sur l’aléa
classique et en suscitent également de nouveaux.

Dans une première partie, nous étudierons les nouvelles caractéristiques des
risques, qui par leur impact sur les conditions matérielles de la vie tant urbaine
que rurale, sont de nature à compromettre les investissements de développement
durable. Nous posons la question de l’impact de ces caractéristiques nouvelles
sur les comportements des agents privés et par suite sur la manière de les gérer.

65
L’étude met ainsi en évidence les défis à relever en matière de régulation et tente
d’apporter des premiers éléments de réflexion.

1. UN NOUVEL UNIVERS DU RISQUE

1.1 Des risques catastrophiques aux caractéristiques nouvelles


Les dernières années ont connu nombres de catastrophes. Les tempêtes qui
ont sévi en France en 1999, les attentats du 11 septembre 2001 et plus
récemment ceux de Madrid, l’explosion de l’usine chimique AZF à Toulouse,
sont des événements dont les conséquences sont des pertes de nature
catastrophique, difficilement diversifiables. Même si tous ces risques ne peuvent
être considérés comme des risques nouveaux, force est de constater que le
contexte dans lequel ils apparaissent se modifie et influe sur leur caractérisation
et sur la manière de les gérer. Les risques technologiques, ceux de catastrophes
naturelles ou encore le terrorisme, que l’on définissait jusqu’à présent comme
des risques catastrophiques, sont aujourd’hui caractérisés par une incertitude
grandissante relativement à la potentialité de la sinistralité ,et à son ampleur en
cas de réalisation. Le risque industriel est une illustration d’une telle évolution
des caractéristiques des risques catastrophiques. Nous en présentons ci-dessous
les principaux points.

Les activités humaines créent des risques technologiques divers, qui


peuvent être d’origine chronique ou accidentelle. Les risques chroniques
résultent de différents types de pollution susceptibles d’avoir un impact sur la
santé des populations et sur l’environnement. Les risques accidentels résultent,
quant à eux, de la présence de produits ou de procédés dangereux susceptibles de
provoquer un accident ayant des conséquences immédiates graves pour le
personnel, les riverains, les biens et l’environnement, conséquences qui sont

66
souvent exacerbées par l’intensification du progrès technique et l’échelle sans
cesse croissante des activités.

L’explosion de l’usine AZF à Toulouse en Septembre 2001 a marqué un


tournant dans l’appréhension et la gestion des grandes catastrophes industrielles :
tout d’abord, par le nombre de décès (30) et de blessés (2500 à 3000), mais
également du fait de l’étendue des pertes, et de l’importance du nombre de
secteurs de l’assurance touchés. En effet, on recense non seulement 1,2 milliards
d’euros de dommages assurés, 30 000 logements affectés, dont au moins 7000
entreprises, 5000 voitures endommagées, soient au total 70 000 déclarations de
sinistres52. La catastrophe a non seulement sollicité l’assurance dommage de
l’entreprise mais également les assurances multirisques habitation des
particuliers et professionnels ainsi que les assurances de personnes.

Le risque industriel est une source de sinistres à grande échelle (tableau 1),
caractérisée dorénavant par une hyper corrélation des risques. Les dommages
causés par un accident ne se limitent pas à des dégâts matériels. Ainsi que le
notent l’Agence Européenne de l’Environnement et l’OCDE53, une catastrophe
industrielle peut avoir d’une part, des impacts financiers et sociaux importants et
d’autre part des conséquences graves sur la santé humaine et sur
l’environnement.

Le tableau 1 récapitule l’ensemble des sinistres incendies et explosions les


plus importants en France ces dix dernières années, afin de montrer l’importance
de l’étendue des pertes dues à l’explosion de l’usine toulousaine en comparaison
aux autres catastrophes industrielles majeures.

52
Communication personnelle avec Madame Françoise de Veyrinas, Mairie de Toulouse.
53
OCDE, (2003), EEA (2003);
67
Tableau 1: Sinistres (dommages assurés) incendies/explosion les plus importants en
France depuis 1992
Source : FFSA, L’assurance française en 2002

Si le risque industriel majeur est avant tout un risque à grande sinistralité, à


faible probabilité et à forte corrélation des risques individuels, il a pris dans les
dernières décennies une dimension nouvelle qui pose la question de l’adéquation
des réglementations en vigueur, et plus largement de l’ensemble des
méthodologies et processus décisionnels, à la réalité du risque.

En effet, alors que les grands risques industriels ne sont pas des risques
nouveaux, leur appréhension et leur prévention restent aujourd’hui encore un
réel défi pour les sociétés modernes qui semblent désemparées et n’ont pas
toujours su développer les bons outils de gestion d’événements catastrophiques
tels que, il y a vingt ans l’explosion d’un grand stockage de gaz en banlieue de
Mexico, le désastre de Bhopal ou encore l’explosion de la centrale nucléaire de
Tchernobyl. Le rapport sur les risques émergents au 21ème siècle pointe d’ailleurs
que même si l’accumulation d’événements catastrophiques durant les dernières
années a permis d’envoyer un réel signal d’alerte aux gouvernements, force est
de constater que les mesures prises pour obtenir une réduction de l’ampleur des
sinistres, quelque soit leur origine, avaient été jusqu’à présent peu efficaces.

68
La figure 2 met à cette fin en évidence l’augmentation des coûts assurés des
sinistres d’origine industrielle recensée par la base de donnée européenne
MARS, durant les 20 dernières années.

Figure 1 : Accidents industriels chimiques recensés par MARS data


Source : Rosenthal., Kleindorfer , Kunreuther , Michel-Kerjan, Schmeidler (2004)

Cependant, la caractérisation du risque industriel majeur comme un risque à


grande échelle est de nature à avoir un impact direct sur la capacité des agents à
l’appréhender et par conséquent à se préparer de manière efficace à le gérer. De
plus, si les assureurs et réassureurs ont appris à évaluer ce type de risque, la
question de la capacité financière de l’ensemble du marché à assumer
l’intensification du coût de ces catastrophes reste aujourd’hui encore une limite à
leur assurabilité et justifie par conséquent une intervention des pouvoirs publics,
dont le mode opératoire reste encore a définir.

1.2 Emergence de « nouveaux risques »


La société contemporaine crée en permanence de nouvelles sources
d’incertitude et d’ambiguïté. Ainsi que nous l’avons précédemment noté, les
risques catastrophiques ont une dimension nouvelle, ils tendent à devenir, sous
certains côtés, des risques potentiels et non plus avérés. En parallèle, l’évolution
des sociétés fait émerger des « nouveaux risques » qui nous plongent dans un

69
univers où la répétition des expériences passées fait défaut et où le décideur doit
évaluer et quantifier la vraisemblance de différents scénarii que les
connaissances scientifiques ne permettent pas de pondérer précisément. Les
nouveaux risques font références à des risques non avérés, appelés aussi risques
potentiels ou encore risques émergents. Ils sont la manifestation de l’incertitude
au sens de Knight et Keynes et se distinguent, par conséquent, des risques
avérés, que les auteurs caractérisent comme une incertitude probabilisable avec
une distribution de probabilités objectives54.

Plus généralement, il existe sommairement quatre niveaux de connaissance


d’un ensemble d’évènements possibles : celui où cet ensemble est déterminé et
les probabilités d’occurrence de ces événements connues, celui où les possibles
sont connus mais non les probabilités et inversement, enfin celui où il y a
présomption des possibles qui ne sont pas tous connus. Nous présentons ci-
dessous la matrice détaillant ces niveaux de connaissance (Kunreuther,
Meszranos, Spranca (1995)).

Classification du risque par conditions d’incertitude et d’ambiguïté


PERTES Connues Incertaines
Bien définie p, L P, UL
PROBABILITE
Ambiguë Ap, L Ap, UL

Tableau 2: Combinaisons ambiguïté/incertitude


Source : Kunreuther, Meszranos, Spranca (1995)

Un sinistre est caractérisé par sa probabilité d’occurrence (p) et le montant


des pertes qu’il peut occasionner (L). Il se peut que l’information sur un de ces
éléments soit imparfaite et non stabilisée. Par exemple, la probabilité

54
Knight (1921), Keynes (1921).
70
d’occurrence d’un événement peut être ambiguë (Ap : Ambiguous Probability)
et le niveau des pertes incertain (UL : Uncertain Loss).

Ainsi les auteurs définissent quatre caractérisations d’un sinistre ou d’un


risque comme le résultat de combinaisons possibles d’ambiguïté sur la
probabilité du sinistre et d’incertitude sur le niveau des pertes potentielles :
- le cas (Ap, L) décrit une situation où les pertes sont connues mais les
probabilités sont ambiguës ;
- le cas (p, UL) décrit une situation où les probabilités sont connues
mais les pertes incertaines ;
- le cas (Ap, UL) décrit une situation où les probabilités sont ambiguës
et les pertes incertaines.

Le premier niveau caractérise une situation de risque, où celui-ci est


parfaitement identifié, et pour lequel on sait définir les outils de sa prise en
charge et par suite les politiques de régulation adaptées.

Les autres niveaux décrivent des situations d’ambiguïté. Dans le second et


troisième cas, le risque est imaginable mais il n’existe aucun support scientifique
permettant de le confirmer ou de le pondérer de manière précise. Enfin dans le
dernier cas, le risque est inimaginable, on parle alors d’incertitude radicale,
caractéristique des situations d’ignorance. Les situations d’ambiguïté font
références à des risques potentiels face auxquels la Société ne peut rester
inactive. Il faut alors pouvoir définir les bonnes mesures à prendre aujourd’hui,
sachant que les éléments de connaissance sur lesquels ces mesures sont fondées
peuvent changer demain. Dans une telle situation se pose alors la question de la
précaution (voir chapitre 2) et de son champ d’application potentiel.

71
De telles situations d’incertitude scientifique sont aujourd’hui fréquentes.
Elles peuvent être relatives aux activités scientifiquement controversées dans
notre Société : utilisation de pesticides, de produits chimiques ou encore le
développement de technologies nouvelles (manipulations génétiques,
biotechnologies, nanotechnologies..). Elles peuvent également porter sur
l’environnement réglementaire, législatif, fiscal ou jurisprudentiel de certains
risques déjà connus. La crise de l’amiante et plus récemment la question de la
responsabilité civile médicale sont des illustrations de l’existence d’une
incertitude sur les règles juridiques et jurisprudentielles. Aujourd’hui, nombreux
sont les professionnels qui s’accordent d’ailleurs à dire que le marché est
confronté à de réels problèmes dans les différentes branches de la responsabilité
civile : la responsabilité médicale, la responsabilité civile des dirigeants, la
responsabilité des auditeurs ou commissaires aux comptes et enfin la
responsabilité civile environnementale.

Dans un contexte où le risque est perçu comme la conséquence de


l’arbitrage opéré par la société entre le politique, l’économique et le social, il est
important de savoir qui va supporter les coûts en cas de réalisation du sinistre.
Cela est difficile à établir en présence d’incertitude scientifique.

Face aux conséquences sur la santé humaine et sur l’environnement qu’est


susceptible d’induire toute activité nouvelle et potentiellement risquée, dans une
Société en permanente expansion, il apparaît nécessaire d’analyser l’impact de
cette nouvelle notion de « risque » sur les comportements des différents agents
économiques concernés. L’enjeu aujourd’hui est d’apprendre à évaluer, à gérer
et à financer l’incertitude et ainsi inciter les sociétés à l’innovation sans
compromettre le bien-être des générations présentes et futures par des choix dont
toutes les implications n’auraient pas été suffisamment pesées.

72
1.3 Comportements des agents et incertitude
Biais cognitifs et comportements des agents face au risque
Un article pionnier de Kunreuther (1978) montre que les individus
confrontés à des risques de catastrophes naturelles adoptent dans leur majorité
des comportements déviants vis a vis des prédictions établies par le modèle
d’espérance d’utilité de Von Neumann et Morgenstern (1944) ou Savage (1954).
Un grand nombre d’entre eux demeurent sans assurance face à ce type de risque ,
alors qu’ils choisissent par ailleurs de s’assurer pour des risques plus fréquents.
Les problèmes associés à la perception du risque sont liés à la difficulté des
individus à interpréter les petites probabilités dans leur prise de décision.

En situation de risque, une étude publiée en 1997 dans Acta Psychologica55


confrontait des individus à différentes décisions managériales pour lesquelles ils
devaient eux-mêmes chercher l’information. Les auteurs ont alors remarqué une
difficulté des agents à interpréter la notion de probabilité ou de vraisemblance, à
tel point que seuls 22% ont demandé l’information en terme de probabilité et
20% ont utilisé les mots « probabilité » et « vraisemblance ». Ce refus de
raisonnement probabiliste, influe sur les prises de décision des agents, en
introduisant différents biais dans leur jugement, face à une situation risquée.

Kahneman D., Slovic P., Tversky A (1982) ont mis en évidence ces biais,
dont le plus frappant pour eux est le « biais de disponibilité » des agents face aux
événements extrêmes. En effet, les individus face à de telles situations estiment
la vraisemblance d’un événement à partir de l’occurrence des événements
passés. Une telle analyse fait qu’ils adoptent des comportements extrêmes, supra
optimiste ou supra pessimiste, de type : « ça n’arrivera jamais » ou « ça ne peut
qu’ arriver». La théorie du « biais de disponibilité » conduit à une surestimation

55
Huber, Wider, Huber, Active information search and complete information presentation in naturalistic
risky decision tasks, Acta Psycholigica, n°95, pp 15-29, 1997.

73
des fréquences des événements vécus dans un passé récent, et à une sous
estimation des événements n’ayant pas été éprouvés récemment par l’individu.

D’autres catégories d’études expérimentales ont permis de mettre en


évidences différents biais cognitifs. Thaler et Johnson (1990) étudient la
proportion de richesse initiale que les individus sont prêts à investir dans une
loterie risquée. Les auteurs constatent une diminution de l’aversion au risque des
individus consécutivement à un gain initial (house money effect) et inversement
(break even effect). Weber et Zuchel (2003) relèvent enfin que l’inclination au
risque d’un individu suite à une perte se manifeste lorsque celui-ci perçoit sa
décision initiale comme la première étape d’une succession de décisions
appartenant à un même ensemble (escalation of commitment).

L’ensemble de ces biais cognitifs sous tend la prise de décision des agents
en situation de risque. Le vécu d’un individu semble avoir un réel impact sur sa
perception d’une situation et par conséquence sur ses choix, en particulier, ceux
d’assurance.

Biais cognitifs et incertitude


Dans un contexte où la potentialité d’une catastrophe est ambiguë, les
approches empiriques des comportements montrent que les individus et les
institutions ont également tendance à refuser tout raisonnement rationnel.

Ainsi, si la survenance d’un événement catastrophique permet une prise de


conscience de l’existence du risque (quelque soit sa potentialité), le retour à une
succession de périodes favorables suscite, en revanche, un effet inverse sur les
comportements des agents. Nombreuses sont les études qui soulignent le côté
transitoire des besoins de protection intense des individus suite à une catastrophe
et qui dénoncent un phénomène d’oubli quelques mois après sa survenance
74
(OCDE (2003), Commissariat général au Plan (2003), Rosenthal., Kleindorfer,
Kunreuther, Michel-Kerjan, Schmeidler (2004)).

De plus, il semblerait que la difficulté d’interprétation du caractère non-


avéré d’un risque a également un impact sur le comportement des organisations.
Par exemple, les assureurs sont le plus souvent allergiques aux situations
d’ambiguïté (aversion à l’ambiguïté), dans lesquelles le montant des pertes
éventuelles est difficilement calculable. Ils ont alors tendance à pratiquer des
tarifs largement supérieurs à ceux relatifs à des risques clairement spécifiés
(Kunreuther et al.(1995)).

Plus généralement, les travaux sur les comportements en présence


d’incertitude indiquent que les individus et les institutions choisissent parfois de
négliger l'information disponible sur les risques potentiels qu'ils encourent. Au
niveau social, ces biais cognitifs peuvent être à l'origine de comportements
d’aveuglement collectif qui débouchent parfois sur des catastrophes industrielles
ou environnementales. Le cas de l’amiante ou encore celui de l'apport
d'antibiotiques dans les rations données aux animaux d'élevage afin d'accélérer
leur croissance, développés dans le chapitre deux de ce rapport, sont des
exemples caractéristiques. Ces exemples posent la question du comportement et
de la prise de décision des agents économiques face à l’incertitude scientifique.

L’ensemble des biais présentés en situation de risque ont un impact d’autant


plus important en présence d’ambiguïté, car les individus ont des difficultés à
appréhender les situations incertaines et en particulier leur caractère plus ou
moins potentiel. A l’incertitude sur les caractéristiques du risque doit s’ajouter
l’incertitude sur les comportements des agents, ce qui rend d’autant plus délicate
la définition d’un critère de décision ou de choix d’investissement socialement
efficace, en présence d’incertitude scientifique. Dans un tel contexte, l’étude de
75
ces biais et la formalisation de ces comportements irrationnels des individus et
des institutions apparaissent comme nécessaires, afin d’enrichir l’approche
actuarielle de l’évaluation du risque, aujourd’hui fragilisée dans le nouveau
contexte d’incertitude des sociétés contemporaines. Ainsi que le notent Gollier,
Hilton, Raufaste (2003), les comportements courants sont largement déterminés
par des modes de traitements qui s’écartent sensiblement des normes classiques
de rationalité. L’incertitude renforce cette tendance et pose en des termes
nouveaux la problématique de la pertinence d’une approche normative dans un
tel contexte.

Aujourd’hui, il faut donc évaluer l’impact de ces biais, qui résultent de


l’évolution de la « notion de risque » sur la définition de toute politique de
régulation des risques catastrophiques et nouveaux risques, et déterminer les
incitations efficaces à la recherche d’un équilibre entre sécurité, innovation et
apprentissage de l’incertitude.

2. QUELLES CONSEQUENCES POUR LA GESTION DES RISQUES DANS LE

FUTUR ?

Dans une Société où s’affrontent développement économique et illusion du


risque zéro, la régulation des risques émergents doit pouvoir s’adapter aux
caractéristiques nouvelles de ces risques et inciter à la sécurité sans nuire à
l’innovation. La recherche d’un arbitrage entre développement économique et
prévention ne peut seule suffire à définir cette régulation. Les risques
catastrophiques ainsi que les « nouveaux risques » demandent aujourd’hui une
réflexion sur un possible équilibre entre apprentissage, prévention et
développement économique. Une telle approche nécessite une relecture des
schémas traditionnels de décision, que ce soit dans les domaines juridiques ou
assurantiels. L’étude des différents points sur lesquels se heurte l’élaboration
76
d’une régulation fine de ces risques met d’ailleurs en avant la nécessité d’un
réexamen des rôles des acteurs concernés et d’une prise en charge commune de
la gestion de ces risques. La question de l’évaluation, de la distribution et du
contrôle de ces risques majeurs doit par conséquent être repensée. A cette fin,
nous présentons ci-dessous les caractéristiques de ces trois piliers de toute
politique de régulation.

2.1 L’évaluation du risque


L’évaluation du risque doit permettre la définition, d’une part des outils de
sa prise en charge et d’autre part, du niveau acceptable auquel la société peut être
exposée, que ce soit dans le cadre d’activités économiques courantes ou dans le
cas du développement de nouvelles technologies.

En présence d’incertitude, l’identification d’un risque ne correspond plus à


l’identification du sinistre le plus grave et de la probabilité qui lui est associée,
elle doit permettre de synthétiser les connaissances des experts d’une part sur la
nature du risque et son caractère plus ou moins potentiel, et d’autre part sur les
pertes potentiels. La courbe de probabilité d’excédent des pertes (EP), proposée
par Kunreuther et al. (1995), permet une telle identification des risques
potentiels.

77
Figure 2: Courbe de probabilité d’excédent des pertes
Source : Kunreuther et al. (1995)

Dans un contexte d’aléa classique, elle renseigne sur la probabilité qu’un


certain niveau de perte soit dépassé sur une année donnée. Ces pertes peuvent
être mesurées en unités monétaire de dommages, en nombre de victimes ou
autres instruments de mesure. Toutefois, si l’assureur se trouve dans un état
d’ignorance (présomptions des événements possibles), il s’agira alors non pas
d’une évaluation des pertes espérées, mais d’une estimation des pertes
potentielles par un regroupement d’experts ( i.e. construction d’intervalle de
probabilités d’occurrence d’un événement catastrophique ; voir chapitre 3).

Ainsi que le mettent en évidence Sinclair-Desgagné (2001), dans le cas des


risques industriels, ou encore Kunreuther (2001), pour les risques
catastrophiques potentiels, leur quantification objective est rendue plus difficile
par l’incertitude scientifique qui les caractérise. En effet, l’ambiguïté sur la
probabilité mais également l’incertitude sur la sinistralité effective en cas de
réalisation, rendent non seulement chaque événement catastrophique unique,
mais surtout, elles ont un impact direct sur la perception qu’ont les agents des
situations risquées. L’incertitude modifie les comportements d’offre d’assurance,
ils sont alors éloignés des prédictions théoriques des modèles de décision
traditionnels, et rend caduque toute approche actuarielle de l’évaluation du
risque, qui plus est lorsque la sinistralité potentielle devient de plus en plus
importante (cf section 1-3). Les compagnies d’assurance sont peut-être des
agents neutres au risque, mais elles ont une aversion pour l’ambiguïté. Elles ont
alors tendance à pratiquer des tarifs largement supérieurs à ceux relatifs à des
risques clairement spécifiés, et souvent même, à limiter leur engagement en
réduisant les plafonds maxima de couverture face à un risque donné.

78
Les différents événements catastrophiques de ces dernières années illustrent
cet argument. Les assureurs ont été confrontés à ces difficultés de définition des
niveaux de primes relatifs à ces risques peu ou mal connus et parfois même à une
incapacité à les prendre en charge. Ainsi suite à l’explosion de l’usine chimique
toulousaine, les compagnies d’assurance ont résilié au 31 décembre 2001
l’ensemble de leurs contrats couvrant les grands risques industriels et ont
proposé de nouvelles conditions pour les dommages majeurs encourus par tout
groupe industriel : les primes ont été majorées de 80 à 200%. Les industriels se
sont alors trouvés contraints d’accepter ces nouvelles conditions ou de ne pas
s’assurer.

De plus, sécurité se confronte souvent avec innovation en matière de


développement économique en particulier dans la définition du niveau
acceptable de risque auquel peuvent être exposés les individus. A l’approche
sociologique du risque doit alors s’ajouter la vision du politique relativement au
développement économique, rendant ainsi d’autant plus délicate la mesure des
risques avérés et potentiels supportables par la collectivité.

Ce que Kunreuther et al. (1995) présentaient comme la condition première


d’assurabilité d’un risque catastrophique potentiel ne peut se faire par les
méthodes traditionnelles de quantification, elle doit prendre en compte les
besoins des Sociétés et la perception du risque des individus. Parce que le
« risque » est de plus en plus endogène (i.e. il est la résultante d’activités
humaines), son identification est devenue un enjeu sociétal et ne peut donc se
faire sans la confrontation des intérêts de chacun des acteurs concernés.

79
2.2 Le partage et contrôle du risque
Définir un partage des risques signifie répartir à priori entre les agents la
responsabilité financière des dommages potentiels. Ainsi, il s’agit de pointer qui
sera responsable non seulement de la restauration de l’environnement atteint
suite à une catastrophe, mais également de l’indemnisation des victimes. Dans
un tel processus, les agents concernés sont alors les victimes, l’exploitant et ses
partenaires, les assureurs et l’Etat. Ayant la capacité de répartir les risques sur
plusieurs générations et de les diversifier à un très haut degré, l’Etat a la
possibilité de définir les régimes de responsabilité socialement efficaces, afin
d’équilibrer les intérêts concurrents qui s’expriment dans l’évaluation du risque.

La responsabilité civile de l’entreprise à risque et de ses partenaires est le


premier instrument du partage du risque. La réglementation en la matière impose
aux individus ou aux entreprises de restaurer ou de compenser les dommages
causés par leur négligence. Elle trouve, en France, sa base légale dans le Code
civil (articles 1134, 1382 et suivants) et est définie de la sorte : une personne
physique ou morale voit sa responsabilité civile engagée dès lors qu’elle a causé
un dommage à autrui par sa faute ou par la faute des personnes dont elle
répond. Cette réglementation a deux grands objectifs : d’une part, contrôler le
niveau du risque auquel les individus sont exposés, en internalisant les coûts
sociaux induits par les activités industrielles et en dissuadant la négligence de la
part des entreprises, et d’autre part, d’assurer une indemnisation juste aux
victimes. D’une manière générale, les lois en matière de responsabilité civile
sont une incitation au contrôle efficace du risque et tout particulièrement à sa
prévention. Il existe plusieurs régimes de responsabilité civile : la responsabilité
pour faute, la responsabilité sans faute et enfin la responsabilité civile limitée.
Ces différents régimes peuvent être appliqués à l’entrepreneur ou au fabriquant
d’un produit mais ils peuvent également être étendus à l’ensemble des acteurs du
processus de production et de distribution : les banques et les institutions
80
financières garant de la solvabilité de l’entreprise ainsi que ses partenaires
commerciaux.

Les régimes de responsabilité pour faute et sans faute pointent, en cas de


dommage, à qui incombe la charge de la preuve, afin de déterminer le
responsable de ce dommage et par la suite justifier l’indemnisation des victimes
ou la restauration de l’environnement. Dans le cas de la responsabilité pour
faute, les victimes doivent faire la preuve d’une négligence de l’industriel, ou du
fabriquant du produit en cause, et également démontrer l’existence d’un lien de
causalité entre l’activité ou le produit incriminé et les dommages causés. Un
régime de responsabilité sans faute renverse la charge de la preuve, les victimes
doivent uniquement démontrer l’existence d’un dommage et non la négligence
de l’entreprise.

En pratique, même si un régime de responsabilité sans faute est en soi une


incitation, pour les entreprises, à un meilleur contrôle du risque et à une diffusion
de l’information sur leurs activités et permet une indemnisation plus importante
des victimes que dans le cas d’une responsabilité pour faute, son application,
comme celle de la responsabilité pour faute, aux risques majeurs et « nouveaux
risques » se heurte à un certain nombre d’obstacles. Apporter la preuve d’une
négligence de l’entreprise est difficile dans un contexte d’innovation, qui rend la
définition des mesures de sécurité délicate compte tenu de l’incertitude qui la
caractérise. De même, démontrer le lien de causalité et dans certains cas
l’existence même d’un dommage sont rendus délicats en présence d’activités
caractérisées par une information incomplète et non stabilisée sur les risques qui
en découlent.

Cependant en présence d’activités nouvelles caractérisées par une forte


incertitude, certaines règles en matière de responsabilité peuvent être critiquées,
81
dans la mesure où elles ont tendance à limiter les efforts de précaution et par
suite de prévention. Ainsi l’existence d’une responsabilité limitée aux actifs de
l’entreprise et l’extension de cette responsabilité à l’ensemble de ses partenaires,
financiers ou commerciaux, peuvent rendre l’entreprise peu sensible à une
catastrophe majeure. En effet, un événement catastrophique, dont les dommages
dépasseraient les capacités financières de l’entreprise, n’est pas considéré
différemment d’une faillite. Par conséquent les degrés de précaution et de
prévention effectifs risquent d’être bien inférieurs à ceux qui seraient instaurés si
l’entreprise était pleinement responsable. D’autre part, la responsabilité pouvant
être partagée entre les différents acteurs du processus de production.,
l’entrepreneur supporte, en cas de catastrophe majeure, moins de coûts que s’il
était seul responsable. De plus cette extension du régime de responsabilité peut
avoir un effet pervers sur l’innovation: l’existence d’un risque d’insolvabilité et
la possibilité que l’institution financière, qui apporte son soutien à l’entreprise,
soit tenue également pour responsable d’une catastrophe, pourrait inciter cette
institution à moins investir dans l’entreprise, et par conséquent, à limiter sa
capacité d’innovation. Cet effet pourrait même être renforcé par le contexte
d’incertitude où le risque est parfois insoupçonné et la sinistralité
potentiellement catastrophique.

L’assurance se situe entre le privé et le public, contribuant par-là à


structurer et à souder l’espace social, en créant des solidarités objectives, là où il
n .y avait que des intérêts indépendants et opposés. Elle fournit donc aux sociétés
les instruments de connaissance et de développement indispensables à une
politique de développement durable. En présence d’incertitude scientifique,
l’ensemble des mécanismes et politiques de régulation doivent être repensés,
l’assurance est, par conséquent, un outil majeur de partage et de contrôle de cette
incertitude. L’enjeu est alors d’apprendre à mettre en place, non seulement de
nouveaux outils de décision, mais également de définir une nouvelle architecture
82
des marchés en développant de nouveaux réseaux de coopération entre les agents
(voir ci-dessous).

L’ambiguïté sur la probabilité des risques mais également l’incertitude sur


la sinistralité effective en cas de réalisation ont un impact direct sur les
comportements d’assurance des agents. Ainsi que nous l’avons vu
précédemment, il existe différents biais cognitifs qui influent sur leur
comportement et que la présence d’incertitude intensifie.

En terme d’offre d’assurance, l’existence d’ambiguïté rend non seulement


la quantification actuarielle impossible, mais elle peut également conduire les
assureurs à instaurer des primes excessives voire refuser d’assurer certaines
situations.

En terme de demande d’assurance, l’impact de ces biais sur le besoin de


protection des agents est également affecté. Ils adoptent des comportements
extrêmes et refusent ainsi tout raisonnement rationnel. Ainsi, aussi longtemps
qu’aucune catastrophe ne se produit, les agents ne se sentent pas concernés et ont
tendance à ne pas s’assurer. Suite à un événement catastrophique, leur perception
du risque bascule. Par exemple, après les attentats du 11 Septembre 2001, une
grande partie des Américains refusa de prendre l’avion, les chances d’être pris en
otage leur semblant alors importantes (voir chapitre 5). On pourrait penser que
l’assurance devenait nécessaire face à ce refus d’exposition au risque, pourtant
l’importance des primes proposées par les assureurs et la faiblesse et l’ambiguïté
des probabilités de sinistre font qu’elle ne connaît pas le succès escompté. On
remarque par exemple en Allemagne, où l’assurance contre le terrorisme n’est
pas obligatoire, que le pool de réassurance mis en place (Extremus) n’a été que
faiblement sollicité depuis sa création suite aux attentats du 11 septembre 2001
(voir chapitre 5). Sous les hypothèses de fixation libre du niveau des primes par
83
les assureurs et de libre choix des agents de s’assurer ou non, il semble que pour
des risques à faible probabilité d’occurrence et grande sinistralité, il y ait une
réelle difficulté à maintenir un marché de l’assurance.

De plus, au - delà de l’aspect assurantiel, de tels événements extrêmes,


comme l’explosion de l’usine AZF à Toulouse ou encore les attentats du 11
Septembre 2001, sont révélateurs d’un certain nombre de difficultés et de limites
de l’ensemble du processus de gestion de ces nouveaux risques. Le conflit entre
assureurs et médecins spécialistes qui est apparu ces dernières années est un
exemple caractéristique. L’encadré ci-dessous en présente les principales
caractéristiques.

L‘assurance de responsabilité civile médicale


Quand le droit français devient source d’incertitude

Une contexte juridique mouvant, qui dessine la toile de fond d’une situation de crise assurantielle.
Cette crise est révélatrice d’un certain nombres de difficultés et limites, d’une part dans l’appréhension
et la gestion du risque responsabilité et d’autre part, dans l’adéquation entre les politiques de gestion du
système de santé et la réalité du monde médical.

Les principaux éléments de cette crise, pointés par le rapport de la mission conjointe IGAS-IGF,
en février 2003, sont les suivants :

Côté juridique et jurisprudentiel

- Une « judiciarisation » toujours plus intense et des indemnités versées toujours plus
importantes en cas de faute reconnue.

- Un cadre juridique largement modifié par les lois du 4 mars 2002 et du 30 décembre 2002.
Ces deux lois ont en effet, d’une part créé un régime d’indemnisation au titre de la responsabilité sans
faute pour les dommages les plus graves et d’autre part, instauré une « base réclamation » pour les
contrats d’assurance responsabilité civile médicale (l’assureur doit alors lui-même indemniser la
victime en cas de réclamation).

84
Côté médecins et établissements de soins privés

- Les professionnels touchés sont : les praticiens libéraux anesthésistes, chirurgiens et


obstétriciens (10 000 médecins sur un total de 110 000) et les cliniques qui ont une activité de chirurgie
et obstétrique (MCO) (deux tiers du nombre total des cliniques privées)

- Ces professions ont par ailleurs connu au cours des dernières années des évolutions de revenus
moins fortes que la moyenne des spécialistes. Dans le même temps, la situation financière des cliniques
de MCO s’est nettement dégradée.

- Une insuffisance des systèmes de gestion des risques dans l’organisation des soins : des
avancées notables en terme de procédure de qualité des soins, mais par une faiblesse des actions ciblées
en terme de gestion des risques au sens du concept de « retour sur expérience ».

Côté assurance

- Une dégradation des comptes techniques des assureurs, dans un contexte de détérioration des
marchés financiers et de durcissement des conditions de réassurance.

- Une augmentation des primes d’assurance des spécialités médicales à risque. Cette
augmentation a traduit un rattrapage brutal des primes, qui étaient jusqu’alors inférieures au niveau
d’équilibre technique.

- Une contraction de l’offre d’assurance suite au retrait de certains acteurs du marché (Saint
Paul, AGF, Ace).

- La faible importance de la RCM dans l’activité globale des assurances : la responsabilité civile
constitue 5% seulement du chiffre d’affaires de l’assurance « non-vie », La RCM représente à peine
15% de la responsabilité civile. La RCM est donc non seulement peu rentable pour les assureurs, mais
elle ne suscite pas un traitement particulier en terme de collecte d’information sur la sinistralité réelle
qui lui est propre (il n’existe pas d’indicateur de sinistralité RCM)

-
D’une manière générale, on observe du côté des assureurs une incertitude, non
seulement sur la sinistralité effective de la RCM, mais également sur l’impact réel de
l’évolution juridique et jurisprudentielle sur la tarification. Le rapport IGAS-IGF note
d’ailleurs, que les effets des lois du 4 mars et 30 décembre 2002 ne sauraient être observables
avant 2006 (année de publication des résultats des assureurs de l’année 2005)

85
Ces situations de crise ont permis à chacun des acteurs du marché –
médecins, industriels, assureurs et représentants de la puissance publique - de
prendre conscience du risque et de ses propres responsabilités. Différents
instruments financiers, comme les cat bonds, les indices sur des risques, ou
différentes structures d’assurance et de réassurance, dont la structure et le
fonctionnement se rapprochent de ceux d’une mutuelle56, ont alors pu se
développer face à ces « nouveaux risques », catastrophiques ou non (Captive,
Risk Retention Group et Pool57). Le groupement temporaire d’assurance
médicale (GTAM), le groupement temporaire de réassurance médicale
(GTREM) ou encore le pool français pour la couverture des risques attentats et
des actes de terrorisme (Gareat) sont des exemples de pools utilisés pour pallier
une incapacité à la fois financière, politique et juridique à gérer ce type de
risque.

Ces outils ont pour but de pallier l’incapacité d’un seul agent du marché
(assureur ou réassureur) à faire face à ces situations très incertaines et parfois
extrêmes, et sont une illustration de la volonté de coopération et de réflexion
commune des acteurs.

Face à un tel bouleversement de la gestion des risques, l’assurance


traditionnelle ainsi que l’ensemble des outils du partage des risques doivent être
repensés. Ils ne peuvent plus être seulement des outils de réparation, mais
doivent prendre en compte les mutations de l’organisation des sociétés et devenir
un moteur d’incitation en terme de responsabilité, d’apprentissage de ces
nouveaux risques et de leur prévention (Chemarin (2004)).

56
Dans la suite de ce chapitre, de telles structures d’assurance et de réassurance seront appelées également structures de
group e ou organismes mutuels.
57
Nous proposons une présentations de mécanismes d’assurance de type mutuelle dans la seconde partie de ce chapitre.
86
Afin que l’implémentation des mesures de prévention et d’apprentissage
soit efficace, il faut donc développer une communication sur ces risques, afin de
les objectiver autant que faire se peut, et définir le rôle et les responsabilités des
différentes parties concernées. Ce processus d’objectivation et d’implantation
peut être particulièrement complexe en présence d’incertitude. La régulation des
risques émergents doit notamment s’appuyer sur une réflexion en terme de
gestion des crises, afin qu’un simple accident ne prenne pas des proportions
catastrophiques (Godard, Henry, Lagadec, Michel-Kerjan (2002), Lagadec
(2002)). Elle doit aussi s’appuyer sur un réseau de coopération entre acteurs
privés et puissance publique. De tels risques tendent en effet à devenir des « faits
sociaux totaux » dont aucune discipline instituée ne peut seule parfaitement
rendre compte. Par ailleurs, aucune démarche isolée des pouvoirs publics ne peut
remédier à la crise de confiance qu’ils impliquent58.

3. UNE DIALECTIQUE ENTRE ASSURABILITE ET OUTILS D’ASSURANCE

L’évolution de la notion de risque induite par la mutation même des


sociétés contemporaines a par conséquent un impact direct sur les
comportements des individus et en particulier sur leurs modes de décision. Cette
évolution de la notion même d’assurabilité fait émerger différentes pistes de
réflexion non seulement pour les solutions assurantielles à apporter face à des
risques potentiels ou à faible probabilité, mais surtout pour l’examen du rôle de
chacun en présence de ces risques dont les caractéristiques ne cessent d’évoluer.

En présence d’incertitude scientifique, l’ensemble des mécanismes et


politiques de régulation doivent être repensés. L’enjeu est alors d’apprendre à
mettre en place non seulement de nouveaux outils de décision mais également de

58
Commissariat Général au Plan ( 2003).
87
définir une nouvelle architecture des marchés, en développant de nouveaux
réseaux de coopération entre les agents59.

D’une manière plus générale, les mécanismes alternatifs d’assurance et de


réassurance des risques (instruments financiers et structures de groupes ; voir
section 2-2), ont été mis en place pour répondre à une incapacité ou à une
difficulté temporaire des acteurs traditionnels de l’assurance à établir une
tarification acceptable (par les assurés) des contrats de couverture de certains
types de risque. La question aujourd’hui est de savoir si ces mécanismes
pourraient être une solution pérenne face à des risques peu ou mal connus et dont
la nature bouleverse largement le paysage de la gestion des risques.

2EME PARTIE - OUTILS D’ASSURANCE ET INCERTITUDE

En 1982, B.Berliner60 proposait neufs critères nécessaires à l’assurabilité


d’un risque : la survenance de l’événement a un caractère aléatoire, la perte
maximale n’est pas catastrophique au regard de la solvabilité de l’assureur, le
montant des pertes moyennes est identifiable et quantifiable, la période moyenne
d’occurrence entre deux sinistres n’est ni trop faible ni trop grande, il n’y a pas
d’aléa moral, l’opération d’assurance se fait dans un environnement économique
et politique stable, il y a compatibilité avec les restrictions légales du pays où
l’assureur opère. De nos jours, nombreux sont les exemples61 montrant qu’il
n’est pas nécessaire que ces neuf critères soient vérifiés, illustrant de ce fait
l’accroissement du champ d’intervention de l’assurance. Il existe en outre
d’autres limites traditionnelles de l’assurabilité, que la théorie de l’assurance et

59
Godard et al. (2002).
60
B. Berliner Limits of insurability of risk., Eglewood Cliff (New Jersey), Prenticle Hall, 1982..
61
Godard et al. (2002).
88
la pratique ont su repousser par des mesures spécifiques. Ainsi les différents
problèmes liés à l’existence d’asymétrie d’information entre assureurs et assurés
peuvent être réduits par l’utilisation de contrats segmentant de façon efficace la
population (sélection adverse), ou développant des incitations à la prudence et
l’effort de prévention (aléa moral).

L’assurabilité d’un risque est l’illustration des relations contractuelles entre


assureurs et assurés permettant une mise en place effective de la mutualisation
de risques, encourus par tous. Elle est donc contingente à la viabilité du principe
de mutualisation.

Les tensions observées depuis trois ans sur certains marchés d’assurance,
comme ceux des professions médicales, l’ampleur des catastrophes industrielles
et naturelles ou encore le terrorisme ont mis en évidence les limites des capacités
de souscription des marchés de l’assurance et de la réassurance. Ces
bouleversements suggèrent que les problèmes d’assurabilité ne peuvent plus
uniquement être traités par une régulation des marchés d’assurance au moyen de
contrats et de règles de droit bien définies, mais nécessitent une réflexion sur les
liens entre l’assurance et les autres acteurs essentiels du partage des risques,
notamment l’Etat et les marchés financiers.

Les nouveaux risques ne devraient pas être considérés comme un facteur de


rétrécissement du domaine de l’assurabilité, mais plutôt comme une
transformation de ce dernier par la recherche de solutions originales, fondées sur
la complémentarité des agents économiques.

Cette seconde partie traite donc de la question de l’assurance de ces


« nouveaux risques » et des risques catastrophiques. A travers l’analyse des
mécanismes émergents, de prise en charge et de couverture de ces derniers
89
(instruments financiers et structures d’assurance nouvelles), nous proposons une
nouvelle approche de la gestion de ce type de risque, dans laquelle les
mécanismes de mutualisation seraient le noyau de l’ensemble du processus.

1. DES INSTRUMENTS D’ASSURANCE NOUVEAUX

Les entreprises sont confrontées à une mutation de l’environnement des


risques résultant de changements structurels sur le plan économique, de
modification du cadre légal et de l’émergence de nouveaux types de risque. En
parallèle, la tendance fortement baissière des marchés depuis 2000, et les
sinistres sans précédents de 2001, ont réduit les capacités mondiales d’assurance
de près de 25% par rapport au début de l’année 200062. Cette baisse des
capacités a provoqué une forte augmentation des tarifs de l’assurance non-vie,
durcissant ainsi le marché. Dans ce contexte de pénurie de capacités, les produits
de transfert alternatif des risques, dits ART (alternativ risk transfer), peuvent
s’avérer plus adaptés, d’une part ils augmentent les capacités d’assurance,
d’autre part ils sont une solution de couverture de ces risques nouveaux, que les
marchés assurantiels traditionnels ne prennent pas en compte. Ces produits
regroupent différents types d’instruments que l’on peut regrouper en deux
grandes catégories : les structures alternatives (captives, Risk Retention Group et
pools) et les solutions alternatives (réassurance en finite risk, produits
multibranches, marché des titres d’assurance, …).

Nous étudions dans les sections suivantes l’importance du recours à certains


de ces ART, le marché des titres d’assurance (1-1) et les différentes structures
alternatives (1-2), ainsi que leur efficacité en présence d’incertitude.

62
Source : Swiss Re.
90
1.1. Trois instruments financiers : quelle efficacité ?
Face à la sinistralité croissante induite par chaque nouvel événement
catastrophique, les compagnies d’assurance ont la possibilité de transférer, aux
marchés financiers, une partie de ces risques catastrophiques, afin d’éviter, d’une
part tout risque d’insolvabilité et d’autre part, de limiter le coût de la
réassurance. Trois instruments peuvent être utilisés: des échanges de
portefeuilles entre assureurs différemment exposés au risque, des options sur
indice du Chicago Board of Trade (CBOT) et des obligations indexées du
CBOT. Ils offrent aux compagnies d’assurance et de réassurance, la possibilité
de pallier une pénurie de capacité ou d’offre de réassurance. Le marché mondial
de ces différents produits ( titres et dérives) représentait, en 2001, 9,1 milliards
de dollars63 Nous présentons ci-dessous leur fonctionnement et tentons
d’apporter quelques premiers arguments quant à leur efficacité pratique (Godard
et al.(2002)).

Echanges de portefeuilles entre assureurs différemment exposés au


risque : les swaps du Catastrophe Risk Exchange (New York).
Le Catastrophe Risk Exchange est un lieu d’échange, pour les assureurs,
d’expositions aux risques de catastrophes naturelles. Aux Etats-Unis, certaines
zones exposées à ce type de risque font l’objet d’études actuarielles permettant la
réalisation d’un zonage par degré d’exposition à un risque, et par maximum des
pertes possibles en cas de catastrophe. Le risque global du portefeuille d’une
compagnie d’assurance est ainsi divisé en plusieurs « unités standards
d’exposition », correspondant chacune à une exposition d’un million de dollars.
Une telle standardisation de l’exposition au risque permet alors un échange de
celle-ci entre les portefeuilles de différents assureurs, en fonction de la
probabilité estimée des catastrophes.

63
Il s’agit ici de la valeur faciale de l’ensemble des titres et dérivés en circulation. (Swiss Re, 2003).
91
D’une manière générale, les swaps sont des produits, négocies de gré à gré,
qui permettent principalement de se couvrir contre les fluctuations et l’alea.
L’avantage d’une telle bourse d’échange, dans le cadre des risques de
catastrophes naturelles, est de fournir aux assureurs, établis dans des régions
particulièrement exposées à ce type de risque, la possibilité de réduire une
surexposition due à la concentration de leur activité au sein de ces zones
géographiques.

Options sur indice du CBOT


Une option offre à son détenteur la possibilité de bénéficier d’une variation
favorable des conditions de marché entre le moment de l’achat de celle-ci (i.e.
versement d’une cotisation dans le cadre d’un contrat d’achat d’un put ou d’un
call64) et celui de son exercice. La valeur d’une option dépend des
caractéristiques des marchés concernés, elle est calculée à partir de celle d’un
indice particulier.

Dans le cas des options sur indice catastrophique, leurs valeurs dépendent
d’un des dix indices du Property Claims Service (PCS) américain. Chacun des
indices est calculé pour une zone géographique donnée. Un indice correspond à
la somme, sur 100 millions de dollars, des pertes assurées, suite à des
événements catastrophiques dans la zone géographique, et pour la période
couverte par le contrat. Un indice est exprimé en points.

Le fonctionnement des options sur indice est le suivant. A la date d’exercice


de l’option, son détenteur (l’assureur) compare la valeur actuelle de l’indice PCS
à celle de l’indice au moment de la signature de son contrat (valeur initiale).

64
Un put est une option de vente et un call une option d’achat, c’est a dire que l’acheteur de l’option paye,
au départ, au vendeur une prime qui à exercer son droit d’achat (call) ou de vente (put) de cette option, selon
l’état du marché.

92
Si l’assureur décide d’exercer l’option, alors que la valeur actuelle est
inférieure à la valeur initiale, il perd l’intégralité de son versement initial. Dans
ce cas, les conséquences des catastrophes au cours de la période d’exposition ont
été inférieures à celles que l’assureur aurait pu craindre.

Au contraire, si la valeur de l’indice courant est supérieure à la valeur


initiale, l’assureur reçoit alors la valeur au comptant de chacun des points
d’indice (voir encadré infra).

Les options sur indices du CBOT s’apparentent à de la réassurance en


excédent de pertes, basée sur des excès de pertes agrégées, celles de l’ensemble
des compagnies retenues dans l’indice PCS de la zone géographique concernée.

93
Couverture du Risque Climatique
La déréglementation du secteur de l’énergie aux Etats-Unis a constitué le principal moteur de
développement des dérivés météorologiques. La volatilité croissante des résultats a conduit les entreprises de
ce secteur à rechercher des innovations capables de diminuer leur vulnérabilité vis à vis des conditions
météorologiques. En août 1997, les dérivés météorologiques ont été introduits pour pallier ce problème.

Principe général des options sur indices climatiques

- Définition des indices


Deux indicateurs sont utilisés, reflétant les deux types de risque auquel est exposé tout fournisseur
d’énergie, les vagues de froid et les fortes chaleurs. Le premier indice (HDD) donne la différence positive
par rapport à une température de référence, et le second (CDD), la différence négative :

HDD (heating Degree Day) :Il est calculé en utilisant la température moyenne journalière (t), comparée a
65 degrés Fahrenheit : HDD=65-t
CDD (Cooling Degree day):Il est obtenu de façon analogue: CDD=t-65

Le premier indice indique de combien il est nécessaire de réchauffer un logement, et le second de le


refroidir.

-Fonctionnement
Si une compagnie est préoccupée par un été trop chaud ou un hiver trop froid, elle peut réduire ce
risque par l’achat d’un call ou d’un put de degrés journaliers. Les options de degrés journaliers sont donc des
calls et des puts où le prix d’exercice est le niveau prédéterminé de degrés journaliers, et le prix de règlement
est le niveau effectif de degrés journaliers pour une période définie. L’acheteur de l’option paye , au départ,
au vendeur une prime qui l’autorise à exercer son droit d’achat (call) ou de vente (put) de cette option.

Si l’option est exercée, le vendeur doit régler le montant du notionnel multiplié par la différence entre
le niveau d’exercice et le niveau de HDD ou CDD effectivement constaté par les services météorologiques.
Si l’option n’est pas exercée, l’acheteur perd alors le montant de la prime qu’il a versée mais cette
perte est compensée par le bénéfice d’exploitation créé par des conditions climatiques favorables.

Deux exemples

Un call sur les précipitations proposé à un parc d’attraction. Le prix d’exercice est de 140 mm de
pluie, pour 200 000 euros. Le parc a ainsi la possibilité de recevoir 10 000 euros par millimètre d’eau
tombée, au dessus de 140 mm, au cours de la période.

Un CDD- put proposé à un agriculteur ,qui serait pénalisé si l’été était plus froid que prévu. Le prix
d’exercice est de 610 CCDs, pour 260 000 euros. L’agriculteur a ainsi la possibilité de recevoir 5000 euros
par points au-dessus de 610 CDDs, au cours de la période.

94
Obligations indexées du CBOT: les Cat Bonds
Les obligations indexées sur un risque catastrophique constituent une autre
forme de transfert de risques entre un assureur et les marchés financiers. Elles
sont une méthode alternative d’assurance des grands risques, qui permet une
titrisation des risques catastrophiques sur les marchés financiers, on parle de
titrisation des risques assurantiels.

L’intérêt des assureurs pour la titrisation a été, en grande partie, due au


cyclone Andrew, qui a dévasté la Floride en 1992, provoquant près de 20
milliards de dollars de dégâts assurés65. Les grands risques liés aux catastrophes
naturelles, qui pouvaient apparaître comme spéculatifs, sont alors devenus
concrets, forçant ainsi le marché de l’assurance de ce type d’événement à de
grands changement.. Dix huit mois plus tard, le tremblement de terre qui a
touché Northbridge, au nord de Los Angeles, a causé de lourdes pertes humaines
et matérielles. L’estimation du coût varie entre 13 et 20 milliards de dollars
assurés. Suite à cet événement, différents outils, dont les Cat Bonds, ont été créés
pour aider le marché de l’assurance, face à une obligation réglementaire de
couverture de ce type de risque et à une sinistralité toujours plus grande.

Le principe est le suivant : un assureur ou un réassureur émet une dette


obligataire (directement ou indirectement) dont le remboursement dépend de la
survenance d’un événement catastrophique et du niveau des sinistres
occasionnés. Trois types d’acteurs interviennent dans le fonctionnement de ces
obligations. D’une part, un assureur (ou réassureur) désireux de transférer une
partie de ses risques catastrophiques, et d’autre part, des investisseurs à la
recherche de placements attractifs. Enfin, une compagnie ad hoc, Special

65
Source : FFSA.
95
Purpose Vehicle (SPV), peut être mise en place comme intermédiaire entre
l’assureur et les investisseurs.

La structure générale d’un Cat Bond est la suivante. Des investisseurs


achètent des titres de dette d’un assureur (ou d’un réassureur), et en échange,
l’assureur verse aux investisseurs un rendement, qui compense l’immobilisation
des actifs, et une prime de risque, correspondant au fait qu’un événement peut se
produire. Le SPV propose alors à l’assureur une couverture de réassurance
traditionnelle, et se finance en émettant les obligations indexées sur la
survenance d’une catastrophe. La prime versée par l’assuré, et les principaux
versés par les investisseurs ( en contrepartie des obligations), sont placés dans un
trust. Les investisseurs sont ainsi exposés uniquement au risque que l’assureur
cherche à couvrir (aucun risque de taux ou de défaillance n’est a prendre en
compte).

Le schéma suivant permet de mieux comprendre un tel mécanisme.

Investissement

Assurés
100 Rdmt

100
ROL
(Ré)assureur SPV Investisseurs
ROL+ Rdmt

Figure 3: Construction d'obligations indexées, phase d’initialisation


Source : FFSA, Direction Etude et Systèmes d’Information

96
Le fonctionnement des obligations indexées est le suivant. Durant la phase
d’initialisation de la structure (cf figure 3), l’assureur paye une prime, le rate on
line (ROL), au SPV. Celui-ci investit alors dans des titres sûrs, rapportant un
rendement certain. Dans l’exemple proposé par la figure 3, l’investissement est
de 100. Ces 100 correspondent à l’achat, par des investisseurs, de Cat Bonds.
Ces obligations leur rapportent alors le rendement des 100 placés, auxquels se
rajoute le ROL.

Investissement
Sinistre

Assurés
Liquidation partielle

Remboursement

(Ré)assureur SPV Investisseurs

Remboursement Rdmt ajusté

Figure 4-a: Fonctionnement en cas de sinistre


Source : FFSA, Direction Etude et Systèmes d’Information

Absence de sinistre
Investissement

Liquidation finale

(Ré)assureur SPV Investisseurs


Remboursement net

Figure 4: Fonctionnement en cas d’absence de sinistre


Source : FFSA, Direction Etude et Systèmes d’Information

97
En cas de survenance d’un sinistre (figure 4), l’assureur doit rembourser un
certain montant aux assurés, qui sera versé par le SPV. En contrepartie, le SPV
liquide partiellement ses titres, et verse aux investisseurs un rendement moindre.
En l’absence de sinistre (cf figure 4), l’ensemble des fonds sont reversés aux
investisseurs, à la maturité de l’obligation.

Quelle est l’efficacité de ces trois instruments financiers ?


La bourse d’échanges des swaps du Catastrophe Risk Exchange a débuté en
1996. Aujourd’hui le nombre d’adhérents a considérablement évolué : on en
comptait 13 fin 1996, ils étaient 240, en 2002. Plus d’un millier de transactions
ont été enregistrées, ce qui correspond à une limite de couverture de 5,5 milliards
de dollars (Godard et al. (2002)).. Les swaps sont une réelle réussite dans la
gestion des risques de catastrophes naturelles.

Concernant les options sur indices ou encore les Cat Bonds, leur succès est
moindre. Kunreuther, Michel-Kerjan (2004) notent d’ailleurs qu’aucun marché
de Cat Bonds, visant à couvrir le risque terroriste, n’a été mis en place après le
11 septembre 2001, et la Swiss Re a observé également un réel tassement de
l’émission d’obligation catastrophes. Celles-ci représentent à peine 1 milliard de
dollars depuis 199766. Pourtant, la capacité limitée de l’assurance pour couvrir de
tels scenarii devrait être un facteur important de développement de ces
instruments financiers, qui permettent, aux assureurs, de bénéficier de
l’importante capitalisation des marchés financiers.

Une comparaison entre les Cat Bonds et les options sur indices
catastrophiques permet de mettre en avant un certain nombres d’avantages des
premiers sur les seconds, que ce soit pour les investisseurs, les compagnies

66
Swiss Re, The Picture of ART, 2003.
98
d’assurance ou encore les assurés. En effet, pour les premiers, les risques
assurantiels représentent une source intéressante de diversification : la plupart
des risques, en particulier les risques catastrophiques, sont généralement
indépendants des risques de marché. La titrisation permet donc de dissocier le
risque d’assurance de celui de marché, ce que la simple participation des
investisseurs au capital des compagnies d’assurance ne permettait pas de faire.
De plus, contrairement aux options sur indice, la titrisation des risques
catastrophiques les protège également des pertes potentielles que pourrait causer
un sinistre.

Côté assurance et réassurance, la FFSA note que la titrisation des risques


catastrophiques devrait être aussi profitable au marché, que ne l’a été la
titrisation du risque de crédit pour les banques. En effet, les Cat Bonds offrent
une plus grande flexibilité que les options sur indices et surtout ils limitent le
risque de défaillance des compagnies d’assurance cédantes.

Enfin, il faut également noter que le recours au Cat Bonds protège l’assuré
de tout risque de contrepartie.

Malgré ces différents avantages, le développement des Cat Bonds reste


encore limité. Un tel phénomène s’explique en partie par l’aspect coûteux de leur
structure de fonctionnement. D’autre part, en présence de risques catastrophiques
caractérisés par une ambiguïté sur leur occurrence et une incertitude sur leur
sinistralité, toutes deux grandissantes, la perception des investisseurs est
relativement défavorable, ils sont averses à l’ambiguïté. De plus, le caractère
nouveau de ce type d’instrument financier tend à intensifier ce phénomène. Le
développement des Cat Bonds se heurte donc tout particulièrement à un
problème d’apprentissage de l’incertitude. Le chapitre 5 traite de manière plus

99
précise la question du développement de tels instruments financiers face à un
risque extrême : le terrorisme international.

1.2 Différentes structures de groupe67


Différentes structures de forme mutuelle opèrent sur le marché de
l’assurance, sans pour autant être en concurrence. En effet pour un risque donné
– risque de responsabilité civile, risque industriel, risque de développement…-
on assiste à un regroupement des individus par type de profession, dans un but
d’auto-assurance.

On dénombre trois types de sociétés de forme mutuelle ou mécanismes


alternatifs d’assurance : les pools, les « Risk Retention Groups » et les captives.
L’ensemble de ces structures ont émis, en 2001, un montant de 44 milliards de
dollars de primes brutes, selon la répartition suivante : 38 milliards pour les
captives, 1 milliard pour les RRG et 5 milliards pour les pools68.

Propriétaires Assurés
Compagnie

Gestionnaires Propriétaires =Assurés


Mutuelle

Propriétaires = Groupement d’assurés

Structures Propriétaires = Groupements Assurés


d’assureurs

Figure 5: Comparaison de différente structures d'assurance

67
Swiss Re (2003), Chemarin (2003)
68
Swiss Re (2003)
100
Comme le montre la figure 5, au contraire d’une compagnie d’assurance, où
les rôles d’assurés, propriétaires (actionnaires) et gestionnaires sont séparés, les
propriétaires sont les assurés au sein des mutuelles. Ces dernières sont
construites autour des principes de solidarité dans la réparation des sinistres,
d’égalité devant le risque et la décision et de non discrimination à l’entrée. Ces
concepts définissent leur fonctionnement et se retrouvent en particulier dans les
contrats proposés. En effet, les mutuelles sont des organismes à but non lucratif
proposant des contrats à cotisations variables, qui garantissent une assurance
complète et une tarification uniforme, et permettent, d’une part le partage du
risque de chacun des assurés entre tous, et d’autre part la redistribution des
profits à l’ensemble des membres. Il faut également noter que les mutuelles sont
des regroupements d’assurés de même profession. Ainsi, en France, leur
développement s’est fait dans un ordre croissant des risques, selon les
regroupements suivant :

Création Mutuelle Professions


Années 20 CCMA Agriculteurs
1934 GMF Fonctionnaires
1934 MAIF Enseignants
1950 MAAF Artisans
1960 MACIF Industriels/Commerçants

Tableau 3: Formation des mutuelles en France

La structure et le fonctionnement des captives, des RRG ou encore des


pools d’assurés sont directement calqués sur ceux des mutuelles. Comme elles,

101
les assurés d’un même secteur d’activité sont les propriétaires de l’organisme de
groupe et les contrats proposés sont également à cotisation variable.

Les pools d’assureurs et de réassureurs ont une structure différente, dans la


mesure, où les rôles d’assurés et d’assureurs sont séparés. Cependant, ils
partagent des caractéristiques analogues à celles des mutuelles en terme de
partage de risque et d’incitation, en particulier parce qu’ils proposent des
contrats à cotisations variables, permettant un réajustement ex-post des primes à
la hausse ou à la baisse, selon le degré de sinistralité effectif. Il y a donc un
partage du risque de chacun entre l’ensemble des membres de ces structures.

On observe également que ces mécanismes (pools, RRG et captives )


imposent un comportement de prévention à leurs membres et tendent à une
meilleure gestion du risque dans chacun des secteurs professionnels.

Nous présentons et analysons les grandes caractéristiques de ces organismes


de groupes ci-dessous.

Les Pools
Les pools sont des accords passés entre des entreprises ou entre de des
compagnies d’assurance et réassurance visant à mobiliser des capacités
suffisantes pour de très gros risques. Ils sont organisés comme des assureurs
mutualisés avec des entreprises comme preneurs d’assurance, sur une base
nationale visant à couvrir une classe de risques déterminés.

On peut recenser deux types de pools :


- Les pools d’Etat américains : ils assurent principalement les
risques d’accident du travail

102
- Les pools commerciaux : ils assurent les risques relatifs aux
particuliers et aux entreprises. On citera en exemple des pools
d’assurance de catastrophes naturelles (California Earthquake
Authority aux Etats-Unis ou le Turkish Catastrophe Insurance
Pool en Turquie), des pools de réassurance du risque terroriste
(Pool Re au Royaume-Uni, GAREAT en France), des pools
d’assurance ou de réassurance du risque de responsabilité
médicale (GTAM et GTREM en France) ou encore des pools
d’assurance du risque nucléaire (Allemagne).

Les “Risk Retention Groups” (RRG)


Particularité américaine, les RRG ont été introduits en 1986 comme un
mécanisme alternatif permettant aux entreprises américaines d’accéder à
l’assurance responsabilité civile. Les RRG sont des compagnies d’assurance
responsabilité civile spécialisées, constituées en sociétés commerciales sous la
forme de mutuelles, leur activité principale concerne les services professionnels
et le secteur de la santé. Leur importance n’a eu de cesse de grandir suite à la
crise de la responsabilité civile et en particulier de la responsabilité médicale au
milieu des années 80. En effet, les RRG ont été la solution face à une
augmentation considérable des primes d’assurance, voire l’incapacité des
assureurs à fournir une couverture responsabilité civile. Aujourd’hui on peut
recenser 96 RRG aux Etats-Unis, dont six construits en début d’année 2003.
Différents secteurs professionnels ont adopté une telle structure d’assurance, en
particulier les services professionnels et le secteur de la santé, qui représentent
respectivement 45% et 31% des RRG recensés aux Etats-Unis69.

69
Swiss Re (2003).
103
Les Captives
Une captive est une société d’assurance ou de réassurance, de forme
mutuelle, appartenant à une entreprise ou à un groupe n’opérant pas dans le
secteur de l’assurance. Sa principale vocation est de couvrir les risques de son ou
ses détenteurs. Les premières captives ont été créées suite au manque de
confiance des entreprises dans les autres mécanismes de transfert des risques et
se sont fortement développées dans les années 60 du fait d’avantages fiscaux et
financiers importants70.
Il existe plusieurs types de captives :
- Les captives d’une société – mère assurent uniquement les
risques de celle-ci et de ses filiales.
- Les captives diversifiées couvrent les risques afférents ou non à
l’activité du groupe.
- Les captives d’associations couvrent les risques d’une
association professionnelle, par exemple les risques de
responsabilité civile comme l’erreur médicale.
- Les rent-a-captives sont des sociétés d’assurance permettant
l’accès aux services d’une captive sans que l’entreprise ne doive
la créer.

La Société contemporaine crée en permanence de nouvelles sources


d’incertitude et d’ambiguïté. L’appréhension du risque en est directement
affectée, rendant nécessaire une recherche permanente d’outils d’assurance de
transition, visant à mettre en place ou à compléter les méthodes d’apprentissage
existantes, et in fine à réduire l’incertitude. Dans un tel contexte, toute approche
traditionnelle du risque est insuffisante et inadaptée. Les trois types de

70
Dans les années 60, les primes payées aux captives pouvaient être déduites des impôts par la maison-mère,
offrant ainsi un avantage fiscal au niveau du bilan de l’entreprise. Aujourd’hui les avantages fiscaux ont été
fortement réduits dans les pays industrialisés. De plus, la réglementation est peu favorable aux captives : elle est
défavorable aux Etats-Unis et au Canada, l’Allemagne est prudente, la France et le Royaume-Uni sont neutres et
la Suède est favorable (Swiss Re, 2003).
104
mécanismes précédemment développés offrent une solution alternative
fréquemment utilisée en permettant un regroupement des assurés par type de
profession ou des assureurs pour un nouveau risque donné. Une nouvelle
stratégie d’assurance et un nouveau réseau de coopération entre assurés et
assureurs sont ainsi définis.

La grande caractéristique commune à ces trois mécanismes, pool, captive


ou RRG, est la structure de type mutuelle. Il semble, par conséquent, que pour
des risques non-diversifiables (potentiels et avérés) et dans un contexte
d’assurance standard, les dommages doivent être partagés entre les agents selon
leur niveau d’aversion au risque. C’est le principe de mutualisation définit par
Marshall (1974)71 et que Maurice Allais caractérisait comme l’élimination des
risques globalement éliminables.

Il nous paraît intéressant de pousser l’analyse afin de mettre en évidence ce


qui, face à des risques nouveaux aux conséquences potentiellement
catastrophiques, incite au développement de ces nouvelles structures.

71
Marshall (1974) : les principes de mutualisation et de réserve décrivent deux types de comportements
extrêmes des agents dans la prise en charge du risque non-diversifiable. Le principe de mutualisation suppose en
effet que les assurés supportent l’ensemble du risque, alors que le principe de réserve décrit un transfert de ce
risque à un acteur tiers. Il montre ainsi que lorsque la loi des grands nombres s’applique, il est optimal de
transférer le risque à un tiers acteur, alors que quand celui-ci peut être décomposé en une partie idiosyncrasique
et une partie résiduelle ou agrégée, non-diversifiable, le principe de mutualisation entre les agents devient
optimal. Borch (1962) avait déjà énoncé les prémices d’un tel comportement en présence d’un risque, c’est le
principe de mutualité : la partie idiosyncrasique du risque est couverte complètement, alors que la partie
agrégée ne l’est que partiellement suivant le degré d’aversion au risque des agents.
105
2. LE SOCIETARIAT : FORCE OU FAIBLESSE DE LA « SOCIETE DU
72
RISQUE »?

2.1. Le paradoxe économique du groupe en incertitude


La principale question est la comparaison en terme d’efficacité des
structures d’assurance de groupe et de leurs concurrentes capitalistes. Nous
verrons que, selon le contexte économique et selon le type de demandes en jeu,
ces entités sont plus ou moins efficaces pour proposer une offre à moindre coût.

Fama et Jensen (1983) ont cherché à analyser les caractéristiques


principales des sociétés à actionnariat, telles que les compagnies d’assurance.
Pour eux, le succès de ces sociétés réside dans la gestion du conflit d’agence
gestionnaire / propriétaire des capitaux (actionnaires). Ces deux rôles étant
distincts, le gestionnaire peut mieux se spécialiser dans son rôle et devenir
compétent ; il en est de même pour l’actionnaire. Toutefois, en déléguant à un
gestionnaire la conduite de leurs affaires, les actionnaires peuvent moins
contrôler l’évolution de leurs intérêts dans l’entreprise : le gestionnaire est
susceptible de servir ses intérêts avant ceux de l’actionnaire. Un conflit d’agence
émerge donc. Ce conflit a des coûts, qui peuvent contrebalancer les avantages de
la spécialisation de chacun des acteurs de l’entreprise. Les auteurs montrent alors
que la structure des sociétés à actionnariat permet de gérer efficacement ce
conflit d’agence du fait de l’existence de différentes incitations à une gestion
efficace de l’entreprise par les dirigeants. On pourra citer entre autres, la
pression exercée par le marché des actions qui renseigne sur la valeur réelle de
l’entreprise, celle exercée par le marché du travail sur le dirigeant ou encore,
comme le souligne Shavell (1979), la possibilité d’intéresser les dirigeants au
résultat de l’entreprise (monitoring cost). Les sociétés à sociétariat ne présentent
pas cet avantage qui repose sur le rôle des actionnaires . Les compagnies

72
Beck (2003).
106
d’assurance ont donc un avantage comparatif sur ces dernières, issu de la gestion
du conflit gestionnaire/propriétaire des capitaux de l’entreprise.

D’après Fama et Jensen, si un secteur économique présente des coûts


importants de contraction et d’expansion des actifs, les sociétés à sociétariat
seront d’autant plus désavantagées. De tels coûts caractérisent notamment des
situations de grande incertitude nécessitant d’adapter le niveau des actifs. Une
entreprise capitalistique, qui a déjà un avantage comparatif sur les mutuelles
(voir ci-dessus), a également un accès au marché financier, elle peut donc plus
facilement mobiliser des capitaux. Par conséquent une telle structure sera plus
efficace qu’une structure de type mutuelle dans des situations incertaines, où
l’information est moindre.

Cependant même si la théorie économique conclue à une inefficacité des


sociétés à sociétariat dans des situations à grande incertitude, on assiste
paradoxalement à un développement de structures d’assurance de groupe. Il est
intéressant de pousser l’analyse afin de mettre en évidence ce qui, dans les
structures de forme mutuelle, est suffisamment robuste pour être repris en
compte dans des formes d’organisations nouvelles, face à des risques potentiels,
ou avérés et catastrophiques.

2.2. Réaction des marchés de l’assurance à la « Société du risque73 »


Le début des années 2000 marque une inflexion majeure dans la vision des
secteurs de l’assurance et de la réassurance dans le monde et plus
particulièrement en Europe. Les tempêtes de fin 1999 et les inondations de l’été
2002 font revoir à la hausse l’ensemble des expositions aux catastrophes
naturelles, la baisse des marchés financiers à partir de 2000 efface une partie
importante du capital des deux secteurs, l’évènement sans précédent du World

73
Beck (2003).
107
Trade Center en 2001 crée un sentiment d’insécurité dans les marchés
développés et une révision complète des expositions, et enfin, la survenue
ultérieure de l’accident industriel d’AZF à Toulouse en 2001 entraîne une
réévaluation des effets des catastrophes technologiques. Cette réévaluation
coïncide avec une prise de conscience par l’assurance d’être au cœur des effets
de l’augmentation des risques sur le moyen terme et tout particulièrement ceux
d’origine climatologiques, technologiques, sanitaires ou encore juridiques.
D’autres effets liés à l’accroissement des richesses agissent également en
parallèle et tendent à accroître un tel phénomène : la mondialisation, la
concurrence accrue ou encore l’industrialisation du crime (Vilnet (2004)).

A cette caractérisation nouvelle des risques catastrophiques doit s’ajouter


l’émergence de nouveaux risques, qui à long terme pourraient s’avérer beaucoup
plus menaçants. Ils sont, en effet, susceptibles de mettre en péril de manière
irréversible les ressources des générations futures et confrontent les sociétés
modernes à leurs faiblesses structurelles et décisionnelles. Qu’il s’agisse de la
gestion de la crise de la responsabilité médicale en France, des réflexions
relatives à la définition d’une directive européenne en matière de responsabilité
environnementale ou d’une réglementation européenne de l’utilisation de
produits chimiques, toutes ces démarches se heurtent aux même problèmes :
d’une part, l’insuffisance de recherches fondamentales sur la perception et
l’appréhension du risque ainsi que sur les comportements des agents exposés, et
d’autre part, l’insuffisance voire la partialité de la collecte et du traitement de
l’information. Dans un tel contexte, il est difficile de définir une régulation fine
des activités qui peuvent engendrer ce type de risques et en particulier d’établir
les régimes de responsabilité adaptés.

Cette sensibilisation aux risques dans tous les domaines entraîne deux
conséquences majeures pour l’assurance avec des besoins contradictoires en ce
108
qui concerne les catastrophes: une moindre appétence des assureurs aux risques,
débouchant sur une raréfaction de l’offre, et des besoins plus importants de
protection financière pour les entreprises et les particuliers. Cette nouvelle
situation de raréfaction de la réassurance liée à l’augmentation des risques
conduit à un durcissement technique (évaluation, tarification, réserves, allocation
de capital), dont les conséquences peuvent être l’augmentation spectaculaire des
primes, l’ exclusion ou même le refus d’assurance de certains risques.

L’incertitude scientifique, qui caractérise désormais en partie l’univers du


risque, semble finalement poser la question fondamentale du statut de
l’assurance. Dans un tel contexte, quelle signification doit-on accorder au refus
d’assurance ? En effet, il peut s’agir d’une réelle incapacité financière ou
juridique des assureurs à faire face à leurs obligations, comme ce fut le cas pour
l’assurance des risques industriels ou encore lors des modifications de la
réglementation en matière de RC médicale. Cependant, refuser d’assurer un
risque peut aussi être un signal d’alerte pour la Société , lui signifiant qu’une
activité ou une action, dont les conséquences à long terme sont encore
incertaines, nécessitent un apprentissage plus poussé. Autre question
fondamentale relative au statut de l’assurance : doit-on instaurer une obligation
d’assurance, bien que les régimes de responsabilité soient encore incertains ? Le
développement de toute activité nouvelle ou encore l’utilisation de produits
risqués créent des risques potentiels sur la santé humaine et sur l’environnement.
Dans de telles situations, il est impératif de pouvoir déterminer qui doit être
responsable de la réparation financière des dommages potentiels. La question du
rôle de l’assurance dans la prise en charge de l’incertitude scientifique ne peut
donc être traitée sans poser plus largement le problème du rôle et du
comportement de chaque type d’agent économique et tout particulièrement de la
Puissance Publique.

109
Les risques non avérés invitent à une réflexion approfondie sur les
mécanismes contractuels et institutionnels de prise en charge de ces derniers, sur
les réseaux de coopération entre agents que de tels mécanismes concernent et
impliquent et surtout sur des éventuelles incitations à l’apprentissage et à la
prévention qu’ils peuvent induire. Parce que l’assurance et plus particulièrement
la mutualisation, se situe « entre le public et le privé, contribuant à souder
l’espace social, en créant des solidarités objectives, là où il n’y avait que des
intérêts indépendants et opposés »74, elle donne aux sociétés les instruments
d’apprentissage et de développement, en responsabilisant les individus afin de ne
pas compromettre les ressources des générations futures. En incertitude
scientifique, la mutualisation est un élément de réponse face à ces risques
nouveaux, nous en étudions ci-dessous les principales caractéristiques.

2.3. Fonctionnement d’une structure de groupe


L’évolution de la notion d’assurabilité en présence d’incertitude a pour
conséquence première l’émergence de nouveaux outils d’assurance. Ces outils
ont pour but de pallier l’incapacité d’un seul agent du marché (assureur ou
réassureur) à faire face à ces risques nouveaux ou à faible probabilité,
caractérisés par une sinistralité toujours plus importante, et dont la nature
nouvelle semble rendre délicate toute approche classique de gestion. Ils ont
également pour objectif de maintenir une mutualisation au niveau des marchés.

Les différents mécanismes d’assurance de groupe précédemment décrits,


sont caractérisés par une intériorisation du risque. Les contrats d’assurance
proposés sont des contrats à prime variable, le risque individuel de chaque
membre étant pris en charge par l’ensemble du groupe. Enfin, pour pouvoir faire
face à des sinistralités importantes, l’organisme mutuel fait appel à la
réassurance. Au final, il propose à ses membres un contrat permettant, pour un

74
Comte-Sponville A., Philosophie de l’Assurance, Risques, n°32, Octobre 1997.
110
risque donné, d’en mutualiser une partie et de transférer ce qui n’est pas
mutualisable.

Afin de diminuer le montant des primes d’assurance, les membres du


groupe acceptent d’avoir moins de couverture d’assurance et surtout de prendre
en charge individuellement le risque de chacun des autres membres. Il est donc
nécessaire de mettre en place des critères d’entrée, fonction du niveau de risque
de l’entreprise postulante, et des mécanismes de fidélisation incitant à la
prévention à l’intérieur de l’organisme mutuel (diminution de la prime en
fonction du risque de l’entreprise dans le cas d’un pool d’assurés ou d’une
captive d’association).

La raison première pour la construction d’une telle structure alternative


d’assurance est d’éviter l’absence de couverture ou de trouver une solution plus
abordable en terme monétaire. Le choix d’un regroupement d’entreprises en une
structure d’auto-assurance a donc été motivé avant tout par une diminution des
coûts et par une plus grande flexibilité dans le fonctionnement.

Par exemple, dans le cas d’un pool d’entreprises, celles-ci ne sont plus
soumises aux diffèrent coûts inhérents au fonctionnement des compagnies
d’assurance, c’est à dire les coûts de gestion des dossiers, de marketing, de
fonctionnement, etc. L’ensemble de ces frais étant directement répercuté dans les
primes d’assurance, une structure de type mutuelle, c’est à dire gérée par les
demandeurs d’assurance, permet de proposer des primes plus faibles. De plus,
une telle structure peut proposer des contrats plus adaptés aux besoins de chacun
des membres, puisque ces derniers sont également les « vendeurs » d’assurance
et qu’ils connaissent les techniques, les pratiques et donc les risques liés à
l’activité en cause.

111
Ce regroupement entre individus relativement homogènes et bien informés
sur les besoins, les risques et les coûts de chacun des membres, permet donc de
proposer des contrats plus adaptés à un moindre coût. Une sélection des futurs
membres selon leur niveau de risque est également imposée, ainsi que le
développement de politiques de gestion des risques au sein de l’organisme
mutuel, puisque chaque entreprise supporte une partie du risque d’une autre
entreprise membre. A terme, l’enjeu d’une telle structure est donc la maîtrise du
risque en amont ; la structure de groupe semble être, en elle-même, une
incitation permanente à la prévention.

Le choix de ce type de structure résulte donc d’un arbitrage entre la


diminution du coût de l’assurance induit par la structure, la prévention et une
exposition plus importante du bilan des différents membres aux risques. Dans le
cas d’un pool d’entreprises, par exemple, la direction de chacune d’entre elles
doit donc définir son degré de tolérance d’exposition au risque. L’encadré infra
décrit de manière précise, pour une meilleure compréhension, le fonctionnement
d’un pool d’assureurs et réassureurs, dans le cadre de la couverture du risque de
responsabilité civile médicale en France.

Les captives ou les groupes d’assurés sont fréquemment utilisés pour des
risques inhérents aux fonctionnement des entreprises, risques pour lesquels le
prix de la réassurance est important car ils induisent des coût fonctionnels élevés
pour les réassureurs. Utiliser ce type de structure pour des risques de pointe, des
risques catastrophiques ou des risques mal connus pose de grosses contraintes en
terme fonds propres, en particulier lorsqu’il s’agit d’un pool d’assurés. Un
partenariat avec un réassureur ou un transfert au marché financier via des
opérations de titrisation pourraient limiter ce risque d’insolvabilité. Cependant
pour des risques catastrophiques ou des risques non-avérés, un regroupement
d’assureurs ou de réassureurs peut être une solution intéressante. En effet, un tel
112
pool permet d’une part une circulation de l’information entre assureurs ou
réassureurs afin d’avoir une vision objective de la sinistralité réelle et, d’autre
part, une plus grande flexibilité et une capacité financière plus importante.

De tels systèmes sont aujourd’hui largement utilisés aux Etats-Unis et se


développent progressivement en France (25 solutions de marché75). Bien que de
telles solutions soient des outils d’assurance à moindre coût, la Commission
Européenne reste peu favorable à leur implantation notamment en favorisant la
concurrence entre compagnies d’assurance ou de réassurance et non leur
regroupement.

Cependant, face aux besoins de sécurité toujours plus intense, des individus,
une réflexion en terme de convergence des différents modèles existants
(Consorcio, Gareat, Extremus76…) semble devenir une réelle nécessité.

75
Vilnet (2004).
76
Consorcio : assurance des catastrophes dommages en Espagne, Gareat : pool français d’assurance des acte
terroristes et attentas et Extremus : pool allemand d’assurance des acte terroristes et attentas.
113
Le GTAM
Une solution d’assurance temporaire pour faire face à la crise d’assurance
responsabilité civile médicale

Contexte de mise en place et situation actuelle


individus, une réflexion en terme de convergence des différents modèles
Le GTAM a été une solution d’assurance de 77transition, un pool de compagnies d’assurance et de
existants
réassurance, dans un(Consorcio, Gareat,
contexte juridique Extremus …)
et jurisprudentiel semble
mouvant, quidevenir une réelle
rendait difficile toutenécessité.
analyse du futur,
par les assureurs. Le pool a permis de pallier une raréfaction de l’offre, caractérisée par un retrait d’une partie
des assureurs spécialisés en RC et par une augmentation spectaculaire des primes proposées par les
compagnies restantes. Compte tenu de l’existence d’une obligation réglementaire d’assurance des médecins
libéraux et des établissements de soin privés, il a fallu trouver une solution rapide pour continuer à assurer, à
des conditions tarifaires raisonnables pour les médecins, afin que les activités médicales concernées ne soient
pas abandonnées par les médecins (risque de santé publique).

La décision de création du GTAM a été prise le 20 octobre 2002 et la structure opérationnelle le 1


décembre 2002. Il s’agissait d’une solution de coassurance, dans le but de fournir une couverture aux
médecins ou établissements n’ayant pas trouvé d’assureurs sur le marché. Le GTAM devait uniquement servir
de solution transitoire jusqu’à ce que le Bureau Central de Tarification soit opérationnel, c’est à dire au 1er
janvier 2004. Finalement l, le GTAM a été reconduit jusqu’au 30 juin 2004.

Aujourd’hui le BCT prend en charge l’ensemble des dossiers du GTAM et autre demandes de
médecins ne pouvant trouver d’assureurs. Le Groupement temporaire de Réassurance Médical a succédé au
GTAM. Il est la solution de réassurance du BCT, c’est à dire pour les dossiers gérés par le GTAM et autres
risques aggravés.
Fixation des primes
Financement du GTAM
L’objectif de tarification du pool est l’équilibre
technique. La tarification a été confrontée au problème de
l’estimation effective de la sinistralité. Les contrats
d’assurance ont donc été établis au cas par cas, par des
groupes de travail d’assureurs membres du GTAM, selon
différents hypothèses. La tarification s’est donc faite d’une
manière générale par profession, avec une majoration selon
la sinistralité passée du médecin. Cinq classes de tarifs
étaient alors délimitées, de « élevés » à « faibles ».
Durant la période de fonctionnement du pool, avant
prolongation, les statistiques de souscription sont les
suivantes :

Source : GTAM

Source : GTAM (01/01/03)

En terme de sélection des dossiers, il faut noter qu’un


seul praticien n’a pas été accepté par le pool ( une sage
77
Consorcio : assurance des catastrophfemme, qui enrefusait
es dommages Espagne,laGareat
supervision d’und’assurance
: pool français médecin des
dans
acteson
terroristes et attentas et Extremus : pool alleactivité), et un des
mand d’assurance trèsacte
faible nombre
terroristes de fabricants de matériel
et attentas.
médical, pour lesquels la tarification était impossible. 114 La
RCM n’a posé pour le GTAM aucun réel problème
d’assurabilité.
LE GTAM (suite)

T pour temporaire

Le GTAM est une solution transitoire qui propose un certains nombres d’avantages :
l’établissement d’un corpus de méthode de prévision du risque RCM via la centralisation de l’information
objective et un regroupement des connaissances, le développement d’une solidarité de marché, une
meilleure répartition du risque entre les assureurs et facilite l’accès à la réassurance.

Cependant, l’aspect temporaire, rend difficile la réelle mise en place d’indicateur de sinistralité ou
encore de réelles incitations à la prévention via un système de réduction des primes. Il faut d’ailleurs noter
que le rapport de la mission IGAS-IGF recommandait la prolongation du pool pour ces mêmes raisons de
lisibilité du risque de RCM.
De plus, aujourd’hui l’existence du GTREM, comme pool de réassurance, ne peut avoir cette
vocation d’outils d’apprentissage du risque, dans la mesure où il se focalise uniquement sur les risques
aggravés, il n’a en aucun cas le monopole de la réassurance en RCM.

Comme prévu par la loi du 4 mars, le BCT a désormais pris le relais du GTAM. Son rôle est de
décider à quelles conditions un assureur choisi par l’assuré, mais qui lui a opposé un refus, peut être
contraint à le garantir. Il ne saurait être question, en revanche, pour le BCT de désigner d’autorité un
assureur auquel il serait imposé de garantir l’assujetti à l’obligation d’assurance.
Le BCT se réunit pour l’étude de chaque dossier de risque aggravé. Il est constitué des responsables
des différentes sociétés d’assurance qui constituaient le GTAM, sous la tutelle d’un commissaire de l’Etat
Cependant, compte tenu de l’intensité de la crise assurantielle de RC médicale, le fonctionnement
du BCT est délicat, en particulier car il n’a pas vocation à traiter de grands nombres de praticiens qui se
retrouveraient sans assurance. Le BCT doit rester une procédure d’exception pour les risques aggravés, ce
qui est, encore aujourd’hui, difficile dans un contexte d’incertitude à la fois sur le cadre réglementaire et
sur la sinistralité effective.

3. PARTAGE DU RISQUE ET POLITIQUE PUBLIQUE

Trois grands points fixent les limites du marché de l’assurance et de la


réassurance et justifient le développement d’un partenariat entre secteur privé et
secteur public : la nouvelle nature du risque, qui est aujourd’hui caractérisé par
une grande incertitude, un manque d’historique statistique et une distribution
particulière de l’information. Ainsi, la quantification du risque, condition
nécessaire à l’assurabilité, devient un réel défi pour l’assureur.

La capacité financière limitée à la fois des compagnies d’assurance, mais


également des solutions alternatives d’assurance de forme mutuelle, et enfin, la
115
capacité financière limitée de la réassurance constituent deux facteurs limitant de
l’opérationnalité de l’assurance. L’intervention gouvernementale semble donc
nécessaire, non seulement parce que les montants en jeu sont catastrophiques
mais parce que l’Etat dispose de la plus grande information, organise la
solidarité nationale et assure une régulation.

Sur cette question nous retiendrons le classement en trois schémas possibles


de partage du risque entre un gouvernement et la sphère privée.
Le premier schéma est fondé sur le pouvoir de l’Etat de redistribuer les
richesses. Il mutualise le risque au niveau national en se plaçant comme assureur
en dernier ressort.
Le second schéma place les agents seuls face aux conséquences du risque et
réserve les mécanismes de solidarité nationale pour se placer en position de
prêteur en dernier ressort.
Le dernier schéma est fondé sur le pouvoir de régulation de l’Etat qui fixe à
chaque agent des obligations précises, et organise la solidarité nationale pour se
placer en réassureur en dernier ressort. Ce mode d’intervention est le plus
sollicité compte tenu de l’ampleur croissante de la sinistralité de chaque
évènement catastrophique, car il incite au développement de partenariats entre le
secteur public et le secteur privé, et définit le rôle de chacun dans l’appréhension
et la gestion de l’incertitude.

On voit que dans les trois cas les mécanismes de mutualisation sont au cœur
du dispositif, ils concernent la totalité des citoyens par la solidarité nationale, ils
concernent également tous ceux qui sont exposés à ces risques et dont la
nécessaire conscience de leur responsabilité devrait faire naître des solidarités
nouvelles.

116
Le chapitre suivant étudie tout particulièrement la question de l’intervention
de l’Etat dans la prise en charge des risques catastrophiques, à travers l’analyse
des partenariats existants entre les pouvoirs publics et la sphère privé, dans le cas
extrême du terrorisme international.

ET DEMAIN ?
La « société du risque », ainsi que nous la présentions dans la première
partie de ce chapitre et qu’annonçait Beck dès 1985, transforme profondément la
perception des risques auxquels nous devons faire face. Dans un tel contexte, le
progrès technique, la concurrence et la mondialisation modifient la notion de
« risque» en introduisant des sources d’ambiguïté nouvelles, à la fois sur la
potentialité de la sinistralité et sur l’ampleur des dommages qu’un sinistre
pourrait causer. Face à l’incertitude scientifique inhérent à ce « nouveau
risque », l’enjeu aujourd’hui est d’apprendre à « vivre avec », de prendre
conscience de la réalité de l’exposition de chacun à celui-ci, quelque soit sa
position et son rôle dans la société. Cette communauté de destin entre individus
qui acquièrent la conscience d’avoir tous quelque chose à perdre, est de nature à
développer des solidarités nouvelles conduisant à des mécanismes de
mutualisation soit dans le cadre de groupes, soit au niveau de la nation toute
entière.

L’ensemble des analyses menées dans ce chapitre permettent d’apporter


quelques premiers éléments de réponse aux différentes questions soulevées par
les risques potentiels ou catastrophiques. Le développement de pool d’assurés ou
d’assureurs, de captive d’association ou d’autres mécanismes d’assurance de
type mutuelle, pose les bases d’un système de coopération entre les différents
acteurs économiques, non seulement parce qu’il développe des mécanismes de
prévention des risques mais également parce qu’il incite à une prise de
conscience de leur existence. La mutuelle change le visage de l’assurance, elle a
117
aujourd’hui un rôle de responsabilisation des agents et de prévention, elle les
incite à une évaluation et à un contrôle du risque. En ce sens, elle se pose comme
une solution d’avenir et non de transition.

Il reste, cependant, encore toute une réflexion à développer sur le rôle de la


Puissance Publique, qui doit se positionner d’une part, comme garant de la
solvabilité des assureurs lorsque l’assurance est obligatoire et les pertes
potentiellement catastrophiques et d’autre part, comme incitateur à
l’apprentissage du risque, afin de développer une prévention bien calibrée et
propre à chaque agent du marché. Parce qu’elle pose les bases d’un partenariat
entre acteurs publics et privés et développe de nouveaux réseaux de coopération
entre les agents, la mutualisation est une solution d’avenir, pour laquelle
l’organisation la plus efficace reste avant tout une responsabilité collective, un
choix de Société.

Cependant, l’enjeu sociétal que représente également ce type de risque


appelle à la réflexion sur le rôle des agents. En effet, en présence d’activités en
permanente expansion et caractérisées par une incertitude grandissante sur les
conséquences que pourrait avoir leur développement, il faudrait pouvoir définir
une norme comportementale, qui permette, d’une part, d’inciter à l’innovation et,
d’autre part, de ne pas compromettre de manière irréversible les ressources des
générations futures.

Aujourd’hui en voie de devenir constitutionnel, le principe de précaution est


un premier élément de réponse face à ces risques pour lesquels la décision
publique doit précéder la connaissance exacte de leurs caractéristiques. Loin
d’entretenir l’illusion du risque zéro, il tend à inciter les individus à accepter le
risque, à développer des politiques de transition dans le but d’apprendre à le
gérer et à faire face à sa réalisation possible. Dans son aspect général, le principe
118
de précaution stipule que l’incertitude scientifique ne doit pas servir de prétexte
pour reporter les actions de prévention78 et son application tend à s’étendre à
l’ensemble des risques scientifiquement controversés dans notre Société (voir
chapitre 2).

Toutes les modalités et tous les domaines de mise en œuvre de ce principe


ne sauraient cependant s’imposer par décret, il invite donc à intégrer le concept
de précaution comme une norme de comportement économique et social
efficace. Bien qu’il incite à la recherche d’un équilibre entre sécurité,
développement économique et apprentissage du risque, son application
opérationnelle peut paraître encore difficile Ainsi que le soulignait Michel
Valérie79, en matière de risque industriel, confronter le doute des différents
acteurs économiques, définir celui qu’il est moralement normal de prendre en
compte et enfin déterminer jusqu’à quel point il faut douter, sont des réflexions
nécessaires afin que le principe de précaution ne reste pas à l’état de principe en
matière de développement économique.

78
Principe de précaution : « l’absence de certitudes, compte tenu des connaissances scientifiques et
techniques du moment, ne doit pas retarder l’adoption de mesures effectives et proportionnées visant à prévenir
un risque de dommages graves et irréversibles à l’environnement, à un coût économiquement acceptable »,
(article 1de la loi Barnier du 02/02/95 relative à la protection de l’environnement).
79
cf Godard (1997) : à cette époque M.Lavérie était directeur de l’Institut national de l’environnement et des
risques.
119
CHAPITRE 5

ASSURABILITE DES RISQUES ET


INCERTITUDE :
UNE ANALYSE A TRAVERS LE RISQUE
TERRORISTE

«L’assurance est une espèce de jeu qui exige


beaucoup de prudence de la part de ceux qui s’y
adonnent. Il faut faire l’analyse des hasards, et
posséder la science du calcul des probabilités ; prévoir
les écueils de la mer, et ceux de la mauvaise foi ; ne
pas perdre de vue les cas insolites et extraordinaires ;
combiner le tout, le comparer avec le taux de prime, et
juger quel sera le résultat de l’ensemble. Pareilles
spéculations sont l’ouvrage du génie. Mais si la
théorie, dirigée par l’expérience, n’est que trop
souvent fautive, quel sera le sort des négociants, qui
alléchés par l’appât du gain, signent les polices qu’on
leur présente, sans considérer où la fortune aveugle et
leur témérité peuvent les entraîner ? »

B.M. Emerigon - Traité des assurances, 1827

120
Dans la plupart des pays industrialisés, l’assurance est l’un des outils
principaux utilisés pour gérer le risque. Décrite simplement, l’assurance garantit
en contrepartie du paiement ex ante d’une somme relativement faible (la prime),
une protection contre une perte importante au regard des capacités financières de
l’assuré. Par transfert de tout ou partie de son exposition à des structures à plus
large base financière et bénéficiant de meilleures capacités de diversification
(donc moins averses à ce risque; par exemple un assureur), un agent (individu,
entreprise) se décharge d’un risque qu’il pourrait difficilement assumer seul s’il
venait à se réaliser.

Sans cette possibilité de transférer des risques aux compagnies d’assurance


(elles-mêmes transférant tout ou partie de cette exposition aux compagnies de ré-
assurance ou aux marchés financiers qui opèrent à une plus large échelle encore
au niveau mondial, voir chapitre 4), de nombreuses activités n’auraient
certainement pas eu le même développement que celui qu’on leur connaît.

Le prix de l’assurance peut alors être un bon indicateur du niveau de risque


de certaines activités. Par exemple, il paraît normal qu’un jeune conducteur,
encore inexpérimenté, paie une prime d’assurance plus élevée –toutes choses
égales par ailleurs– qu’un conducteur ayant conduit régulièrement son véhicule
au cours des dix dernières années sans jamais avoir eu aucun accident. De même,
les fumeurs ou les praticiens de sports dits à hauts risques (ex : escalade) paient
une prime d’assurance vie supérieure à d’autres, leur niveau de risque étant a
priori plus élevé que la moyenne. Dans ces deux cas, la démarche de partage de
risque ex ante contre le paiement d’une prime prédéterminée repose sur une
bonne connaissance du risque associé à ces activités (assurance automobile,

121
assurance vie) pour lesquelles il existe de très nombreuses données historiques
sur les sinistres.

Pour beaucoup d’actuaires, une limite importante à l’établissement d’un


marché d’assurance pour couvrir un type de risque particulier est la non-
applicabilité d’une loi des grands nombres, laquelle garantit aux assureurs un
niveau d’indemnisation à payer à peu près certain. L’idée sous-jacente à cette loi
a d’abord été introduite par les travaux de Pascal,. Bernoulli, et Laplace, puis par
ceux de Poisson. Cette loi des grands nombres, dans sa forme actuelle appliquée
à l’assurance, peut s’énoncer comme suit : pour une série de variables aléatoires
dont la corrélation ne dépasse pas certaines limites (voir chapitre 4), la variance
de la moyenne devient aussi petite qu’on le souhaite pour autant que le nombre
de variables soit suffisamment grand. Ainsi, pour l’assurance, plus le nombre des
contrats agrégés est grand, plus il autorise, toutes choses égales par ailleurs, une
perspective de prévision certaine en moyenne80.

L’un des enjeux centraux du financement des risques catastrophiques est de


déterminer une démarche similaire de partage de risque, mais pour des
événements aux potentialités extrêmes et, relativement, bien moins fréquents.
Précisement, ces deux facteurs posent de réelles difficultés pour les assureurs.

En effet, en simplifiant, deux conditions doivent être vérifiées pour qu’un


risque soit jugé assurable. La première est la capacité d’identifier et de quantifier
(ou d’estimer au moins partiellement) la probabilité de survenance de
l’événement, ainsi que les montants des pertes associées au sinistre s’il survient.
La seconde est la capacité à établir des niveaux de primes qui reflètent les

80
Cet effet du grand nombre est très utile mais néanmoins pas strictement nécessaire à l’acte d’assurance.
Paul Samuelson montre que le partage de risques (prise en charge d’une certaine proportion d’un risque donné
pour chacune des parties) peut être plus fondamental pour réduire le risque que la réplication de risques
identiques et indépendants. Voir P. Samuelson (1963). Plusieurs travaux récents discutent ceux de Samuelson ;
voir par exemple S.A. Ross (1999) ou E. Peköz (2002)
122
niveaux de risque (limitant ainsi le phénomène de sélection). Si ces deux
conditions sont vérifiées, le risque peut alors être considéré comme assurable.
Néanmoins, cela ne veut pas dire qu’il s’agisse d’une activité profitable pour une
compagnie d’assurance, qui peut toujours décider de ne pas le couvrir. C’est
notamment le cas s’il est impossible d’établir un niveau de prix de couverture
pour lequel l’assureur aura une demande et un revenu suffisants pour couvrir les
coûts inhérents à son activité (développement, marketing, collecte des primes,
indemnisations), et conduisant à un niveau de profit jugé suffisant. Dans ce cas,
l’assureur peut préférer ne pas couvrir tel ou tel type de risques, d’individus ou
de firmes, sauf à y être obligé par la loi.

Ce rappel peut sembler banal, mais il constitue pourtant l’un des


fondements de l’assurance : elle garantit la continuité des activités économiques
et sociales, mais nécessite une profitabilité minimum pour ceux qui s’y engagent.

Dans un tel contexte, l’analyse des risques dits catastrophiques, tels que les
grandes catastrophes naturelles ou le terrorisme de masse, doit être abordée de
manière très particulière.

Le développement économique et social d’un pays ou d’une région repose sur


l’accès continu aux besoins essentiels. Or, de tels événements catastrophiques sont
capables d’infliger des pertes humaines et financières considérables, avec des
répercussions sociales irréversibles, constituant par-là une limite importante au
développement durable des secteurs d’activité touchés.

De plus, de tels risques à grande échelle, ou encore les interactions entre ces
différentes catégories de risque, ont également les attributs essentiels de maux
collectifs, au sens de la théorie économique de non-rivalité et de non-exclusivité :

123
chacun est potentiellement menacé, et la menace qui plane sur les uns ne diminue
pas forcément la menace qui plane sur les autres.

Enfin, ils posent de réelles limitations aux assureurs pour qui ils constituent un
potentiel de pertes très importantes qui pourrait les conduire à la ruine, et sont à la
fois très incertaines et ambiguës (au sens de l’incertitude et de l’ambiguïté dans la
théorie de la décision ; voir chapitre 3).

Pour ces raisons, la création et l’implémentation d’une couverture financière


adéquate de ces événements constitue de plus en plus un élément d’intérêt
national qui dépasse la seule sphère de l’industrie de l’assurance.

Les événements du 11 septembre 2001 aux États-Unis, ainsi que d’autres


attaques de grande échelle survenues depuis, dont celles de Madrid le 11 mars
2004, ont contribué à mettre en avant plusieurs questions essentielles ayant trait
à l’assurabilité des risques catastrophiques. L’analyse de la question terroriste
dans une problématique « Assurabilité et Incertitude» montre que le terrorisme
constitue aujourd’hui une source reconnue de risques ponctuels81 les plus aux
limites de l’assurabilité. Et cela est vrai, à notre connaissance, en des termes
qu’aucun autre risque ne pose.

Aussi nous a-t-il semblé pertinent dans le cadre de ce rapport d’analyser


plus avant la question de l’incertitude et de l’assurabilité à travers cet exemple
emblématique que constitue le terrorisme à grande échelle.
Les attentats de 2001 constituent en effet un événement sans précédent pour
un État en paix : tout d'abord, par le nombre de décès à déplorer dans
l'effondrement des deux tours du World Trade Center, dans l'écrasement des

81
La notion de « risques ponctuels » ici vient en complément de celle de « risques diffus », ces derniers ne se
réalisant effectivement que sur une période assez longue, parfois plusieurs années (pollution de l’air ou des sols,
exposition physique à certains types d’amiante, ou encore risques dits de développement).
124
avions sur le Pentagone et en Pennsylvanie ainsi que parmi les services
d'urgence, plus de trois mille. Sans précédent aussi puisque les cibles visées
n'étaient pas seulement des biens publics représentant le pouvoir gouvernemental
ou relevant de la sécurité publique (le Pentagone, l'espace aérien), mais des biens
privés détruits par des avions de ligne privés. Au regard des impacts de ces
attentats d’une nature nouvelle, l'acte de terrorisme –sous de multiples formes
possibles– est devenu une nouvelle source de "sinistres à grande échelle".
Ces événements ont engendré un effet de résonance tout à fait singulier et
soulevé de très nombreuses interrogations quant à la nature du risque terroriste
de nos jours, la responsabilité des gouvernements à garantir la sécurité de leurs
citoyens, l’impact de leur politique étrangère, entre autres. Plus spécifiquement,
et pour ce qui a trait à la problématique du présent rapport, ils ont également mis
en lumière la question de la responsabilité financière des gouvernements et du
secteur privé pour garantir l’indemnisation des victimes (personnes et
entreprises) et, par là même, la continuité sociale et économique du pays. La
question du financement des conséquences de tels événements –et donc du
partage du risque ex ante– émerge alors de manière centrale, et nous focaliserons
notre analyse du terrorisme sur cet aspect.

1ERE PARTIE : AU MATIN DU 11 SEPTEMBRE 2001 : L’ASSURANCE


EN QUESTION

1. LE 10 SEPTEMBRE 2001 : LE RISQUE TERRORISTE DANS LES

CONTRATS D’ASSURANCE

Avant les attaques à grande échelle contre les États-Unis le 11 septembre


2001, la couverture terroriste ne posait pas de problème particulier pour l'industrie
de l'assurance dans la plupart des pays industrialisés, soit que ces pays aient déjà

125
été exposés à ces risques et aient mis en place des systèmes particuliers de
couverture (France82, Angleterre, Espagne, Israël, Afrique du Sud, entres autres),
soit que les autres pays n’aient pas considéré le terrorisme comme présentant un
potentiel catastrophique, n’ayant pas eu à en souffrir (États-Unis).

La situation était particulièrement marquée aux États-Unis. Avant les


attaques du 11 septembre 2001, le risque terroriste ne faisait l’objet que de très
rares exclusions dans les contrats d’assurance dommages-responsabilité. Les
marchés privés fonctionnaient donc bien, essentiellement parce que les pertes
résultant d’attaques terroristes aux États-Unis avaient été historiquement
relativement faibles, et non-correlées car perpétrées par des groupes terroristes
agissant pour des causes différentes et de manière indépendante83.

De surcroît, dans un contexte post guerre froide, l’éventualité que le pays


puisse être attaqué sur son propre sol par des intérêts terroristes étrangers était
jugée par la plupart comme un scénario impossible à cette époque (Commission
nationale américaine, 2004) ; en conséquence, le terrorisme n’était exclu
d’aucune police d’assurance standard, et donc couvert sans référence particulière
ni paiement de prime spécifique.

82
Jusqu'en 1986, l'acte de terrorisme constituait une clause d'exclusion des couvertures d'assurance de
dommage aux biens en France. Depuis la loi du 9 septembre 1986, cette clause d'exclusion est réputée non écrite
et ne peut plus être invoquée par les assureurs : la clause de garantie obligatoire des actes de terrorisme ou
attentats prévaut. Les préjudices matériels sont donc toujours indemnisés par les compagnies d'assurances.
L’indemnisation des victimes de dommages corporels est assurée par le Fonds de garantie des victimes d’actes
de terrorisme et d’autres infractions créé en 1986.
83
Le premier attentat contre le World Trade Center, qui tua 6 personnes et en blessa un millier d’autres, fut
perpétré en 1993 à l’aide d’une voiture piégée dans l’un des garages des tours ; l’attentat causa 725 millions de
dollars de pertes assurées. L'attentat à la bombe d'Oklahoma City, en 1995, qui tua 168 personnes, était jusqu'ici
le plus important jamais perpétré sur le sol américain, mais les pertes matérielles furent essentiellement des
dommages aux biens fédéraux, donc couverts par le gouvernement (Swiss Re, 2002).
126
Une évolution dans la nature du risque
Si les assureurs avaient porté une attention plus soutenue à leur éventuelle
exposition au risque terroriste, sans doute auraient-il pu observer le changement
radical survenu au cours des deux dernières décennies dans la nature même de la
menace terroriste. Si tel avait été le cas, il est fort probable qu’ils auraient ajusté
leur engagement bien avant ce matin du 11 septembre 2001 (exclusions,
limitation de la concentration de portefeuille, prime spécifique au risque
terroriste).

Pour mieux comprendre les enjeux posés par la couverture du risque


terroriste par les seuls marchés d’assurance et de réassurance, il est nécessaire
d’observer avec plus de détails l’évolution de la nature du terrorisme international
au cours des dernières années. Il ne s’agit pas ici, bien sûr, de proposer une
analyse extensive de cette évolution, mais bien plus de fixer quelques axes de
références, en s’appuyant sur travaux les plus récents sur le sujet. Cela devrait
notamment permettre de mieux comprendre pourquoi la question centrale
aujourd’hui posée par les milieux d’assurance n’est plus de savoir si une autre
attaque de la dimension des événements du 11 septembre 2001 est de nouveau
vraisemblable dans le futur, mais bien de savoir quand, et où, elle surviendra, et
par quels moyens.

Walter Enders et Todd Sandler, deux pionniers des études de sciences


politiques sur le terrorisme international, ont récemment publié plusieurs travaux
montrant clairement que la nature de ce risque avait été profondément modifiée
au cours des 20 dernières années84. Et le paradoxe est important. D’une part, le
nombre total d’attaques terroristes internationales (non perpétrées par des
intérêts domestiques) a diminué considérablement en moyenne entre les années
80 et les années 90. D’après les données disponibles auprès du Département

84
Voir notamment Enders and Saandler (2004).
127
d’État américain, 635 attaques terroristes ont été perpétrées dans le monde en
1985, 612 en 1986, 665 en 1987 et 605 en 1988 (U.S. Department of State,
2003). En comparaison, 296 attaques terroristes ont été perpétrées dans le
monde en 1996, 304 en 1997, 274 en 1998 et 355 en 2001, soit près de deux fois
moins en moyenne qu’à la fin années 80. Cette décroissance est largement due à
la fin du conflit Est/Ouest qui s’est traduit par une diminution significative du
nombre de groupes terroristes perpétrant des attentats politiques (Pillar, 2001).

D’autre part, les attentats ne sont pas moins dévastateurs même s’ils sont en
nombre réduit. En effet, un changement radical s’est opéré au cours de ces
années vers des attentats de plus grande échelle infligeant des pertes humaines
plus nombreuses. Ainsi l’observation des 15 attentats les plus meurtriers révèle
qu’ils sont tous survenus après 1982 (voir Tableau 1 ci-dessous). De plus, 80%
d’entre eux furent perpétrés au cours des 10 dernières années, entre 1993 et
2004, incluant les attaques à grande échelle à Madrid le 11 mars 2004 qui tuèrent
plus de 200 personnes et blessèrent un millier d’autres85.

85
Pour une analyse internationale approfondie de la question terroriste voir SOS Attentats (2003).
128
Date Lieu Evénement Décès Blessés

11 Sep 2001 États-Unis Ecrasement d’avions détournés contre des 3 100 2 250
cibles privées et fédérale
23 Oct 1983 Liban/Bierut Attaques à la bombe contre des intérêts 300 100
militaires français et américains
12 Mars 1993 Inde/Bombay 13 attaques a la bombe 300 1 100

21 Dec 1988 UK/Lockerbie Explosion a la bombe du vol PanAm 103 270 0

07 Août 1998 Kenya/Nairobi Attaques à la bombe sur l’ambassade des 253 5 075
États-Unis
11 Mars 04 Madrid, Attaque à la bombe contre des trains 202 >1400
Espagne
12 Oct 2002 Indonésie Attaque à la bombe dans une discothèque 190 300

19 Avril 1995 Etats-Unis/ Attaque au camion piégé sur un immeuble 166 467
Oklahoma City gouvernemental
23 Nov 1996 Comores Détournement du vol Éthiopien Airliner B- 127 0
767
13 Sep 1999 Russie/ Attaque a la bombe dans un immeuble 118 0
Moscou résidentiel
04 Jun 1991 Éthiopie/ Incendie volontaire dans une fabrique 100 0
Adis Ababa d’armes
31 Jan 1996 Sri Lanka/ Attaque à la bombe Ceylinco House 100 1 500
Colombo
18 Juil 1994 Argentine/ Attaque à la bombe 95 147
Buenos Aires
26 Fev 1993 États-Unis, Bombe explose dans le garage du WTC 6 1000
New York

Tableau 1. Les 15 attaques terroristes les plus meurtrières 86

Ce changement radical s’est opéré en continu sur plusieurs années, résultant


d’une évolution profonde dans la nature même du risque terroriste : d’abord plus
politique au cours des années 70 et 80, puis religieux et soutenu par des groupes
extrémistes de type Al Qaeda qui opèrent aujourd’hui et revendiquent
publiquement leur capacité et volonté d’infliger des attaques particulièrement
dévastatrices (Stern, 2002).

En d’autres termes, le terrorisme n’est plus seulement brandi contre un


certain ordre social ou pour un certain idéal politique, mais bien plus

86
Sources : US Department of States (2003), Swiss Re (2002, révisée en mars 2003), informations presse.
129
systématiquement contre « l’Ouest » qui est vu par ces groupes religieux comme
supportant d’autres valeurs qu’ils jugent divergentes (Hoffman, 1998; Pillar,
2001; Wedgwood, 2002).87 En 1982, seuls deux groupes terroristes étaient
classés comme religieux parmi un total de 64 groupes répertoriés dans le monde.
Au cours des 15 années qui ont suivi, cette proportion n’a cessé d’augmenter.
Ainsi, en 1995, près de la moitié des groupes terroristes répertoriés à travers le
monde étaient des groupes extrémistes religieux (Hoffman, 1997).

Dans un tel contexte, comme Sandler et Enders l’écrivirent récemment,


« les événements du 11 septembre 2001, avec leurs légions de personnes
innocentes de tout âge tuées ou blessées, ne furent pas au demeurant surprenants
pour ceux qui, comme nous, ont étudié le terrorisme de longue date et ont alerté
à maintes reprises contre un changement radical dans la nature du terrorisme
international » (Sandler et Enders, 2004). Comme la Commission nationale
américaine sur les événements du 11 septembre l’a clairement mis en avant, ces
alertes n’avaient pas sonné assez fort au soir du 10 septembre 2001.

2. LE 11 SEPTEMBRE 2001 : L’ASSURANCE FACE A UN TERRORISME

NOUVEAU

Ce changement radical dans la nature de la menace terroriste s’est traduit


tragiquement au matin du 11 septembre. En effet, les terroristes n’ont pas attaqué
les États-Unis à l’aide de colis ou de voitures piégées, image traditionnelle du
terrorisme s’il en est. Les attaques ne furent pas non plus orientées physiquement
contre les infrastructures de transport aérien (attaque contre un avion ou un
aéroport). Au contraire, ils ont détourné de son usage traditionnel un des grands
réseaux vitaux du pays et, ce faisant, bénéficié de ses fantastiques capacités de

87
Il ne s’agit bien sur pas ici d’analyser plus en détails cette évolution. Les lecteurs intéressés par cette
question pourront se reporter aux références que nous indiquons.
130
maillage et de diffusion, pour propager une attaque à grande échelle, beaucoup
plus déstabilisante et meurtrière.

Le matin du 11 septembre 2001, après que quatre avions aient été utilisés
comme bombes volantes, chaque élément du réseau –chaque avion demeurant en
vol– devenait un danger potentiel. L’incertitude associée au nombre d’avions
détournés était un facteur aggravant et limitant pour la prise de décision des
autorités. L’ensemble du réseau aérien étant potentiellement à risque, les
autorités américaines n’ont eu d’autre choix que d’ordonner la suspension de
tous les vols commerciaux sur l’ensemble du territoire, avec les répercussions
que nous connaissons sur l’aviation mondiale ; c’était la première fois de
l’histoire des États-Unis que le gouvernement prenait une telle mesure.

Il est d’ailleurs remarquable que les attaques à l'anthrax de l'automne 2001


présentent un cas similaire de détournement de capacité de diffusion de réseaux
vitaux (réseau postal), plutôt que d’attaques directes contre ce réseau88.

L’événement le plus coûteux de l’histoire de l’assurance


Les attaques terroristes du 11 septembre tuèrent plus de 3000 personnes et
blessèrent plus de deux mille autres. La question de l’indemnisation des victimes
et de leurs familles89 ainsi que des entreprises, se posait donc à une échelle bien
plus large que l’assurance n’ait jamais expérimenté auparavant.

88
Dans le cas de la crise de l’anthrax, chaque enveloppe étant possiblement contaminée à l’anthrax, le degré
réel de contamination du système était inconnu. L’ensemble du service postal américain étant donc
potentiellement à risque, l’éventualité d’ordonner sa fermeture complète fut également sérieusement considérée.
L’USPS, premier service postal au monde, traite aux États-Unis quelques 680 millions de lettres et colis par
jour ; l’arrêter ne serait-ce qu’une semaine pour tenter de mieux comprendre les sources et le degré de
contamination du système, c’est accepter de devoir relancer un réseau avec plus de 4 milliards de pièces en
attente de traitement, et s’ajoutent également les effets indirects sur l’ensemble des réseaux postaux mondiaux.
Quelques jours plus tard, l’Europe était elle aussi en état d’alerte, obligée de repenser les modes d’intervention
non plus à une échelle nationale (ou même locale), mais bien au niveau européen, nécessitant une coordination
entre multiples acteurs (gouvernements, dirigeants des opérateurs de réseaux, représentants des employés,
utilisateurs de ces réseaux vitaux, assureurs, etc). Voir Boin, Lagadec, Michel-Kerjan et Overdijk (2003).
89
Le Federal Victim Compensation Fund, établi immédiatement après les attaques pour indemniser les
victimes et les familles de victimes, a versé 5 milliards de dollars d’indemnisations à ce jour (Smetters, 2004).
131
Ces attaques ont en effet infligé des pertes économiques directes estimées à
80 milliards de dollars, dont 32,5 milliards couverts par les assureurs et
réassureurs (150 au total)90 (Hartwig, 2004). A titre de comparaison, les trois
attentats les plus coûteux pour l’assurance jusque là étaient l’attentat à la bombe à
Londres le 24 avril 1993, celui de Manchester le 15 juin 1996 et celui contre le
World Trade Center à New York le 26 février 1993. Ces trois attentats causèrent
des pertes assurées de 900, 750 et 725 millions de dollars respectivement (prix
indexé 2001).

Pour mettre ce chiffre de 32,5 milliards de dollars de pertes assurées en


perspective, figurent dans le Tableau 2 les 10 plus grandes catastrophes d’origine
naturelle et humaine survenues ces trente dernières années. Le classement est
établi en termes de montant de remboursements d’assurance. Il est notable que
toutes ces catastrophes, sauf les attaques de 2001, sont d’origine naturelle.

Remboursements Evénement Décès et Année Pays


d’assurance disparus
(en milliard de dollars ;
prix indexé 2002)
32.591 Attaques terroristes du 11 3,050 2001 États-Unis
septembre
20.90 Ouragan Andrew 43 1992 États-Unis, Bahamas
17.31 Séisme de Northridge 60 1994 États-Unis
7.60 Typhon Mireille 51 1991 Japon
6.44 Tempête Daria 95 1990 France, UK et al
6.38 Tempête Lothar 110 1999 France, Suisse et al
6.20 Ouragan Hugo 71 1989 Puerto Rico, États-Unis
4.84 Tempêtes et inondations 22 1987 France, UK et al
4.48 Tempête Vivian 64 1990 Europe
4.45 Typhon Bart 26 1999 Japon

Tableau 2. Les 10 événements les plus coûteux pour l’assurance, 1970-2003


Sources: Swiss Re, sigma no. 1/2004 et Hartwig (2004)

90
Comme nous l’avons vu, le terrorisme n’était généralement pas exclu des polices d’assurance commerciale
aux États-Unis avant ces attaques.
91
Incluant assurance vie et responsabilité ; Sources: Hartwig (2004).
132
En additionnant les remboursements d’assurances (32,5 milliards de dollars)
au montant d’indemnisations octroyé par le gouvernement fédéral américain à
travers l’établissement du US Federal Victim Compensation Fund to victims of
9/11 (près de 5 milliards de dollars92), le montant total des indemnisations liées
aux attentats du 11 septembre 2001 avoisine les 40 milliards de dollars (hors dons
privés aux associations de victimes). Ce montant est presque le double de celui
octroyé après l’ouragan Andrew qui dévasta les côtes de Floride en 1992, et
constituait jusque là l’événement le plus coûteux pour l’assurance. Il est cinq fois
supérieur aux indemnisations octroyées en France après les grandes tempêtes de
décembre 1999 (assurances privées tempêtes et système Cat.Nat pour les dégâts
suite aux inondations consécutives aux tempêtes).

Un élément essentiel des attaques du 11 septembre pour les assurances fut


l’hyper-correlation des dégâts : plusieurs lignes de portefeuille, à la sinistralité
d’ordinaire peu corrélée, ont fortement été touchées en même temps. La figure 1
montre la décomposition de ces 32,5 milliards par ligne de portefeuille:
indemnisation des salariés, assurance vie, assurance maladie, responsabilité,
couverture aérienne, interruption d’activité, etc.

Notons également, que la configuration de ces attentats fut telle que la ligne
de risque la plus durement touchée ne fut pas les dommages aux biens (les deux
tours) mais les remboursements des pertes économiques liées aux interruptions
d’activités : 11 milliards de dollars, soit un tiers du montant total des pertes
assurées.

92
Smetters (2004).

133
12000

10000

8000

6000

4000

2000

ité
t

n
és
e

és
n)

s
TC
en

tio

en
vi
io

tiv
oy

lit
em

W
e

ia

bi
at

bi

ac
pl
nc

av
vi

sa
én

x
em

d'
en
ra

au
(a

on
é
Ev

n
su

ili t

bi
es

io
es
sp
de
As

ab
n

pt
x
ag

ag
re
tio

au

rru
ns
n
m

m
la

tio

s
e
po

te
t re
om

nu

m
ag
sa

In
do
es

Au
An
D

m
ni

om

s
m

tre
de

Au
In

Figure 1. Principales lignes d’assurance touchées par les attaques du 11 septembre 2001
(en million de dollars) Sources: données d’après Insurance Information Institute (Hartwig,
July 2004)

3. LE 12 SEPTEMBRE : LE RISQUE TERRORISTE SANS ASSURANCE

Au lendemain du 11 septembre, l’industrie de l’assurance et de la


réassurance a donc été confrontée à des montants de remboursement sans
précédent, posant très clairement la question de leur engagement dans le futur.
En particulier, les réassureurs -la plupart européens- ont dû supporter près des
deux tiers du total des pertes assurées (Lehman, 2004).

Gardons ici à l’esprit que les événements du 11 septembre 2001 vinrent


s’ajouter notamment à une série de catastrophes naturelles plus nombreuses et
plus lourdes financièrement au cours des 15 dernières années. La figure 2 montre
l’évolution mondiale des montants de remboursement d’assurance (et
réassurance) depuis 1970. Il apparaît très clairement d’après ces données que la
décennie 1990 révèle un changement radical dans l’occurrence de catastrophes
naturelles particulièrement coûteuses pour les assureurs, plusieurs d’entre eux

134
ayant d’ailleurs été obligés de déclarer faillite après de grands événements tels
que l’ouragan Andrew de 1992 ou le tremblement de terre en Californie en 1994.
A titre indicatif, 75% des 40 événements les plus coûteux sur la période 1970-
2003 sont survenus entre 1990 et 2003.

65
60
55
50
45
40
35
30
25
20
15
10
5
0
1970 1972 1974 1976 1978 1980 1982 1984 1986 1988 1990 1992 1994 1996 1998 2000

Pertes du 11 septembre (responsabilite et vie)


Pertes du 11 septembre (dommages aux biens and interruption d'activite)
Catastrophes naturelles
FigureCatastrophes
2. Évolution d'origine humaine des pertes assurées, 1970-2003
mondiale
(Prix indexés 2003)
Sources : données d’après Swiss Re (200493) et Hartwig (2004)
Figure 2 : Pertes assurées de 1970 à 2001 (en milliards de dollars)

Ajoutons que la plupart des grands réassureurs avaient investi lourdement


leurs portefeuilles dans les marchés financiers à la fin des années 90. La chute
des cours a également eu un effet marqué sur leur propre capacité financière et
leur liquidité. Souffrant de ces deux effets –catastrophes naturelles plus
coûteuses et chute de la valorisation de leurs actifs financiers–, la plupart d’entre
eux décidèrent de très fortement réduire leur couverture terroriste
immédiatement après le 11 septembre et de pratiquer des tarifs très largement à

93
Swiss Re, Sigma. (2004)..
135
la hausse, voire même de ne plus couvrir le terrorisme du tout jusqu'à nouvel
ordre.
Par effet de cascade, les assureurs qui avaient transféré une part de leurs
risques aux compagnies de réassurance, se voyaient alors face à un risque révélé
associé à des pertes potentielles extrêmes, et une capacité de réassurance
considérablement réduite. En réponse à cette situation, l’industrie de l'assurance
a immédiatement limité l’offre de couverture (ce qui ne constitue pas une
défaillance de marché en soi, mais plutôt une réaction à un choc spécifique :
pertes importantes, capacités réduites, révision à la hausse des potentialités de
catastrophes, augmentation des prix de la réassurance) voire refusé de
reconduire, dans la mesure des régulations en place dans le pays, après leur date
d'échéance, les polices d'assurance couvrant contre les risques d'attentats94.

En France, les assureurs ont d'abord annoncé à l’automne 2001 qu'ils ne


reconduiraient pas au-delà du 31 décembre (date d'échéance de la plupart des
contrats) un certain nombre de polices dès lors jugées trop risquées. Or, sans
cette reconduction, de nombreuses entreprises auraient non seulement été dans
l'incapacité de trouver une couverture contre le risque terroriste, mais aussi
d’être couvertes en dommages responsabilité, les deux couvertures étant
indissociablement liées depuis la loi de 1986. Cette réaction a obligé le Trésor à
s'impliquer dans des négociations avec la sphère privée de l'assurance, afin
d'établir un programme de couverture commerciale effectif au 1er janvier 2002.

Ajoutons qu’il est possible pour des réassureurs de se désengager d’un


marché plus facilement que pour les assureurs, ces derniers devant se conformer

94
A titre d’exemple, Axa décide dès le mois d'octobre 2001 de se désengager d'un contrat qu'il avait signé
avec la Fédération internationale de football pour couvrir le risque d'annulation de la Coupe du monde de football
2002 au Japon et en Corée (plus de 900 millions d'euros de couverture). Notons que la couverture est aussitôt
prise en charge par le financier et assureur américain Warren Buffet, illustrant bien le fait qu’un risque jugé non
assurable pour certains ne l’est pas forcement pour tous.
136
à des régulations plus nombreuses et plus contraignantes dans le pays où ils
opèrent95.

2EME PARTIE : INCERTITUDE ET ASSURABILITE DES RISQUES


CATASTROPHIQUES : POURQUOI LE TERRORISME
EST-IL DIFFERENT ?

Dans le cadre d’une analyse de la problématique « assurabilité des risques


et incertitudes », il convient de mieux comprendre les caractéristiques du
terrorisme comme risque potentiellement catastrophique. Cela permet de mieux
comprendre pourquoi le seul argument du montant extrême des remboursements
d’assurance liés aux événements du 11 septembre ne peut suffire à expliquer le
refus des assureurs à couvrir, seuls, ce type de risque96. Sans prétendre à
l’exhaustivité, il est intéressant de mettre en avant certains éléments
fondamentaux qui font du terrorisme à grande échelle un risque à part pour
l’industrie de l’assurance et de la réassurance, et donc pour son assurabilité.

Quelles sont les conséquences possibles d’attaques terroristes ? Est-on


capable de les estimer ? Quel est le niveau d’incertitude associé à ces scénarios ?
Quelle est l’information disponible sur le risque ? Dans quelle mesure le risque
est-il endogène ? Qui sont les porteurs de risque ? La perception du risque joue-
t-elle plus que pour d’autres événements catastrophiques ? Comment lier

95
Par exemple, suite au tremblement de terre de Northridge en Californie en 1994, qui infligea plus de 17
milliards de dollars de pertes assurées (prix 2002), nombre d’assureurs voulurent se désengager de ce marché
désormais juge trop risqué. Néanmoins, le Congrès de Californie vota une nouvelle loi interdisant à tout assureur
opérant dans cet État de se désengager de plus de 5% de son portefeuille par an pour la couverture contre les
séismes.
96
Dans Michel-Kerjan (2003-b) nous analysons la réaction des marchés financiers aux événements du 11
septembre, prédite en grande part par les résultats théoriques de l’économie de l’assurance. En particulier, il est
notable qu’après le choc immédiat post 11-septembre, le cours des actions des compagnies d’assurances soit
revenu à un niveau pré-11 septembre très rapidement, voire l’ait dépassé. On estime ainsi qu'entre le 10
septembre 2001 et le 08 novembre 2001, l'indice boursier des compagnies américaines d'assurances dommages-
responsabilité a augmenté de 6,5 %, contre trois fois moins pour l'indice S&P500.
137
couverture financière du terrorisme et politique de sécurité nationale? Quelles
sont les responsabilités des gouvernements et du secteur privé en la matière ?

Cette section apporte certains éléments de réponse à ces questions et montre


ainsi pourquoi le terrorisme est différent de bien d’autres risques
catastrophiques.

1. POTENTIALITE DE PERTES CATASTROPHIQUES


Comme nous l’avons vu plus haut, les attentats du 11 septembre ont montré
une nouvelle forme de terrorisme, bien plus dévastateur que ce qui était connu
auparavant. Du fait de la forte concentration de biens et d’activités dans le World
Trade Center, les montants de remboursement ont été particulièrement élevés
pour les assureurs et réassureurs. Ainsi, les Lloyd’s ont payé 2,9 milliards
d’indemnisations, et ont frôlé de peu la faillite. Munich Re et Swiss Re, les deux
leaders mondiaux de la réassurance, ont payé 2,4 milliards de dollars chacun.
Parmi les grands assureurs, Allianz, AIG et Axa ont payé 1,3 milliards de
dollars, 820 millions et 550 millions de dollars, respectivement. (Hartwig, 2002).

Une étude récente, portant uniquement sur la couverture des salariés


(worker’s compensation, pour lequel le terrorisme ne peut être exclu des
polices), analysait ainsi plusieurs scénarios jugés plausibles par certains experts.
L’explosion d’une bombe dans l’immeuble du Rockefeller Center à New York à
une heure de pointe engendrerait ainsi des montants de remboursement
d’assurance estimés à plus de 7 milliards de dollars (Towers Perrin, 2004).

La crise de l’anthrax de l’automne 2001 a montré notre vulnérabilité face à


des attaques utilisant des armes de destruction massive de types chimiques,
biologiques, radiologiques et nucléaires (CBRN). Selon la même étude, une
attaque de grande échelle à l’anthrax contre la ville de New York serait
138
particulièrement dévastatrice, ayant le potentiel d’engendrer des coûts directs de
remboursement d’assurance (indemnisation des salariés) de plus de 90 milliards
de dollars (Towers Perrin, 2004). Dans ces deux cas, les montants ne concernent
que les impacts directs sur les salariés victimes de l’attaque.

Plusieurs autres scénarios montrent que les pertes économiques associées à


des interruptions d’activités pourraient avoir des conséquences financièrement
bien plus lourdes encore, et pour beaucoup ne seraient pas couvertes par
l’assurance. Par exemple, une attaque de grande échelle sur un des grands ports
internationaux (Rotterdam) pourrait nécessiter la fermeture provisoire de celui-
ci, et engendrer en cascade des conséquences économiques difficilement
quantifiables à l’échelle internationale pour l’ensemble des compagnies (et leurs
clients) transportant leurs produits par voie maritime, et fonctionnant pour la très
grande majorité en flux tendu. L’éventualité d’utiliser des containers maritimes
comme armes de destruction au sein d’un réseau maritime mondial fonctionnant
en flux ininterrompu conduit à des pertes économiques encore supérieures. Le
détournement des avions le 11 septembre 2001, les attaques à l’anthrax ou les
attaques à la bombe contre des trains de passagers le 11 mars 2004 en Espagne
ont montré la capacité de groupes terroristes particulièrement informés à
détourner de leur usage traditionnel nos propres réseaux pour infliger des pertes
humaines et économiques à très grande échelle (Michel-Kerjan, 2003).

2. RISQUES INTERDEPENDANTS

Le terrorisme engendre des interdépendances à plusieurs niveaux.

2.1. Incitation réduite à l’investissement en mesures de protection


Tout d’abord, le risque qu’encourt un individu, une entreprise ou même un
pays ne dépend pas uniquement de ses propres choix d’investissement en sécurité
139
mais aussi des actions des autres agents. Il y a en effet une possibilité non
négligeable d’être affecté par un attentat terroriste parce que d’autres n’ont pas pris
les mesures nécessaires de protection. Ainsi, dans un système global, si le maillon
faible est mis en défaut, cela peut avoir un impact sur l’ensemble du système,
indépendamment des protections établies par chacun des agents le constituant. Dans
le cas des événements du 11 septembre 2001, les mesures de sécurité inefficaces à
l’aéroport de Boston (où les terroristes embarquèrent) conduisirent aux milliers de
victimes dans les Tours du WTC à New York, au Pentagone et en Pennsylvanie.

Les mécanismes d’assurance tels que nous les connaissons ne sont pas bien
configurés pour traiter de telles interdépendances. En effet, dans ce cas il est
extrêmement difficile de lier prix de la couverture et efforts de prévention dès lors
que ces efforts peuvent n’être que d’une utilité tres limitée si d’autres agents –dont
l’assuré dépend– ne sont pas assez protégés, et sur lesquels les assureurs ont peu de
prise. A moins de proposer une approche de type monopole d’assurance, dans
laquelle il est possible d’endogénéiser ces externalités (un seul assureur couvrant
l’ensemble des agents, et donc l’ensemble des risques, directs et interdépendants),
l’assurance privée est ici limitée pour inciter à la prévention et déterminer un prix
de couverture qui reflète l’exposition réelle des assurés (Kunreuther et Michel-
Kerjan, à paraître).

2.2. Externalités négatives des mesures de protection


Contrairement à d'autres grands risques comme les catastrophes
industrielles ou naturelles pour lesquelles l'investissement d'un individu ou d’une
entreprise dans des mesures de protection a pour influence de réduire
l'occurrence de l'événement et/ou le niveau des pertes potentielles, les mesures
de protection contre le risque terroriste posent de réelles difficultés.

140
En effet, toute mesure d'autoprotection locale peut également engendrer des
externalités négatives. Par exemple, mettre en place dans un aéroport des
mesures de protection observables publiquement peut permettre de réduire la
vraisemblance d’une attaque contre cet aéroport puisque le bénéfice marginal
d'une telle attaque, du point de vue du groupe terroriste, décroît du fait de l'effet
richesse (ressources limitées). Néanmoins, cela peut alors inciter les terroristes à
attaquer d’autres cibles plus vulnérables97. Il en résulte donc que l'autoprotection
d'un agent peut augmenter le danger pour les autres agents d'être attaqués98.

Le bénéfice social retiré par cet effort de protection peut alors s'avérer bien
moindre que le bénéfice privé retiré par le propriétaire du premier aéroport.
Seules des politiques de gestion globale des risques permettraient de contenir ces
effets en endogénéisant les externalités. En absence de mécanismes décentralisés
de coordination, il y a nécessité d'interventions gouvernementales pour cela
(mise en place de standards de sécurité par exemple).

2.3. Externalités des décisions de gestion de crise


La question de l’interdépendance est aussi fondamentale pour les questions
relatives à la gestion de la crise dans le cas d’attaques. En effet, la bonne gestion de
l’événement doit permettre de réduire les dommages aux personnes et aux biens. Ce
faisant, il se peut également que les décisions prises –à un moment donné, en un
lieu donné, dans une confusion souvent très forte liée à l’événement et un niveau
d’incertitude élevé– affectent d’autres agents que les victimes directes et
occasionnent même des pertes importante par effet de cascade. Une limite
importante de l’assurance, justement, est que d’ordinaire, elle ne couvre que contre

97
Dans certains cas, les terroristes pourraient aussi vouloir atteindre des cibles considérées comme
particulièrement sûres afin de démontrer leurs capacités d'attaques ; par exemple des cibles gouvernementales ou
symboliques, comme ce fut le cas lors du 11 septembre contre les tours jumelles du WTC et le Pentagone.
98
De fait, ces externalités dues aux efforts d'autoprotection peuvent également influencer le prix de
l'assurance pour les autres agents.
141
les effets directs d’un événement ; dit autrement, l’assuré doit être la victime directe
de l’attaque.

Au matin du 11 septembre 2001, alors que le nombre d’avions détournés était


inconnu, l’agence de contrôle de l’aviation américaine (FAA, Federal Aviation
Administration) a dû ordonner l’arrêt de tous les vols commerciaux sur l’ensemble
des Etats-Unis. En mars 2004, la ville de Chicago perdit un procès contre sa
compagnie d’assurance ; la ville demandait à celle-ci des remboursements pour les
pertes économiques liées à la décision de la FAA d’arrêter tous les vols. Le tribunal
jugea en effet que la clause du contrat d’assurance était assez spécifique, « ne
couvrant que contre un événement non exclu dont l’assuré est lui-même victime »,
cela excluant tout effet d’interdépendance du aux décisions de gestion de crise sur
New York et Washington (U.S. District Court, 2004).

3. MANQUE DE DONNEES HISTORIQUES ET SYMETRIE NON-

INFORMATIONNELLE

Contrairement à d’autres risques pour lesquels nous disposons dans le


domaine public de données historiques assez importantes (inondations,
tremblements de terre, etc), les données disponibles dans le domaine public sur
les actes de terrorisme sont assez limitées. Cela résulte à la fois de la nature
changeante du risque même, qui permet difficilement d’extrapoler depuis les
données du passé (voir paragraphe suivant), et du fait que pour des raisons
évidentes de sécurité nationale les assureurs n’ont pas accès aux données
récoltées par les services de renseignements gouvernementaux.

Comme nous le soulignions dans des travaux récents, la nature de


l'information disponible sur d'éventuelles nouvelles attaques est tout à fait
originale, et mérite donc une attention particulière, pour élaborer des politiques
142
publiques ou des stratégies de marchés pour les assureurs/réassureurs. Quelle
est-elle ? Traditionnellement, l’intervention publique dans les marchés
d'assurance se voit justifiée en partie pour des raisons de défaillances de marché
(notamment l'antisélection due à une asymétrie d'information assureurs/assurés).
Dans le cas du risque terroriste, le problème est plutôt qu'il existe une symétrie
de non information entre les assureurs et leurs assurés quant aux risques
encourus à couvrir. En effet, pas plus les assureurs que les assurés eux-mêmes ne
disposent d'information probante sur ces risques. S'il existe bien une asymétrie
d'information, celle-ci se situe entre le gouvernement et les compagnies
d'assurance couvrant les risques : le gouvernement dispose a priori d'une
meilleure information sur ces risques, notamment grâce aux services de
renseignements, d'espionnage et de contre-espionnage et à la coopération
intergouvernementale en matière de lutte anti-terroriste. Cependant, au nom de la
sécurité de l'État, de telles informations ne sont pas rendues publiques. Les
problèmes d'asymétrie d'information ex ante, observés dans une relation
traditionnelle assureur/assuré, ne se posent guère pour le risque de terrorisme de
masse99 (Michel-Kerjan, 2003).

4. UNE « INCERTITUDE DYNAMIQUE »

Une différence importante entre le risque terroriste et les catastrophes


d'origine naturelle est due au fait que l’incertitude liée à celui-ci n’est pas
seulement élevé, mais qui plus elle est dynamique. En effet, les groupes
terroristes peuvent adapter leurs comportements et stratégies d’action en fonction
de leurs ressources et de leur connaissance des vulnérabilités des cibles
potentielles. Le risque terroriste n'est donc pas figé en tant que tel, mais évolue
dans le temps en fonction de nombreux paramètres (de nouveaux groupes se

99
Dans la relation assureur/assuré pour la couverture contre les attentats, si problème d'aléa de moralité
il y a, il se pose essentiellement ex post.
143
constituent et peuvent rester à l'état de veille plusieurs années, les cibles et les
types d'attaques changent, la politique étrangère d’un pays évolue, la lutte anti-
terroriste est efficace ou ne l’est pas, etc.).

Ainsi, s'il est possible de réduire les dommages dus à un tremblement de


terre dans la région de Nice par l'adoption de mesures de prévention déjà bien
connues techniquement, personne ne peut influencer l'occurrence du séisme lui-
même. Le risque terroriste est par contre changeant puisqu'il résulte à tout instant
des mesures de protection mises en place par ceux exposés, des actions des
gouvernements (voir plus bas) pour augmenter le niveau de sécurité, et de la
volonté des groupes terroristes de perpétrer un attentat : l'incertitude qui s'y
rattache peut ainsi être qualifiée d’ « incertitude dynamique ». (Michel-Kerjan,
2003)

5. LIMITES DU RECOURS AUX MODELES DE QUANTIFICATION

La survenance de grandes catastrophes naturelles particulièrement


dévastatrices depuis la fin des années 80 a amené un nombre croissant de parties
prenantes à reconnaître la nécessité de développer de nouvelles méthodes de
quantification pour mesurer les impacts et la vraisemblance de survenance de
telles catastrophes.

Sur la base d’analyses mathématiques croisant un ensemble de paramètres


caractérisant le phénomène naturel lui-même et les informations concernant les
éléments exposés (bâtiments, aéroports, stades, réseaux d’infrastructures, etc),
ces nouveaux modèles de quantification du risque fournissent ainsi des
estimations a priori des dommages potentiels (calcul des dommages physiques

144
et des pertes économiques).100 Ces modèles ont connu un essor important au
cours des années 90, en particulier en proposant aux compagnies d’assurances
des mesures de l’exposition de leur portefeuille face à de tels aléas. Ce marché
de la quantification des risques catastrophiques est aujourd’hui dominé par trois
firmes leaders, AIR, EQECat et RMS.

Au cours de l’année qui a suivi les attentats du 11 septembre, ces trois


firmes ont développé de nouveaux modèles pour quantifier le risque terroriste.
Néanmoins, ces nouveaux instruments restent d’utilité limitée.

En effet, alors que les méthodes traditionnelles de quantification reposent


sur des critères objectifs d’évaluation du risque, l’évaluation de la probabilité –
au sens mathématique– d’une attaque terroriste est beaucoup plus complexe, le
plus souvent impossible. Le manque de données disponibles et l’incertitude
dynamique font du recours aux experts la seule manière d’intégrer le facteur
vraisemblance dans ces modèles de quantification.

Néanmoins, ce recours aux experts a aussi de réelles limites. Chaque expert


tend en effet à être spécialisé sur un domaine particulier, un groupe terroriste
particulier ou un type d’arme spécifique. Les travaux pionniers de Linstone et
Turoff dans les années 70 ont montré que cela pouvait aboutir à une « illusion
d’expertise » : chaque expert ne se prononçant qu’à travers son spectre de
connaissance, par définition biaisé par rapport à l’ensemble, chacun peut avoir
raison dans son domaine; mais, dans l’ensemble, cela donne de mauvaises
recommandations (Linstone et Turoff, 1975).

Un autre biais du seul recours aux experts est bien connu. Leur jugement est
très sensible à l’actualité récente. Par exemple, après les attentats du 11

100
Voir par exemple, Chiriou et Michel-Kerjan (2003) ; voir aussi chapitre 4.
145
septembre, la tendance était de se focaliser sur la possibilité de nouvelles attaques
utilisant des avions de ligne privés, sous estimant certainement le potentiel
d’attentats d’autre nature. Inversement, si plusieurs chefs de réseaux terroristes
sont arrêtés par les autorités gouvernementales, la tendance pourrait être au sur-
optimisme, sous-estimant la volonté d’autres groupes terroristes.

La première génération des modèles de quantification a vu le jour il y a deux


ans, et demeure essentiellement utilisée aux Etats-Unis. S’ils permettent
certainement une meilleure compréhension de l’exposition d’une entreprise
particulière ou d’une zone géographique, leur réelle limitation réside sûrement
dans leur incapacité à proposer une approche « probabiliste » du risque terroriste.
En d’autres termes, ces modèles peuvent être utiles pour déterminer les pertes
potentielles mais non les pertes espérées (il n’y a donc pas de « certitude
scientifique » au sens introduit dans le Chapitre 2), fondement des méthodes de
tarification de la couverture d’assurance.

Dans un tel contexte, il apparaît difficile de s’appuyer sur les fondements


traditionnels de l’assurance (calculs actuariels, primes indexées sur le risque
statistique encouru et sur les efforts de prévention de l’assuré, mise en place de
franchises également modulées, etc.). Mieux vaut mettre à profit des conceptions
fondées sur des schémas globaux de partage de risques qui s’appuient sur un haut
degré de mutualisation (chapitre 4).

6. PERCEPTION DU RISQUE

A plusieurs reprises dans ce rapport nous avons mis en avant l’importance


d’intégrer le facteur « perception du risque » dans l’analyse. Ce facteur est
essentiel quand des risques catastrophiques sont en jeu. La notion de perception
du risque intègre les éléments psychologiques et émotionnels, dont de

146
nombreuses études ont montré le rôle déterminant sur les modes d’action des
individus et des groupes. Les études menées par plusieurs des psychologues
parmi les plus reconnus ont en effet montré que les événements moins familiers,
perçus comme difficilement contrôlables dans leur ensemble et qui présentent un
potentiel de sinistre à grande échelle, sont perçus par le public comme plus
risqués. Les actes de terrorisme présentent de telles caractéristiques et sont donc
plus sujets que d’autres à l’attention des medias et du public.

De plus, très souvent, les personnes ont une réelle difficulté à intégrer de
manière effective dans leurs actions le facteur vraisemblance quand celle-ci est
particulièrement faible. Cela pose donc la question de la communication de telles
menaces avec le public (au sens large du terme). Pour cette raison, il est
important de mieux comprendre comment la perception du risque terroriste
influence les actions des personnes et des entreprises, par exemple dans leur
choix de couverture d’assurance.

A titre d’illustration, dans les mois qui suivirent les attentats du 11


septembre, un très grand nombre d’entreprises opérant aux États-Unis
(notamment dans le domaine de la construction) étaient concernées par la
possibilité d’être elles-mêmes victimes directes d’un attentat, mais ne pouvaitent
trouver de couverture d’assurance à un prix abordable (début 2002, pas moins de
45 États américains autorisaient les compagnies d’assurance à exclure le
terrorisme de leurs polices). Ces entreprises ont fait pression sur le
gouvernement américain pour qu’il s’associe avec le secteur privé de l’assurance
pour élaborer un programme de couverture d’assurance commerciale disponible
partout. Ce programme vit le jour avec la loi TRIA fin 2002 (voir section
suivante).

147
Néanmoins, trois années après ces attentats, et sans nouvelle attaque sur le
territoire américain, moins de la moitié seulement des entreprises ont acheté une
assurance contre le terrorisme. Une étude nationale publiée en 2003 par le
Council of Insurance Brookers and Agents américain montrait ainsi que 90% des
brokers interrogés disaient que leurs clients n’avaient pas acheté d’assurance
terroriste pour la simple raison qu’ils n’en n’avaient pas besoin, ne pensant pas
être une cible potentielle. (CIAB, 2003). Une autre étude, focalisée uniquement
sur New York, et réalisée à l’automne 2003, deux ans seulement après le 11
septembre, révélait que seules 36% des firmes interrogées avaient acheté une
assurance terroriste; 66% des firmes non couvertes donnaient la même raison de
ne pas se percevoir comme cible potentielle pour expliquer leur choix de non
couverture (Kaye, 2003).

La perception du risque joue aussi pleinement dans la manière dont le


public juge la capacité des membres du gouvernement à gérer avec efficacité la
menace terroriste.

7. LES ETATS, PORTEURS DE RISQUES DE TERRORISME

Ce dernier point renvoie à une caractéristique essentielle du risque


terroriste: les gouvernements, par leurs actions, sont des acteurs majeurs dans la
gestion du risque. Localement, l’État peut utiliser les informations dont il
dispose pour diminuer le niveau de vulnérabilité de lieux connus comme étant
des cibles potentielles ou avérées, et aussi réduire l’activité terroriste sur son
territoire (réduction des pertes potentielles) ; par exemple, en renforçant la
présence policière dans certains bâtiments ou les contrôles dans les aéroports.

Sur un plan international, la politique étrangère peut fortement alimenter ou


fortement limiter la volonté de certains groupes terroristes de frapper les intérêts

148
nationaux101. Le comportement de l’État affecte donc, au moins en partie, les
dangers d’occurrence des actes de terrorisme et le niveau des pertes associées.
Cela constitue un élément fondamental pour le choix d’un mécanisme de partage
de risque particulier. Dès lors, la question n’est pas de savoir si le gouvernement
doit intervenir dans les marchés d’assurance pour des raisons de défaillance de
marché, mais bien plus quel type de participation gouvernementale doit-on
concevoir et mettre en place, tenant compte des responsabilités du secteur public
que l’on vient de décrire.

En d’autres termes, la protection financière des victimes du terrorisme doit


être conçue comme un élément fondamental de la politique de sécurité nationale
d’un pays, et s’inscrire en complément de la lutte anti-terroriste, des
renforcements des mesures de sécurité et de la préparation du pays (simulations,
exercices). A ce titre, secteur public et sphère privée doivent travailler de concert
pour mettre en place des programmes de couvertures durables et adaptés à la
nature même du terrorisme comme risque catastrophique particulier. L’objet de
la section suivante est, précisément, de montrer comment différents pays ont
traité cette question. Si les systèmes nationaux varient sur plusieurs aspects, ils
sont tous fondés sur la création d’un partenariat entre le secteur public et la
sphère privée, reconnaissant dans cette démarche les limites de l’assurabilité du
risque terroriste par le seul marché.

101
Voir Lapan and Sandler (1988) et Lee (1988).

149
3EME PARTIE : ANALYSE INTERNATIONALE DES MECANISMES DE
COUVERTURE DU RISQUE: DES PARTENERIATS
PRIVE-PUBLIC

Dans cette section, nous présentons les mécanismes de couverture


commerciale contre le terrorisme mis en place dans cinq pays différents. Nous
donnons d’abord une description succincte des programmes en place en
Espagne, Angleterre et aux États-Unis, puis nous focalisons notre analyse sur la
France et l’Allemagne102.

La France et l'Allemagne sont deux marchés intéressants car ces deux pays
européens ont mis en place des nouveaux programmes de couverture
commerciale contre le terrorisme qui reposent toux deux sur la création de pools
d’assurance ou de réassurance couverts par le gouvernement du pays, et établis
en réponse aux événements de septembre 2001 aux États-Unis. Mais alors que
l'assurance terroriste est obligatoire en France, elle ne l'est pas en Allemagne.
Deux ans après la création du pool allemand, la continuité de son activité au delà
de 2006 reste incertaine du fait d'une demande d'assurance trop basse.

1. L’ASSURANCE COMMERCIALE TERRORISTE EN ESPAGNE (CONSORCIO)

Le Consorcio de Compensación de Seguros, organisme public, fut établi en


1954 et constitue donc le plus ancien programme d’assurance contre le
terrorisme en Europe. Il s’agit d’un programme gouvernemental couvrant contre
les risques dits “extraordinaires”, et pour lesquels la couverture d’assurance est
obligatoire en Espagne, parmi lesquels les catastrophes naturelles, les
phénomènes socio-politiques et le terrorisme Toute entreprise opérant en

102
Cette section prend appuie sur plusieurs travaux en cours, en particulier Michel-Kerjan et Pedell (2004).

150
Espagne est donc assurée contre l'ensemble de ces risques et le terrorisme n’y est
donc pas couvert de manière distincte. Cette couverture spéciale est gérée par les
assureurs privés, eux-mêmes réassurés entièrement par le Consorcio.

Comme en France et en Allemagne (voir plus bas), le prix de la couverture


par le Consorcio dépend uniquement des sommes assurées et non de la
localisation du risque (illustrant la difficulté intrinsèque à quantifier la
probabilité de survenance de tels événements, et donc à déterminer le prix du
risque).

Suite aux attentats du 11 mars 2004, le programme espagnol a remboursé


l’ensemble des pertes, à l’exception des assurances vie et des dommages aux
trains (propriété de l’État espagnol, son propre assureur).

2. L’ASSURANCE COMMERCIALE TERRORISTE AU ROYAUME-UNI

(POOL RE)

Le système anglais constitue le premier pool privé de co-réassurance contre


le terrorisme à avoir été créé en Europe, et cela bien avant les événements du 11
septembre 2001. En effet, suite aux attentats à la bombe à Londres en avril
1993, les assureurs anglais ont annoncé qu'ils excluraient le terrorisme de leurs
couvertures commerciales. Des discussions entre les représentants de l'industrie
de l'assurance et le gouvernement conduisirent à la création du Pool Re, un pool
d'assureurs (220 membres) agissant comme réassureur et couvert par le
gouvernement. La couverture par le pool n'est pas obligatoire.

A l'origine, le programme était configuré pour couvrir contre les pertes


matérielles résultant des attentats politiques, en particulier ceux perpétrés par
l'IRA. L'ampleur des attaques de 2001 contre les États-Unis a conduit les
151
assureurs et le gouvernement à étendre la couverture terroriste à une plus large
gamme de polices d'assurance. Ces changements ont pris effet au 1er janvier
2003. La couverture de Pool Re inclut maintenant une protection contre les
attaques chimiques, biologiques et la contamination nucléaire. La prime de
réassurance par Pool Re est calculée en fonction des sommes assurées en
couverture incendie. Mais contrairement au système français (voir plus bas), le
prix de la couverture –un pourcentage des sommes assurées– dépend de la
localisation du risque (4 zones différentes ont ainsi été définies sur l’ensemble
du pays), avec une prime maximum de 0,06% des sommes assurées pour le
centre ville de Londres.

3. L’ASSURANCE COMMERCIALE TERRORISTE AUX ETATS-UNIS (TRIA)

Comme nous l'avons souligné, avant les événements de 2001, le terrorisme


était inclus dans la plupart des polices d'assurance commerciale aux États-Unis.
Après ces attentats, la très grande majorité des assureurs ont décidé d'exclure le
terrorisme de leurs polices. Notons que contrairement à la législation française
(voir plus bas), la couverture dommages-responsabilité aux États-Unis n'inclut
pas automatiquement une couverture contre le terrorisme. De ce fait, il a été
possible aux assureurs américains d’exclure le risque terrorisme, tout en
poursuivant leur activité dommages-responsabilité.

Situation paradoxale, le 12 septembre 2002, un an après la tragédie, les


entreprises opérant aux États-Unis faisaient face à une offre de couverture
extrêmement réduite, et très coûteuse, et la plupart d'entre elles restaient non
couvertes. Si une autre attaque de l’échelle du 11 septembre avait été perpétrée à
cette époque, elle aurait certainement eu un impact économique bien plus
important qu’en 2001, puisque les pertes n’auraient pas été diversifiées sur le

152
marché mondial de l’assurance et de la réassurance, mais supportées par les
entreprises touchées.

Cette situation fut largement dénoncée, et conduisit à l’adoption d’une


nouvelle loi, le Terrorism Risk Insurance Act of 2002 (TRIA), qui établit un
système de partage de risques entre l'État fédéral, les assurés et les assureurs, et
qui fut votée par le Congrès américain le 26 novembre 2002. Le système mis en
place est un mécanisme d'assurance –les réassureurs n'y participent pas– établi
pour trois ans.

Le système TRIA est de fonctionnement assez complexe, il ne s'agit donc


pas ici de le décrire de manière exhaustive (pour une analyse avancée du
système, voir Michel-Kerjan et Pedell, 2005; Kunreuther et Michel-Kerjan, à
paraître). TRIA rend l'offre d'assurance terroriste obligatoire, mais n'oblige pas
les entreprises a être couvertes. En d'autres termes, tout assureur doit proposer
une couverture terroriste à son assuré, qui peut décider de l'acheter ou non.
Contrairement aux systèmes européens où le prix de la couverture par les pools
est fixé sur une échelle nationale connue de tous, les assureurs américains sont
libres de fixer le prix de la couverture (dans les limites des régulations des
marchés d'assurance fixées dans chacun des 50 Etats).

Sous TRIA, l'attentat doit être certifié comme "acte de terrorisme" par le
ministre des Finances, entre autres. La définition retenue requiert que l'attentat
soit perpétré par des intérêts étrangers; un attentat comme celui d'Oklahoma City
ne serait donc pas couvert par TRIA car considéré comme un attentat
"domestique".

Contrairement aux systèmes anglais, français et allemand, aucun


mécanisme de mutualisation des risques parmi les assureurs n'a été mis en place
153
aux États-Unis, si bien que les assureurs sont directement responsables des
pertes de leurs assurés. Plus précisément, au-delà d'une certaine franchise
imposée à l'assureur, celui-ci est responsable de 10% des pertes subies par son
assurée. Cette franchise est définie comme pourcentage des primes nettes
collectées par l'assureur au cours de l'année précédente. Ce pourcentage est fixé
à 10% en 2004 et 15% en 2005. Au-delà, l'État fédéral américain s'engage,
gratuitement, à couvrir 90% des montants de pertes assurées (l'équivalent d'une
réassurance gratuite en excédent de perte annuelle).

Notons que l'État peut demander à être remboursé d'une partie de son
paiement ex post, par un rappel extraordinaire de cotisations sur l'ensemble des
assurés, qu'ils soient ou non couverts contre le terrorisme. Cette clause assez
particulière ("recoupment process") s'opère comme suit : pour le montant de
remboursement fédéral compris entre les remboursements par les assureurs et un
plafond de rétention de marché (12,5 milliards de dollars en 2004 et 15 milliards
en 2005), l'État fédéral peut imposer une surcharge sur l'ensemble des polices
d'assurance. Ce faisant, TRIA introduit une part de solidarité nationale dans le
mécanisme.

Le vote du TRIA était sensé permettre à toutes les entreprises de disposer


d'une offre de couverture terroriste si elles le désiraient. Mais alors que
l'assurance terroriste est maintenant disponible partout, la demande demeure
limitée. En effet, les données les plus récentes sur le marché américain montrent
que même si la demande a augmenté entre 2003 et 2004, moins de la moitié des
entreprises américaines avaient acheté une couverture terroriste a l’automne
2004 (43%; Marsh 2004), la plupart d'entres elles estiment n'être pas victimes
potentielles (nous avons discuté cet aspect de perception du risque dans la
section II) ou bien que la couverture TRIA n’est que trop partielle au regard des
scénarios d'attaques possibles.
154
Qu'en est-il de l'avenir de TRIA? Le système a été mis en place pour une
durée de trois ans, et s'achèvera fin 2005 sauf à ce qu'il soit renouvelé. Or, à ce
jour, il n'est pas certain que l'État fédéral reconduira son partenariat avec
l'industrie de l'assurance au-delà de 2005. Si tel n'est pas le cas, celle-ci devrait
proposer des solutions alternatives. Pour certaines industries, la création de
captives ou de pools industriels spécifiques pourrait voir le jour.

D'autres plaident pour un transfert plus marqué du risque vers les marchés
financiers. Il n'est pas certain, cependant, que le risque terroriste présente les
caractéristiques propres à l'établissement d'un large marché de catastrophe bonds
ou d'options sur indices (voir le chapitre 4 pour une définition des concepts sous-
jacents). D'ailleurs, à ce jour, seules deux obligations catastrophes (cat bonds)
ont été émises sur les marchés financiers et aucune des deux ne couvre
exclusivement contre le terrorisme (voir encadré plus bas) (Kunreuther et
Michel-Kerjan, 2004).

La création d'un pool national de co-réassurance, inspiré des expériences


européennes est l'une des solutions actuellement à l'étude, et nous semble plus
prometteuse compte tenu de la nature du risque terroriste et des caractéristiques
des marchés d’assurance américains.

155
« Catastrophe Bonds » et Terrorisme : Une niche encore très limitée

La première obligation indexée sur catastrophe (« catastrophe bonds » ou


« cat bonds ») pour couvrir contre le terrorisme a été mise place sur les marchés
financiers en août 2003. La FIFA, qui organisera la 18ème Coupe du monde de
football en 2006 en Allemagne cherchait en effet à se protéger contre les pertes
économiques qui résulteraient de l’annulation de la finale du championnat. La FIFA a
donc établi un cat bond (Golden Goal Finance Ltd), selon un mode spécifique et des
aspects contractuels particuliers, couvrant à hauteur de 262 millions de dollars son
investissement. Notons que le contrat stipule que la FIFA peut rejouer le match final
en 2007 au besoin ; le bond ne la couvrant que si cela s’avère impossible. De plus, le
gouvernement allemand a déjà garanti un niveau de sécurité exceptionnel ; ce qui
contribue à rendre la vraisemblances d’un tel événement bien plus faible encore.

Cette couverture financière n’est néanmoins pas spécifique à un acte de


terrorisme car c‘est pour l’ensemble des catastrophe sd’origine naturelle, terroriste,
ou autres, que la FIFA est couverte (U.S. General Accounting Office, 2003).

Le second catastrophe bond (Vita Capital) a été mis en place en décembre


2003 par Swiss Re pour transférer sur les marchés financiers 400 millions
d’exposition au risque de mortalité en excédent de pertes (assurance vie ; Swiss Re est
le premier réassureur vie au monde). La « mortalité » dans ce cas est mesurée en
comparaison d’un index spécifique défini en fonction de l’exposition en 2002 du
réassureur dans plusieurs pays (États-Unis, France, Angleterre, Italie, Suisse) et
pondéré en fonction de l’âge, du pays et du sexe.

Si l’indice pondéré de mortalité dans ce groupe de pays dépasse de 30% celui


de 2002, l’obligation sera alors exercée par le réassureur, qui se couvre ainsi contre
l’éventualité d’un tel scénario extrême. La couverture ne concerne donc pas
spécifiquement le risque terroriste, mais porte uniquement sur l’indice. Selon Woo
(2004), ce seuil (plus de 700 000 morts) pourrait être franchi, au cours d’une des trois
années couvertes par le transfert, uniquement dans le cas d’une combinaison d’une
épidémie majeure et d’une attaque terroriste de grande échelle utilisant des armes de
destruction massive.

Notons qu’aucun de ces instruments ne couvre contre le risque terroriste


uniquement, mais contre tout un ensemble de risques catastrophiques pouvant
survenir. Le recours aux bonds multi-risques apparaît ainsi comme une voie plus
prometteuse pour sécuriser ce risque, en l’incluant dans une couverture large de type
« parapluie », plutôt que de le singulariser (Kunreuther et Michel-Kerjan, 2004).

156
4. L’ASSURANCE COMMERCIALE TERRORISTE EN FRANCE (GAREAT)

4.1. Contexte
Dans le contexte français de la loi du 9 septembre 1986 qui oblige les
assureurs à inclure la couverture terroriste dans les polices dommages-
responsabilité, des discussions furent conduites à l'automne 2001 entre les
représentants des compagnies d'assurance et des mutuelles (FFSA et GEMA) et
la direction du Trésor. La France avait déjà subi plusieurs vagues d'attentats
mortels, et l'explosion de l'usine AZF de Toulouse, dans des circonstances qui
restaient indéterminées, a contribué à renforcer la crainte de nouveaux attentats
sur le territoire français. Un accord fut finalement signé le 10 décembre 2001,
établissant un programme d'assurance commerciale contre le terrorisme fondé
sur un partenariat public-privé : un pool de co-réassurance, le GAREAT
(Gestion de l'Assurance et de la RÉassurance contre les Attentats), garantit de
manière illimitée par l'État au delà d'un certain seuil. En créant le premier pool
d'assurance terroriste post-11 septembre dans le monde, la France a garanti la
continuité de l'offre de couverture aux entreprises.

4.2. Structure du partenariat


Le GAREAT, mis en place dès le 1er janvier 2002, est un pool de co-
réassurance. La couverture est organisée en 4 paliers de partage de risques, en
excédent de perte annuelle agrégée (Figure 3).

157
Pertes assurées
(Million Euros)

Couverture illimitée de
l’État
4eme tranche
10% des primes
CCR
2,000
REASSURANCE 3eme tranche
10% des primes
Réassureurs et Assureurs
1,650

2eme tranche
50% des primes
REASSURANCE Réassureurs et Assureurs

400
1ere tranche 30% des primes
RETENTION du POOL
Assureurs
0
Couverture en excèdent de pertes annuelles

Figure 3. Le pool de co-réassurance terroriste français, Gareat

Le pool a connu plusieurs changements au cours de ses trois premières


années d'existence. L'ensemble des éléments suivants est actualisé pour le mode
d'opération de l'année 2004. Le partage du risque se fait par tranches successives
d'exposition. Les assureurs peuvent transférer leur exposition terroriste au pool
qui agit donc comme un réassureur.

Une première tranche de 400 millions d'euros est prise en charge par des
assureurs au prorata du risque cédé au pool. Soixante-dix compagnies
d'assurance et mutuelles non-vie, membres de la FFSA et du GEMA dont la
participation est obligatoire, ainsi que trente-cinq autres volontaires constituent
cette première tranche. Une deuxième tranche est prise en charge par des
réassureurs et d'autres assureurs de grande taille. Ils sont responsables d'une
couverture de 1,25 milliards d'euros en excédent de pertes annuelles de 400
millions. La compagnie suisse de réassurance (Swiss Re; numéro deux mondial
de la réassurance après Munich Re) couvre la plus grande part de cette deuxième

158
tranche, en partenariat avec trente autres entreprises parmi lesquelles AGF, Axa,
Scor ainsi que Partner Re et Munich Re.

Comme indiqué dans la figure 3, une troisième tranche apporte une


couverture supplémentaire de 350 millions d'euros, prise en charge par plusieurs
grands réassureurs internationaux.

Ainsi, au total, l'industrie de l'assurance et de la réassurance couvre le risque


terrorisme en France à hauteur de 2 milliards d'euros. Au-delà (4ème et dernière
tranche du système), l'État prend en charge l'ensemble des remboursements
d'assurance qui résulteraient d'une attaque terroriste et utilise la Caisse Centrale
de Réassurance (CCR) à cet effet. Notons que cette garantie gouvernementale est
illimitée, ce qui constitue un élément fondamental dans une approche de partage
de risque. En effet, comme nous l'avons vu, le caractère extrême des pertes
potentielles liées à une attaque terroriste limite fondamentalement son
assurabilité. Dans le cas français, le risque est alors limité à deux milliards
d'euros, un montant gérable par l'industrie, a fortiori lorsque le risque est
diversifié entre un grand nombre de preneurs de risques, comme c'est le cas au
sein du Gareat.

Les primes collectées par les assureurs sont transférées au Gareat et


partagées de la manière suivante : le pool conserve 30%, les participants de la
deuxième tranche conservent 50%, les réassureurs de la troisième tranche
conservent 10%. Finalement, le gouvernement reçoit 10% des primes pour sa
garantie illimitée.

4.3. Couverture terroriste


La couverture terroriste est obligatoire en France si bien que toute entreprise
est couverte contre une attaque terroriste sur le territoire français. L'assureur peut
159
alors se réassurer auprès du pool, à condition que le risque réponde aux critères
suivants : le risque doit être localisé en France et les sommes assurées doivent
être supérieures à 6 million d'euros (couverture en dommages-responsabilité
incendie). En d'autres termes, le pool ne couvre pas le risque de "faible" taille,
mais offre une mutualisation pour les risques de moyenne et grande taille.
Notons aussi que le pool couvre contre les attaques utilisant des armes de
destruction massives de type chimiques, biologiques, radiologiques et nucléaires
(cette couverture est très rare aux Etats-Unis par exemple).

Dans la section précédente, nous mettions en avant la difficulté à quantifier


le risque terroriste, et donc à établir un prix de couverture. Pour cette raison, et
aussi pour des raisons de commodité de gestion, le prix de la couverture
terroriste par le Gareat ne dépend que d'un seul élément : les sommes assurées.
Comme celles-ci sont les mêmes en couverture terroriste que pour la couverture
de base incendie, il est très facile de calculer le prix de l'assurance terroriste en
France. La règle est la suivante :

- pour les sommes assurées comprises entre 6 et 20 millions d'euros, la


prime est égale à 6% de la prime commerciale de base en dommages-
responsabilité;
- pour les sommes assurées comprises entre 20 et 50 millions d'euros,
la prime est égale à 12% de la prime commerciale de base;
- pour les sommes assurées entre 50 et 750 millions d'euros, la prime
est égale à 18% de la prime commerciale de base.

Notons aussi que pour certains risques dits "spéciaux" (sommes assurées
supérieures à 750 millions d'euros, captives) la prime est définie au cas par cas.

160
Le prix de l'assurance contre le terrorisme ne dépend donc pas, en France,
de la localisation du risque. Ainsi, un assureur couvrant une usine chimique à
hauteur de 20 millions d'euros paiera la même prime de réassurance au Gareat
pour lui transférer ce risque, que l'usine se trouve au cœur du couloir de la
chimie dans la région lyonnaise (concentration d'activités pouvant constituer une
cible privilégiée) ou bien en rase campagne (a priori où le risque d'attaque est
moindre).

Ce faisant, le système subventionne les zones plus exposées par celles qui
ne le sont pas. Une telle approche, fondée sur l'idée de solidarité nationale
devant les catastrophes, n'a pas été suivie dans tous les pays. En particulier, cette
question fait actuellement l'objet de débats aux États-Unis (Kunreuther et
Michel-Kerjan, à paraître).

A titre global sur l'année 2004, on estime que le montant total des primes
perçues par le Gareat s'élève à 260 millions d'euros. Le prix de la couverture
terroriste, rapport entre la somme des primes collectées et le total des sommes
assurées, est estimé à 0,01% (i.e. 10 000 euros de primes pour 100 millions
d'euros assurés).

4.4. Demande d'assurance


L'assurance terroriste étant obligatoire en France, toutes les entreprises y
sont couvertes. Imposer une assurance obligatoire permet de limiter tout
phénomène de sélection adverse qui aboutirait à un marché très faible dans
lequels seuls les mauvais risques sont couverts. Nous discutons ce point plus bas
dans l'analyse du marché allemand qui, précisément, semble souffrir d'un tel
phénomène.

161
Notons cependant qu'il parait difficile de comparer le système de pool
Gareat avec assurance obligatoire avec ce que serait le marché français si cette
obligation d'assurance n'était pas en vigueur. En effet, le simple fait que le prix
de l'assurance terroriste ne dépende en rien ni du degré d'exposition au risque de
l'assuré (location, liens d'interdépendance, par exemple), ni de ses efforts de
prévention, n'incite guère à une meilleure connaissance des risques encourus par
les entreprises opérant en France. Un "voile d'ignorance" difficilement
compatible avec l'établissement d'un marché concurrentiel. Quand bien même
une entreprise démontrerait à son assureur qu'elle a investi dans des mesures de
sécurité avancées, ou même délocalisé ses opérations de manière à quitter les
grandes agglomérations potentiellement plus exposées, elle ne pourrait obtenir
de diminution de prime. Dans ce contexte, il n'est pas surprenant que les
principales firmes de modélisation telles aue AIR, EQECat et RMS n'aient pas
d'activités en France pur ce qui relève du risque terroriste. Or, sans une meilleure
connaissance de l'exposition et des menaces réelles (au moins en termes de
vraissemblance relative entre un grand nombre de scénarios d'attaque), toute
évaluation économique du système en place demeure impossible.

4.5. Un partenariat temporaire et reconductible


Initialement, le pool a été établi pour une période d'un an, de manière à
laisser aux assureurs le temps d'obtenir une meilleure visibilité sur leur
engagement t les moyens de développer des solutions adaptées à la nouvelle
menace posée par le terrorisme. Fin 2002, le partenariat entre le gouvernement et
la sphère privée a été reconduit pour une année supplémentaire. Fin 2003, après
deux années de fonctionnement qui ont donné satisfaction à l'ensemble des
parties prenantes, le partenariat a de nouveau été reconduit, cette fois pour trois
ans jusqu'à fin 2006.

162
Cette reconduction s'est accompagnée de plusieurs changements dans les
seuils de partage de risque. Au lancement du pool en 2002, le secteur privé
couvrait à hauteur d'un milliard d'euros et la CCR pouvait octroyer aux
assureurs et réassureurs des prêts à taux zéro remboursables sur dix ans dans
l'éventualité où les montants de remboursement excédaient le milliard d'euros
(500 millions d'euros en excès d'un milliard d'euros). Afin de limiter
l'engagement du gouvernement aux seuls cas d'attaques à grande échelle, le seuil
d'intervention gouvernemental a peu à peu été augmenté, pour atteindre 2
milliards d’euros en 2004. Ce faisant de nouveaux partenaires privés ont pu
prendre part au programme.

Trois ans après la création du Gareat, et sans attaque terroriste majeure sur
le territoire francais, les réserves accumulées devraient permettre au pool
d'augmenter son niveau de rétention dans un futur proche103.

5. L’ASSURANCE COMMERCIALE TERRORISTE EN ALLEMAGNE (EXTREMUS)

5.1. Contexte
Comme dans beaucoup d'autres pays, les assureurs allemands ont refusé fin
2001 de reconduire leur couverture terroriste au-delà de leurs contrats en cours.
En effet, contrairement à ce qui se passe en France, la loi allemande n'oblige pas
les assureurs à inclure la couverture terroriste dans les contrats de base. Il leur a
donc été possible de continuer à couvrir leurs assurés en dommages-
responsabilité tout en limitant considérablement leur couverture terroriste, voire
en l'excluant. Privés de capacité de réassurance, la plupart d'entre eux choisirent
cette dernière option.

103
Pour une analyse du système de couverture des victimes (assurance non-commerciale), voir le dernier
chapitre de Godard, Henry, Lagadec et Michel-Kerjan (2002) et SOS Attentats (2003).
163
Après plus de six mois de discussion entre les représentants de l'industrie de
l'assurance et le gouvernement fédéral allemand, un accord a été trouvé sur la
création d'un partenariat public-privé. Le partenariat est fondé sur la création
d'une nouvelle compagnie d'assurance couvrant uniquement le terrorisme,
Extremus, établie le 1er novembre 2002.

5.2. Structure du partenariat


Extremus a connu plusieurs changements au cours de ses deux premières
années d'existence. L'ensemble des éléments suivants est actualisé pour le mode
d'opération de l'année 2004. Le partage du risque se fait par tranches successives
d'exposition. Contrairement au fonctionnement du pool français comme
réassureur, les entreprises peuvent directement transférer leur exposition
terroriste à Extremus qui agit donc comme assureur direct. La couverture est
organisée en 3 paliers de partage de risques, en excédent de perte annuelle
agrégée (Figure 4).

Une première tranche de 1,5 milliards d'euros est couverte par Extremus.
Une seconde tranche de 500 millions est couverte par plusieurs assureurs et
réassureurs dont l'assureur américain Berkshire Hathaway (Warren Buffet). Le
secteur privé couvre donc le risque terroriste en Allemagne à hauteur de 2
milliards d'euros, comme en France. Au-delà, le gouvernement fédéral allemand
offre une garantie limitée de 8 milliards d'euros. Les primes sont reparties entre
les actionnaires d’Extremus et reversées pour partie aux tranches supérieures de
réassurance. A titre indicatif, en 2003, l’État fédéral allemand percevait 9% des
primes reçues par Extremus pour sa couverture en réassurance.

Notons qu'Extremus est responsable de l'ensemble des pertes assurées qui


résulteraient d'une attaque terroriste sur le territoire allemand. Il bénéficie d'une
réassurance privée et fédérale pour une exposition totale de 10 milliards d'euros.

164
D'après la loi allemande sur les entreprises, la responsabilité de la compagnie est
limitée à ces 10 milliards d'euros. Si une attaque de très grande échelle
occasionne des pertes assurées supérieures à ce plafond, Extremus sera obligé de
déclarer faillite et de nombreuses entreprises pourraient n'être pas remboursées
(risque de crédit).

P e rte s a ssu ré e s
(M illio n E u ro s)
C o u v e r tu r e lim ité e
1 0 ,0 0 0

COUVERTURE DE 3 e m e tra n c h e
L ’E T A T F E D E R A L G o u v e rn e m e n t fé d é ra l

2 ,0 0 0
REASSU RAN CE 2 e m e tra n c h e
M a jo rité d e R é a ssu reu rs In te rn atio n au x
1 ,5 0 0
C O -R E A S S U R A N C E 1 e re tra n c h e
EXTREM US A c tio n n aire s d ’E x tre m u s
0
C o u v e r tu r e e n e x c è d e n t d e p e r te s a n n u e lle s

Figure 4. Le pool d’assurance terroriste allemand, Extremus

5.5. Couverture terroriste


Contrairement au cas français, l'assurance des entreprises contre le
terrorisme n'est pas obligatoire en Allemagne. Il s'agit là d'une différence de fond
entre les deux approches. Les entreprises désireuses de se couvrir contre le
risque terroriste ne peuvent le faire que si les sommes assurées sont supérieures à
25 millions d'euros et pour des risques situés en Allemagne. Les risques
d'attaque CBRN sont exclus de la couverture. Il est impossible pour une
entreprise de ne couvrir qu'un risque (par exemple un seul bâtiment) ; elle doit
couvrir l'ensemble de ses activités.

Comme en France, le prix de la couverture est indépendant de la


localisation du risque, mais dépend de la valeur totale assurée par l'entreprise. De
165
plus, le prix varie en fonction du choix par l'assuré du montant maximal annuel
de remboursement au titre de la couverture terroriste. Ce montant maximum de
remboursement est limité à 1,5 milliards d'euros. En d'autres termes, une
entreprise dont la valeur totale assurée est 7,5 milliards d'euros ne peut, en fait,
se couvrir pour plus d'1,5 milliards, et reste donc non couverte pour 80% de son
exposition totale. Le choix d'un montant de remboursement plus faible, à valeur
assurée identique, permet d'obtenir des primes d'assurance plus faibles.

D'après les données obtenues de la direction d'Extremus, on peut citer les


exemples de prix suivant :
- Pour une valeur totale assurée (VTA) de 25 millions d'euros et un
choix de montant maximal de remboursement (MMR) de 25 millions,
la prime est fixée à 6 250 euros (0,025% de la VAT et 0,025% du
MMR) ;
- Pour une valeur totale assurée (VTA) de 75 millions d'euros et un
choix de montant maximal de remboursement de 25 millions, la
prime est fixée à 10 625 euros ;
- (soit 0,014%% de la VAT et 0,043% du MMR) ;
- Pour une valeur totale assurée (VTA) de 200 millions d'euros et un
choix de montant maximal de remboursement de 100 millions, la
prime est fixée à 84 038 euros ;
- (soit 0,042%% de la VAT et 0,084% du MMR).

Le total des primes perçues par Extremus pour l'année 2004 est estimé à 77
millions d'euros.

5.4. La demande d'assurance


Même si les systèmes de mutualisation retenus par la France et l'Allemagne
sont similaires en plusieurs points, le fait que l'assurance terroriste ne soit pas
166
obligatoire en Allemagne conduit à un marché radicalement différent. Les
données disponibles sur le marché allemand à l'été 2004 montraient ainsi un
niveau de demande très bas. D'après Extremus, seuls 1000 contrats étaient
couverts pour l'année 2004, pour un total de primes collectées de 77 millions
d'euros, une somme de VTA 365 de milliards de dollars et un engagement global
MMR de 74 milliards d'euros pour cette même année. Pour mettre ce chiffre du
millier de polices en perspective, on estime à 40,000 le nombre de polices
d'assurance pour lesquelles la VTA excède les 25 millions d'euros (seuil donnant
accès à la couverture Extremus). En d'autres termes, en moyenne, seules 2,5%
des polices admissibles à une couverture terroriste le sont effectivement (Michel-
Kerjan et Pedell, 2004). Même au sein des grandes entreprises, la demande reste
limitée. En 2004 toujours, seules 13 des 30 entreprises composant le DAX30
allemand (l'équivalent du CAC40 français) avaient acheté une couverture
terroriste. (Frankfurter Allgemeine Zeitung, 2003). Ce niveau de demande
extrêmement bas est d'autant plus surprenant après les événements de Hambourg
fin décembre 2003 et ceux de Madrid en mars 2004.

Plusieurs éléments ont pu contribuer à ce manque d'intérêt des entreprises


allemandes à se couvrir contre une attaque terroriste. D'abord Extremus couvre
uniquement les risques situés en Allemagne. Cela exclut donc la couverture des
filiales de groupes internationaux dont l'activité serait touchée si une attaque
survenait au siège de la compagnie en Allemagne (interdépendance). Ensuite, les
risques d'attaques chimiques, biologiques et nucléaires ne sont pas couverts. Or,
il s'agit sans doute ici du risque perçu comme le plus important pour une
compagnie. En effet, non seulement une telle attaque aurait des conséquences
directes catastrophiques mais surtout les effets seraient durables, conduisant à
des interruptions d'activités prolongées. Enfin, comme dans le système français,
une entreprise ayant lourdement investi dans des mesures de protection n'obtient

167
pas un meilleur tarif d'assurance qu'une autre entreprise n'ayant pas investi de la
sorte.

Dans un tel contexte de faible couverture, si une attaque terroriste de grande


échelle survenait demain en Allemagne, la plupart des entreprises, non
couvertes, devraient assumer seules les conséquences financières de la
catastrophe. A moins que l'État fédéral intervienne pour leurs venir en aide,
plusieurs d'entre elles devraient certainement déclarer faillite, avec des
conséquences économiques et sociales importantes pour le pays.

Afin de rendre son offre de couverture plus attractive à un plus grand


nombre d'entreprises, Extremus étudie actuellement plusieurs changements. Une
des modifications à l'étude parait des plus innovantes. Il s'agirait de proposer une
couverture duale, à la fois contre une attaque en Allemagne et pour couvrir les
pertes d'activités résultant d'une attaque contre une branche de la compagnie
située dans un autre pays de l'Union européenne. En d'autres termes, il s'agirait
d'intégrer, au moins partiellement, le caractère international des activités
économiques et des chaînes d’approvisionnement et de vente.

A titre d'exemple, imaginons une entreprise allemande d'électronique dont


le siège est à Berlin et qui dispose de chaînes d'assemblage dans la région
parisienne. Si une attaque terroriste survenait contre cette filiale en France, celle-
ci serait couverte par le système français Gareat, et les pertes économiques liées
à l'interruption d'activités occasionnée par la rupture de la chaîne
d'approvisionnement à Berlin seraient alors couvertes par Extremus.

Si cette modification était effectivement mise en place et conduisait à une


augmentation significative de la demande de couverture en Allemagne, elle
ouvrirait certainement la voie à d'autres types de combinaisons de couvertures
168
dans plusieurs autres pays de l'Union. En effet, à ce jour, la question de la
couverture financière des conséquences d'actes de terrorisme relève d’une
approche purement nationale, sans reconnaissance concrète par les marchés
d'assurance et les gouvernements du caractère transnational des activités
économiques, et du terrorisme.

5.5. Un partenariat temporaire


Le partenariat entre Extremus et l'État fédéral a été établi pour une durée de
trois ans, et se termine donc fin 2005. Or le ministre allemand des Finances a
indiqué récemment que la couverture gouvernementale pourrait être retirée en
2006 si le niveau de demande demeure toujours aussi faible dans le pays. Il est
donc capital pour Extremus de pouvoir collecter un niveau de primes suffisant
pour lui assurer une certaine autonomie si la couverture fédérale devait venir à
échéance fin décembre 2005. A ce jour, l'avenir du marché de l'assurance
terroriste en Allemagne n'est pas certain.

4EME PARTIE : CONCLUSION

L’étude de la question terroriste offre un éclairage spécifique. En effet, ce


risque est reconnu aujourd’hui comme se situant à l’extrême limite de
l’assurabilité des risques de catastrophes ponctuelles par les seuls marchés
d’assurances et de réassurances privés. Elle l’est tout particulièrement face à un
terrorisme dont on sait aujourd’hui qu’il peut frapper à une toute autre échelle,
comme –voire au delà– d’autres événements tels que les catastrophes naturelles,
les accidents industriels majeurs ou encore les épidémies.

Volontairement, ce rapport se focalise sur la question de l’assurabilité.


Gardons à l’esprit que celle-ci est partie intégrante d’une mosaïque sociale,

169
économique et politique complexe de gestion de risques. En cela, la question de
l’allocation de ressources (publiques et privées), par définition limitées, est
essentielle : quelle part réserver à l’accroissement des connaissances sur le risque
en question ? A l’élaboration de mesures de prévention adéquates ? A la
préparation collective face à ce type d’événements extrêmes104 ? A leur
couverture financière ?

Pour un plus grand nombre de personnes et d’entreprises, la globalisation


croissante des activités permet un accès facilité aux biens essentiels. Mais cette
globalisation signifie aussi une plus grande interdépendance des risques, entre
industries, entre pays ; une globalisation des vulnérabilités en d’autres termes,
puisque la propagation du sinistre aura dès lors des conséquences quasi-
immédiates sur un très grand nombre d’acteurs.

Ce qui surprend aujourd’hui, c’est l’échelle à laquelle il convient de


repenser les mécanismes de gestion de risques pour être en adéquation avec une
telle évolution. Il faut aussi accepter de gérer avec des niveaux d’incertitude non
réductible. Nous sommes passés d’une approche locale à un impératif de vision
internationale, en univers de forte incertitude et d’interdépendance croissante.
Plus que tout, sans doute est-ce là une caractéristique fondamentale de ce qu’il
convient aujourd’hui d’appeler les « nouveaux risques »105.

104
Par exemple, il a été beaucoup dit que Rudolf Guliani, le maire de la ville de New York lors des attentats du
11 septembre 2001, avait mené une gestion de crise particulièrement efficace. Ce que l’on sait moins, c’est qu’au
cours de son mandat, le maire participait, tous les mois, à un exercice de crise avec ses équipes. Un exercice de
grande ampleur simulant une attaque chimique sur la ville avait notamment été organisé en juillet 2001. Après
cet exercice, il était prévu de le pratiquer de nouveau pour mesurer l’amélioration dans la préparation effective de
l’ensemble des équipes. La date prévue pour ce nouvel exercice de grande échelle avait été fixée : le 12
septembre 2001. Il serait intéressant de savoir combien de maires de grandes capitales européennes ont participé
au cours de l’année écoulée à des exercices de gestion de crise non conventionnels, en partenariat avec un grand
nombre d’acteurs susceptibles d’être mobilisés en cas d’événement majeur. Une bonne gestion de crise ne
s’improvise pas, mais se prépare.
105
Godard et al. (2002). D’un point de vue scientifique, ces risques posent donc des problèmes essentiels car le
recours traditionnel aux outils actuariels est, au mieux, très contestable. Aussi, malgré la survenance d’un nombre
croissant de catastrophes particulièrement dévastatrices sur des périodes de temps de plus en plus rapprochées,
l’expertise sur ces sujets reste paradoxalement très limitée, et par trop souvent focalisée sur un sous aspect très
restreint de la question.
170
L’industrie de l’assurance et de la réassurance n’échappe pas à cette
évolution. Parce qu’elle a été historiquement diversifiée au niveau mondial, elle
a peut-être eu plus de facilité à prendre conscience de ce changement radical, et à
opérer en conséquence des modifications de fond de ses activités. Les
événements du 11 septembre 2001 lui ont néanmoins rappelé combien
l’assurance « exige beaucoup de prudence de la part de ceux qui s’y adonnent.
[…] et de ne pas perdre de vue les cas insolites et extraordinaires » (Emerigon,
1827).

En mai 2002, les ministres des 30 pays membres de l’Organisation pour la


Coopération et le Développement Économique (OCDE) adressaient un mandat
spécifique à l’OCDE pour analyser la question de l’assurance des risques
catastrophiques, et celle de l’assurance du méga-terrorisme en particulier (OECD
Task Force on Terrorism Insurance)106.
Dans le cadre de ces travaux, une conférence internationale regroupant les
membres de la Task Force et plus d’une centaine de spécialistes (gouvernements,
entreprises, organismes de recherches) s’est tenue les 22 et 23 novembre 2004 au
siège de l’Organisation à Paris. Elle a notamment souligné plusieurs des
éléments introduits dans ce chapitre, et plus largement dans l’ensemble du
rapport : émergence d’un spectre plus large de risques à grande échelle, limite du
recours aux outils actuariels traditionnels pour quantifier le risque, limite de la
couverture de ces risques par les seuls marchés d’assurance et de réassurance,
nécessité d’études plus nombreuses sur ces questions d’intérêt national et

106
Le mandat stipulait notamment « Nous reconnaissons les effets préjudiciables de la réduction des
possibilités de couverture du risque terroriste à des conditions abordables. Nous accueillerions favorablement des
analyses et recommandations de l'OCDE concernant la définition et la couverture du risque terroriste ainsi que
l'évaluation des rôles respectifs du secteur des assurances, des marchés de capitaux et des pouvoirs publics,
notamment pour la garantie du risque d'hyper-terrorisme. » Erwann Michel-Kerjan sert comme l’un des 5
experts internationaux auprès de cette Task Force.
171
international afin d’être en meilleure posture pour développer de nouveaux
mécanismes de couverture faisant interagir secteur privé et gouvernements.

Comme l’illustre le cas du risque du méga-terrorisme, l’État a une


responsabilité majeure à assumer comme garant de la continuité économique et
sociale du pays face aux nouveaux « risques à grande échelle » auquels est
associé un niveau d’incertitude –voire d’ignorance– important. Dès lors, il ne
s’agit plus de penser son rôle uniquement en termes d’intervention
gouvernementale pour pallier des défaillances de marchés, mais bien plus
d’ouvrir systématiquement la voie à une nouvelle démarche de politiques
économiques : la création d’initiatives collectives fondées sur des partenariats
entre sphère privée et secteur public, et combinant les éléments catalyseurs de
chacun d’eux.

Voici un domaine d’application, combien légitime, dans une perspective


d’« État stratège ».

172
REFERENCES

Académie des Sciences (2001), Communication mobile – Effets biologiques, Editions


Technique et Documentation, Paris.

Allais, M. (1953), « Le comportement de l’homme rationnel devant le risque, critique des


postulats et axiomes de l’école américaine », Econometrica, 21 : 503-546.

Allais, M. (1987), « Allais paradox », The New Palgrave, a dictionary of economics, The
Macmillan Press, London, 80-82.

Arrow, K. (1971), Essays in the theory of risk-bearing , Markham, Chicago.

Arrow, K. and A.C. Fisher (1974), « Environmental preservation, uncertainty and


irreversibility » Quarterly Journal of Economics, 88 : 312-319.

Assemblée Nationale, Rapport de la commission d’enquête sur la sûreté des installations


industrielles et des centres de recherche et sur la protection des personnes et de
l’environnement en cas d’accident industriel majeur, n°3559, Janvier 2002.

Beck, U. (2003), La société du risque: sur la voie d’une autre modernité, Champs
Flammarion.

Black, F. and M. Scholes (1973), « The pricing of options and corporate liabilities »,
Journal of Political Economy, 81 : 637-659.

Boin, A., P. Lagadec, E. Michel-Kerjan and W. Overdijk (2003), “Critical Networks


under Threat : Learning from the Anthrax Scare”, Journal of Contingencies and Crisis
Management, 11: 132-141.

Borch, K. (1968), The economics of uncertainty, Princeton University Press.

Cabantou, L. (2003), « Comment les assureurs réagissent-ils à l’ambiguïté des


probabilités et aux conflits d’expert », Risques.

Chemarin, S. (2003), Mutualisation et risques catastrophiques; pour une nouvelle


approche de la gestion des risques, mémoire de DEA.

Chemarin, S. (2004), Mutualisation et incertitude: une dialectique entre assurabilité des


risques et outils d’assurance, Groupe de travail « Risque, Responsabilité et Assurance »,
Iddri.

Chiriou et Michel-Kerjan, E. (2003), Gestion du risque de tremblements de terre en


France : pertinence des modèles d’estimation des dommages, présenté au colloque
international de Séismologie organisé par l’École Polytechnique, juillet 2003.

Commissariat Général au Plan (2003), La décision publique face au risque, Rapport du


séminaire Risques, La Documentation Française.

173
Council of Insurance Agents and Brokers. (2003), “Commercial Market Index Survey.”
News Release, July 22.

Debreu, G. (1964), « Continuity properties of Paretian utility », International Economic


Review, 5 : 285-293

Dixit, A.K. and R.S. Pindyck (1994), Investment under uncertainty, Princeton University
Press

Ellsberg, D. (1963), « Risk, ambiguity and the Savage axioms », Quarterly Journal of
Economics, 75 : 643-669.

Emerigon, B. (1827), Traité des assurances. Frankfurter Allgemeine Zeitung (2004),


March 25, p. 19.

Essig, P. (2001), Débat national sur les risques industriels, Ministère de l’écologie et du
développement durable.

European Environment Agency (2001), Late lessons from early warnings : the
precautionary principle 1896-2000, Environmental issue report n° 22, EEA, Copenhagen.

European Environmental Agency (2003), Mapping the impacts of recent natural disasters
and technological accidents in Europe, Environmental issue report, n°35.

Fama, E. and M. Jensens (1983), « Separation of ownership and control », Journal of


law and economics, 26: 301-325.

Gajdos, T., J.M. Tallon and J.C. Vergnaud (2004), « Decision making with imprecise
probabilistic information », Journal of Mathematical Economics, 40 : 647-681.

Ghirardato, P., F. Maccheroni and M. Marinacci (2002), Ambiguity from the


differential viewpoint, Working Paper n° 17/2002, ICER, Università di Torino.

Gilboa, I. and D. Schmeidler (1989), « Maximum expected utility with non unique
prior », Journal of Mathematical Economics, 18 : 141-153.

Godard, O. (1997), Le principe de précaution dans la conduite des affaires humaines,


MSH Paris et INRA.

Godard, O. C. Henry, P. Lagadec et E. Michel-Kerjan (2002), Traité des nouveaux


risques. Gallimard, (Folio-Actuel), Paris.

Godard, O., Henry C., Lagadec et Erwann M-K, Traité des nouveaux risques.
Précaution, Crise, Assurance, Editions Gallimard, Collection Folio, n°100, Paris.

Gollier, C. (2001), The economics of risk and time, The MIT Press, Cambridge (Mass).

Guesnerie, R. (2003), Kyoto et l’économie de l’effet de serre, Rapport du Conseil


d’Analyse Economique n° 39, La Documentation française, Paris.

174
Hartwig, R. (2002), “September 11, 2001: The First Year. One Hundred Minutes of
Terror that Changed the Global Insurance Industry Forever.” Insurance Information Institute,
New York.

Hartwig, R. (2004), “The Fate of TRIA: Is Terrorism an Insurable Risk?” Insurance


Information Institute, New York.

Henriet, D. et JC. Rochet (1986), « La logique des systèmes bonus-malus en assurance


automobile : une approche théorique », Annales d’Economie et de Statistiques 133- 152;

Henry, C. (1974), « Investment decisions under uncertainty : the irreversibility effect »,


The American Economic Review, 64 : 1006-1012.

Henry, C. (1974), « Option values in the economics of irreplaceable assets », The Review
of Economic Studies, Symposium : 89-104.
Henry, C. (1981), « Critères simples pour la prise en compte du risque », Econometrica,
49 : 153-170.

Henry, C. et M. Henry (2002), « Indétermination scientifique et principe de précaution »,


Risques, 49 : 99-104.

Hoffman, B. (1997), “The Confluence of International and Domestic Trends in


Terrorism.” Terrorism and Political Violence, 9: 1-15.

Hoffman, B. (1998), Inside Terrorism.: Columbia University Press, New York

Inspection générale des Affaires Sociales, Inspection Générale des Finances (2004),
Conclusion du rapport d’enquête sur l’Assurance Responsabilité Civile Médicale.

Kahneman, D., P. Slovic and A. Tversky (1982), Judgment under uncertainty: heuristics
and biases, Cambridge University Press, New York.

Kaye Insurance Associates. (2003), Middle Market Survey, New York.

Keynes, J.M. (1921), A treatise on probability, The Macmillan Press, Londres.

Knight, F. (1921), Risk, uncertainty and profit, Kelley, New-York.

Kreps, D.M. (1990), A course in microeconomic theory, Harvester Wheatsheaf, Hemel


Hempstead (Hertfordshire).

Kuhn, T.S. (1972), La structure des révolutions scientifiques, Nouvelle Bibliothèque


Scientifique, Flammarion, Paris.

Kunreuther, H. (2001), Risk Analysis and Risk Management in an Uncertain World,


Society for Risk Analysis Annual Meeting Seattle, Washington.

Kunreuther, H. and E. Michel-Kerjan (2004), ‘PolicyWatch: Challenges for Terrorism


Risk Insurance in the United States’, Journal of Economic Perspectives, 18 : 201-214.

175
Kunreuther, H. and E. Michel-Kerjan (2004), Dealing with extreme events: new
challenges for terrorism risk coverage in the US; Working Paper, The Wharton School, Risk
Management and Decision Process.

Kunreuther, H. and E. Michel-Kerjan (forthcoming), Insurability of (Mega)-Terrorism,


Challenges and Perspectives, Report for the OECD Task Force on Terrorism Insurance
Organization for Economic Cooperation and Development, Paris.

Kunreuther, H., E. Michel-Kerjan et B. Porter (2003), Assessing, Managing and


Financing Extreme Events: Dealing with Terrorism, US National Bureau of Economic
Research, Working Paper, Cambridge, MA: NBER.

Kunreuther, H., J. Meszaros, R. Hogarth and M. Spranca (1995), “Ambiguity and


underwriter decision processes”, Journal of Economic Behaviour and Organization, vol. 26,
pp. 337-352.

Laffont, J.-J. and J. Tirole (1993), A theory of incentives in procurement and regulation,
The MIT Press, Cambridge (Mass).

Lagadec, P. (2002), Crises et Précaution, Séminaire Economie de l’environnement et du


développement durable, IDDRI.

Lapan, H. and T. Sandler (1988), “To Bargain or Not to Bargain: That is The Question”,
American Economic Review. 78: 16-20

Lee, D. (1988), “Free Riding and Paid Riding in the Fight Against Terrorism”. American
Economic Review. 78 : 22-26.

Lehmann, R. (2004), “Twin Towers Insured Loss Estimate Drops to Between $30 and
$35 Billion”, Bestwire, May 10.

Levy, P. (1937), Théorie de l'addition des variables aléatoires, Ecole polytechnique,


Paris.

Lord Phillips of Worth Matravers, J. Bridgeman, M. Ferguson-Smith (2000) : The


BSE Inquiry, House of Commons, HMSO, London.

Michel-Kerjan, E. (2003), « Terrorisme à grande échelle : Partage de risques et politiques


publiques », Revue d’Economie Politique, n°5 : 625-648.

Michel-Kerjan, E. (2003-a), “New Vulnerabilities in Critical Infrastructures: A U.S.


Perspective.” Journal of Contingencies and Crisis Management, 11 :132-141.
Michel-Kerjan, E. (2003-b), “.Terrorisme à grande échelle : partage de risques et
politiques publiques ”, Revue d’Economie Politique, 113 : 625-648.

Michel-Kerjan, E. and B. Pedell (2004), Terrorism risk coverage after 9/11 : a


comparaison of new public-private partnerships in France, Germany and the US, Working
paper, The Wharton School, Risk Management and Decision Process.

176
Michel-Kerjan, E. and B. Pedell (2005), “Terrorism Risk Coverage in the post 9/11-Era: A
Comparison of New Private-Public Partnerships in France, Germany and the U.S.”, à paraître
dans Geneva Papers on Risk and Insurance, January 2005.

OCDE (2003), Les risques émergents au 21ème siècle, Vers un programme d’action, Risk
Report.

Peköz, E. (2002), « Samuelson’s Fallacy of Large Numbers and Optional Stopping »,


Journal of Risk and Insurance, 69 : 1-7.

Pillar, P. (2001), Terrorism and U.S. Foreign Policy, Brookings Institution Press.
Washington, DC.

Pratt, J.W. (1964), « Risk aversion in the small and in the large » Econometrica, 32 :
122-136.

Rosenthal, I., P. Kleindorfer, H. Kunreuther, E. Michel-Kerjan et P. Schmeidler


(2004), Lessons learned from chemical accidents and incidents, OCDE Workshop.

Ross, S.A. (1999), « Adding Risks: Samuelson’s Fallacy of Large Numbers Revisited »,
Journal of Financial and Quantitative Analysis, 34 : 323-339.

Roth, R. Jr. (1998), “Earthquake Insurance Protection in California,” in Paying the Price:
The Status and Role of Insurance Against Natural Disasters in the United States, Howard
Kunreuther and Richard Roth Sr., eds.: Joseph Henry Press, Washington, D.C., chapter 4.

Rothschild, M. and J.E. Stiglitz (1976), « Equilibrium in competitive insurance markets :


an essay on the economics of imperfect information », Quarterly Journal of Economics, 90 :
629-649.

Samuelson, P. (1963), « Risk and Uncertainty: A Fallacy of Large Numbers », Scientia,


98: 108-113.

Sandler, T. and E. Walter (2004), “An Economic Perspective of Transnational


Terrorism” European Journal of Political Economy, 20 : 301-316

Savage, L. (1954), The foundations of statistics, John Wiley, New York.


Shavell, S. (1979), “Risk Sharing incentives in the principal agent relationship”, The Bell
Journal of Economics : 55-73.

Sinclair-Desgagné, B. (2001), « La régulation des risques industriels majeurs », Risques,


n°47.

Sinclair-Desgagné, B. and C. Vachon (1999), “Dealing with major technological risks”,


working paper, Cirano.

SOS Attentats (2003), Terrorisme, victimes et responsabilité pénale internationale,


Calman-Lévy, Paris.

177
Stern, J. (2003), Terror in the Name of God: Why Religious Militants Kill, Harper Collins,
New York.

Swiss Re (2003), The picture of ART, Sigma, n°1, Zurich: Swiss Re, Economic Research
and Consulting..

Swiss Re (2004), “Natural catastrophes and man-made disasters 2003: many fatalities,
comparatively moderate insured losses”. Sigma no1/2004, Swiss Re, Economic Research and
Consulting, Zurich.

Swiss Re (2002), “Natural catastrophes and man-made disasters 2001: high flood loss
burden”. Sigma no2/2002, Swiss Re, Economic Research and Consulting, Zurich.

Towers P. (2004), Workers’ Compensation Terrorism Reinsurance Pool Feasibility Study.

U.S. Department of State (2003), Patterns of Global Terrorism-2003, Washington, D.C.:


April.

U.S. District Court for the Northern District of Illinois, Eastern Division (2004), City of
Chicago v. Factory Mutual Insurance Company. 02C7023, March 11.

Vilnet, F. (2004), Réaction des marchés d’assurance et de réassurance et solutions de


marché, Mutualisation et Incertitude, Iddri.

Von Neumann, J. and O. Morgenstern (1947), Theory of games and economic


behaviour, Princeton University Press.

Wedgwood, R. (2002), “Al Qaeda, Terrorism, and Military Commissions”, American


Journal of International Law, 96 : 328-337.

Wiener, J. and M.D. Rogers (2002), Comparing precaution in the United States and
Europe, Journal of Risk Research, 5 : 317-349.

Woo, G. (2004), “A Catastrophe Bond Niche: Multiple Event Risk”, Paper presented at
the NBER Insurance Group Workshop, Cambridge, (Mass)., February 7.

178
INDEX NOMINUM
Allais, M. 7, 56, 105
Arrow, K. 6, 47, 74

Bernoulli, J. 121
Black, F. 6
Borch, K 6, 105

Debreu, G. 43
Dixit, A.K. 6

Ellsberg, D. 7, 53, 54, 56

Fisher, A. 6

Gajdos, T. 59
Ghirardato, P. 37, 59
Gilboa, I. 56, 57

Henry, C. 6

Keynes, J.M. 7, 56
Knight, F. 7, 56
Kuhn, T. 9
Kunreuther, H. 12

Laffont, J.-J. 7
Laplace, P.-S. 121
Levy, P. 63, 64

Maccheroni, F. 37, 59
Marinacci, M. 37,59
Marshall, A. 105
Morgenstern, O. 6, 37-39, 42, 44, 45, 53, 54, 56, 73

Pascal, B. 121
Poisson, D. 121
Pratt, J. 6, 47, 50, 74
Prusiner, 27
Pyndick, R. 6

Rogers, M. 15
Rothschild, M. 6

Samuelson, P 121
179
Savage, L. 6, 54, 56, 73
Schmeidler, D. 56, 57
Scholes, M. 6
Stiglitz, J. 6

Tallon, J.-M. 59
Tirole, J. 7

Vergnaud, J.-C. 59
Von Neumann, J. 6, 37-39, 42, 44, 45, 53, 54, 56, 73

Wiener, J. 15

180
INDEX RERUM

Actif
certain 52
risqué 52, 53
Agence 106
Aléa moral 6, 88, 89
Antisélection 89, 143, 161
(ou sélection adverse)
Asymétrie d’information 6, 89, 143
Aversion pour l’ambiguïté 46, 57-59, 75, 79
coefficient d’ 60
Aversion pour le risque 15, 46, 47, 49-51, 121
indice d’ voir indice de Arrow-Pratt
Axiome d’indépendance 45, 46, 56, 59

Barrière des espèces 26-28


Biais de disponibilité 73

Captive 86, 90, 100-105, 112, 117, 155


Contrat d’assurance 6, 40, 41, 48, 79, 88, 89, 102, 110-112,
126
à couverture totale 42, 49, 112
Courbe de probabilité d’excédent des pertes 77, 78

Distribution L-stable 63, 64


Droite de Pareto 10, 63, 64

Echange de portefeuilles 91, 92, 98


Encéphalopathie spongiforme bovine (ESB) 9, 16, 17, 21, 26-28
Equivalent-certain 47, 48
Espérance de l’utilité
hypothèse de l’ 44-46
théorème de l’ 45, 58

Franchise 153, 154


Fonction de von Neumann-Morgenstern 44, 46, 52, 57

Gestion de l’assurance et de
la réassurance contre les 90, 100-102, 105, 111, 113,
attentats (GAREAT) 117, 157, 162, 163, 168
Groupe intergouvernemental d’experts sur
l’évolution du climat (GIEC) 28, 29, 31

Groupement temporaire
d’assurance médicale (GTAM) 86, 103
181
de réassurance médicale (GTREAM) 86, 103

Incertitude radicale 71
Indemnisation 41, 80, 81, 131, 133
(ou indemnité)
Indépendance stochastique 62
asymptotique 62
Indice de Arrow-Pratt 6, 47, 74
absolu 49, 51, 52
relatif 49, 51, 53
Indice sur risques 86
Irréversibilité 6, 18, 108, 118, 123
(ou irréversible)

Loi des grands nombres 10, 62, 63

Maladie de Creutzfeld-Jacob 9,17, 27, 28


Modèle de Savage 54, 56, 73
Modèle de von Neumann-Morgenstern 53, 54, 56, 73
Mutualisation des risques 89, 105, 110, 117, 118, 153, 160, 167
Mutuelle 11, 86, 100-104, 107, 111, 117

Neutralité vis-à-vis du risque 46, 79


(ou neutre…)

Obligation d’assurance 109, 118, 150, 159,


(ou assurance obligatoire) 161, 162, 165, 167
Obligation indexée 86, 95-99, 155
(ou cat bond)
Option 6
sur indice 91-93, 98, 99, 159

Paradoxe d’Allais 7, 46, 53, 57


Paradoxe d’Ellsberg 7, 46, 53, 57
Partage des risques 80, 121, 146, 158, 159, 163, 164
Pool 84, 100, 112, 150-153, 155, 157-164
Préordre des préférences 43
Prime d’assurance 41, 48, 49, 79, 83, 84, 96, 102, 103, 109,
111, 121, 122, 126, 127, 146, 154, 159,
160, 164, 166, 167
variable 110
Prime de risque 47-49
Prion 27
Probabilité ambiguë 71, 78, 83, 84
Responsabilité civile 72, 80-82, 100, 103, 104, 108, 109, 112
pour faute 81

182
Sans faute 81
Risque
de développement 100
diffus 124
ponctuel 124

Sélection de portefeuille 6, 52

Théorème de l’espérance de l’utilité 45, 58


Théorème de Pratt 50
Théorèmes de sélection de portefeuille 52, 53
Titre 39, 40
Transfert alternatif des risques 90
Tremblante du mouton 26

Utilité
fonction d’ 43

Valeur d’option 18

183