Vous êtes sur la page 1sur 179

Thèse de doctorat de l’Université Joseph Fourier - Grenoble I

Spécialité : Terre Solide
ANALYSE DES INCERTITUDES
DANS UNE ESTIMATION PROBABILISTE
DE L’ALÉA SISMIQUE, EXEMPLE DE LA
FRANCE
Céline BEAUVAL
Soutenue le 16 décembre 2003 à Grenoble, devant le jury composé de :
M. Pascal BERNARD (Rapporteur)
M. Thierry CAMELBEECK (Rapporteur)
M. Fabrice COTTON (Président du jury)
M. Julian BOMMER (Examinateur)
M. André HERRERO (Examinateur)
Mme Oona SCOTTI (Directrice de thèse)
M. Pierre-Yves BARD (Directeur de thèse)
Préparée au Bureau d’Evaluation des Risques Sismiques pour la Sûreté des Installations Nucléaires
(IRSN, Fontenay-aux-Roses)
Unités
Dans cette thèse, l’unité utilisée pour les accélérations du mouvement du sol est le gal.
Le gal n’est cependant pas une unité du système international : en U.S.I. les accélérations
s’expriment en m.s
−2
. Pour rappel, voici les correspondances entre unités :
1 g = 9.80 m.s
−2
= 980 gal,
1 gal = 1 cm.s
−2
.
iii
iv
Remerciements
Mes remerciements vont d’abord à Oona Scotti, ma directrice de thèse à l’Institut de
Radioprotection et de Sûreté Nucléaire. Je lui suis très reconnaissante de m’avoir transmis son
énergie et son enthousiasme pour la Sismologie durant les trois années de thèse. Les multiples
discussions que nous avons eues m’ont toujours donné envie d’aller plus loin.
Je remercie également Pierre-Yves Bard, directeur de ma thèse à l’Université Joseph Fou-
rier de Grenoble, grâce à qui j’ai découvert la sismologie au cours d’un stage de DEA au labo-
ratoire de Géophysique Interne et Tectonophysique. Cette étude sur les effets de site m’a donné
le goût de la recherche et l’envie d’entamer une thèse sur l’aléa sismique.
Pascal Bernard, de l’Institut de Physique du Globe de Paris et Thierry Camelbeeck, du
Royal Observatory de Belgique, ont accepté d’être rapporteurs de cette thèse et je les en remer-
cie sincèrement. Je suis également très reconnaissante envers Fabrice Cotton, de l’Université
Joseph Fourier, Julian Bommer, de l’Imperial College de Londres et André Herrero, de l’INGV
de Naples, d’avoir participé au jury de thèse, respectivement en tant que Président du Jury et
Examinateurs.
Un des thèmes de recherche du laboratoire du BERSSIN étant d’expérimenter l’approche
probabiliste dans le cadre du nucléaire, plusieurs membres de l’équipe se sont investis pour l’es-
timation probabiliste de l’aléa sismique. Cette thèse a ainsi fortement bénéficié d’interactions
avec Fabian Bonilla, Didier Bertil et Christophe Clément.
Dans le cadre de mon doctorat, j’ai eu l’opportunité de participer à de nombreuses ren-
contres scientifiques : workshops de sismologie, colloque pluridisciplinaire sur les Risques Na-
turels, congrès rassemblant l’ensemble des Sciences de la Terre. J’adresse de vifs remerciements
à ma directrice de thèse Oona Scotti et à l’IRSN pour m’avoir donné cette liberté et cette ou-
verture. J’ai également eu l’occasion, au tout début de ma thèse, de rencontrer les chercheurs
du SCEC de Los Angeles et d’avoir ainsi une image précise de l’état des lieux des estimations
probabilistes pour la Californie. En 2002, j’ai suivi le travail de terrain d’une équipe du Groupe
APS constituée d’architectes, de sismologues et d’historiens, à la recherche de traces anciennes
de séismes sur les habitations de Manosque. Grâce à M. Cara et C. Sira du BCSF de Strasbourg,
j’ai eu la chance de participer à la collecte des données macrosismiques dans la région de Ram-
bervillers, à la suite du séisme du 22 février 2003. Ces expériences ont été très enrichissantes ;
elles m’ont montré que pour cerner le Risque Sismique, il est indispensable que se rencontrent
des disciplines variées.
Pour mener à bien cette thèse, il convenait de disposer d’un code de calcul probabiliste.
Au printemps 2001, Mario Ordaz, de l’Université UNAM de Mexico, nous a apporté son code
fortran CRISIS, base essentielle que nous avons ensuite adaptée à nos besoins.
v
Je souhaite également remercier D. Marsan du LGIT de Chambéry, pour avoir porté un
intérêt et un oeil extérieur sur certains de nos questionnements et pour avoir toujours été ouvert
à la discussion.
J’ai passé ces trois ans principalement au Bureau d’Evaluation des Risques Sismiques
pour la Sûreté des INstallations (BERSSIN). C’est un laboratoire où il fait bon travailler ; l’am-
biance y est chaleureuse, le travail est réellement «d’équipe» et la motivation est bien présente.
Le LGIT de Grenoble était mon laboratoire universitaire «d’accueil». J’ai la chance d’y
avoir passé huit mois en 2000 et j’y suis revenue régulièrement, je remercie les amis étudiants
de m’avoir toujours trouvé une place où m’installer, malgré les effectifs !
Bien sûr, c’est aussi la vie «à côté» qui m’a largement portée. Il est difficile de remercier
en rafales ! Merci à tous ceux avec qui j’ai partagé des petits et des grands instants de vie. Merci
aux randonnées mystiques autour du lac de Pierre-Percée, aux balades dans la plaine du Ried et
sur les côtes du Cotentin, aux descentes à vélo dans la vallée de Chevreuse et sur les bords du
lac Atitlán, aux falaises d’Etretat et à la plage des Petites Dalles, à la vue aérienne en haut des
Aiguilles de Bavella et sur la crête enneigée du Mont Joly, aux errances joyeuses dans la Vieille
Ville de San Juan, aux bordées animées à Fort Cigogne et Arz... J’en omets beaucoup... J’oublie
surtout les multiples escales à Strasbourg, Grenoble, Bayeux, Aberdeen, Londres, Zurich et
Berlin. Et j’attends avec impatience le Kashmir et l’Himalaya !
Ultime merci à Seb&A. pour le support technique des dernières semaines, aux dîners de
Châtillon indispensables pour le moral mais aussi à l’équipe efficace qui a confectionné le pôt
de thèse, au renfort spécialement venu de Suisse et aux deux vacanciers grenoblois qui m’ont
laissé les clefs de leur logis.
vi
Résumé
Cette thèse propose une nouvelle méthodologie permettant d’une part d’identifier les pa-
ramètres clefs qui contrôlent l’estimation de l’aléa sismique probabiliste, et d’autre part de
quantifier l’impact des incertitudes de ces paramètres sur les estimations d’aléa.
Estimer l’aléa sismique probabiliste consiste à déterminer les périodes de retour de dépas-
sements du mouvement du sol. La méthode de Cornell-McGuire est utilisée dans cette étude.
Dans un premier temps, la dépendance de la b-value (pente de la courbe de récurrence) avec
l’intervalle de magnitude utilisé est mise en évidence. La forte dépendance obtenue dans le
Sud-Est de la France conduit à modéliser la récurrence des séismes à partir des magnitudes
supérieures à 3.5, dans une optique conservatrice. Par ailleurs, les incertitudes sur les détermi-
nations de magnitude et de localisation sont modélisées et quantifiées : la variabilité résultante
sur les estimations d’aléa est comprise entre 5 et 25% (=COV, coefficient de variation), selon le
site et la période de retour considérés.
Une étude d’impact est ensuite menée afin de hiérarchiser les impacts sur l’aléa liés aux
choix de quatre paramètres : la corrélation intensité-magnitude, les magnitudes minimales et
maximales contribuant à l’aléa et la troncature de la relation d’atténuation du mouvement du
sol. Les résultats à 34 Hz (PGA) indiquent que la magnitude maximale est le paramètre le moins
influent (de 100 à 10000 ans) ; tandis que la corrélation intensité-magnitude et la troncature des
prédictions du mouvement du sol (>2σ) jouent un rôle clef quelle que soit la période de retour
considérée (produisant chacun une diminution de l’aléa jusqu’à 30% à 10000 ans). Une aug-
mentation de la magnitude minimale contribuant à l’aléa, de 3.5 à 4.5, peut également produire
des impacts non négligeables à courtes périodes de retour, entrainant une diminution des valeurs
d’aléa jusqu’à 20% à 475 ans.
Enfin, la variabilité totale des estimations d’aléa, due aux choix combinés des quatre pa-
ramètres, peut atteindre 30% (COV, à 34 Hz). Pour des fréquences plus faibles (<5Hz), la va-
riabilité totale augmente et la magnitude maximale devient un paramètre important. Ainsi, la
variabilité des estimations due aux incertitudes de catalogue et aux choix de ces quatre para-
mètres doit être prise en compte dans toute étude d’estimation de l’aléa sismique probabiliste
en France. Cette variabilité pourra être réduite en élaborant une corrélation intensité-magnitude
plus appropriée, et en recherchant une manière plus réaliste de prendre en compte la dispersion
du mouvement du sol.
vii
Abstract
This thesis proposes a new methodology that allows to pinpoint the key parameters that
control probabilistic seismic hazard assessment (PSHA) and at the same time to quantify the
impact of these parameters uncertainties on hazard estimates.
Probabilistic seismic hazard assessment consists in computing return periods of ground
motion exceedances. The Cornell-McGuire’s method is used here. First, the dependence of
the b-value (slope of the recurrence curve) with the magnitude range used is highlighted. The
high dependence found in the southeastern part of France implies that, for conservative mo-
deling, earthquakes recurrence should be established only on magnitudes above 3.5. Secondly,
uncertainties on magnitude and location determinations are modeled and quantified : resulting
variability on hazard estimates ranges between 5% and 25% (=COV, coefficient of variation),
depending on the site and the return period.
An impact study is then performed, in order to determine the hierarchy between the im-
pacts on hazard of the choices of four other parameters : intensity-magnitude correlation, mini-
mum and maximum magnitudes contributing to the hazard and the truncation of the attenuation
relationship. The results at 34 Hz (PGA) indicate that the maximum magnitude is the less in-
fluent parameter (from 100 to 10000 years) ; whereas the intensity-magnitude correlation and
the truncation of ground motion predictions (>2σ) are the controlling parameters at all return
periods (producing up to 30% decrease each at 10000 years). An increase in the minimum ma-
gnitude contributing to the hazard, from 3.5 to 4.5, can also produce non-negligible impacts at
small return periods, with up to 20% decrease of hazard results at 475 years.
Finally, the overall variability on hazard estimates due to the combined choices of the
four parameters can reach up to 30% (COV, at 34Hz). For lower frequencies (<5Hz), the ove-
rall variability increases and maximum magnitude becomes a controlling parameter. Therefore,
variability of estimates due to catalog uncertainties and to the choices of these four parame-
ters must be taken into account in all probabilistic seismic hazard studies in France. To reduce
variability in hazard estimates, future research should concentrate on the elaboration of an ap-
propriate intensity- magnitude correlation, as well as on a more realistic way of taking into
account ground motion dispersion.
viii
Table des matières
Introduction 1
PARTIE I.
Méthode de Cornell-McGuire et application en France 5
1 La méthode de Cornell-McGuire 7
1.1 L’estimation de l’aléa sismique probabiliste selon Cornell-McGuire . . . . . . 7
1.1.1 Principe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.1.2 Identification des lieux d’occurrence des séismes . . . . . . . . . . . . 9
1.1.3 Modélisation de la récurrence . . . . . . . . . . . . . . . . . . . . . . 9
1.1.4 Estimation de la probabilité de dépassement . . . . . . . . . . . . . . . 11
1.1.5 Obtention des accélérations . . . . . . . . . . . . . . . . . . . . . . . 13
1.2 Application sur une source ponctuelle . . . . . . . . . . . . . . . . . . . . . . 14
1.2.1 Calcul des taux de dépassement . . . . . . . . . . . . . . . . . . . . . 15
1.2.2 Modification de paramètres du calcul . . . . . . . . . . . . . . . . . . 16
1.2.3 Conclusions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2 Le code de calcul CRISIS 25
2.1 Mode de calcul . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.2 Subdivision des zones sources . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.3 Intégration en magnitude . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.4 Troncature et renormalisation de la distribution des accélérations . . . . . . . . 28
2.5 Set d’accélérations cibles et interpolation . . . . . . . . . . . . . . . . . . . . 29
3 Constitution du catalogue de sismicité 33
3.1 Le catalogue de sismicité instrumental . . . . . . . . . . . . . . . . . . . . . . 33
3.1.1 Choix du catalogue du LDG . . . . . . . . . . . . . . . . . . . . . . . 33
3.1.2 Traitement des répliques . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.1.3 La courbe de Gutenberg-Richter . . . . . . . . . . . . . . . . . . . . . 36
ix
3.2 Le catalogue de sismicité historique . . . . . . . . . . . . . . . . . . . . . . . 38
3.2.1 Calcul de la magnitude historique . . . . . . . . . . . . . . . . . . . . 39
3.2.2 Extraction de la base de données SisFrance . . . . . . . . . . . . . . . 41
3.2.3 Caractéristiques du catalogue historique . . . . . . . . . . . . . . . . . 42
3.3 Constitution du catalogue combiné instrumental et historique . . . . . . . . . . 43
4 Zonage et relation d’atténuation 45
4.1 Le zonage sismotectonique . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.1.1 Le zonage AFPS-EPAS (Autran et al., 1998) . . . . . . . . . . . . . . 45
4.1.2 Les conséquences de l’utilisation d’un zonage . . . . . . . . . . . . . . 46
4.2 La relation d’atténuation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.2.1 La relation d’atténuation Berge-Thierry (2003) . . . . . . . . . . . . . 48
4.2.2 Base de données et domaine de représentativité . . . . . . . . . . . . . 49
5 Calcul des paramètres de sismicité 55
5.1 Extraction des parties complètes du catalogue . . . . . . . . . . . . . . . . . . 55
5.1.1 Estimation à partir du nombre cumulé de séismes . . . . . . . . . . . . 56
5.1.2 Méthode de Stepp . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
5.1.3 Conclusions et récurrences sur le catalogue [1500-1999] . . . . . . . . 58
5.2 Calcul des paramètres de sismicité et sélection des zones sources . . . . . . . . 62
5.2.1 La méthode de Weichert (1980) . . . . . . . . . . . . . . . . . . . . . 62
5.2.2 Application en France : sélection des zones sources . . . . . . . . . . . 64
5.3 Estimations des temps de retour des magnitudes . . . . . . . . . . . . . . . . . 72
PARTIE II.
Quantification et compréhension des incertitudes 75
6 Mapping b-values in France using two different magnitude ranges : possible non
power-law behavior 77
6.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
6.2 Data . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
6.3 Mapping the b-values . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
6.4 Results . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
6.5 Discussion and Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
7 Quantifying uncertainties in French PSHA 87
7.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
x
7.2 Choice of probabilistic methodology . . . . . . . . . . . . . . . . . . . . . . . 89
7.3 Constructing the catalogue . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
7.4 Selecting the seismic source zones and computing seismicity models . . . . . . 92
7.5 Probabilistic computations and quantification of impacts . . . . . . . . . . . . 93
7.5.1 Modelling uncertainties due to magnitude and location determination . 94
7.5.2 On the choice of a Magnitude-Intensity correlation . . . . . . . . . . . 97
7.5.3 On the choice of truncating the PDF distribution modelling ground mo-
tion dispersion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
7.5.4 On the choice of minimum magnitude (`
min
) . . . . . . . . . . . . . . 100
7.5.5 On the choice of maximum magnitude (`
max
) . . . . . . . . . . . . . 101
7.5.6 Radius of influence of hazard estimates . . . . . . . . . . . . . . . . . 103
7.5.7 Overall variability . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
7.5.8 Impacts as a function of frequency . . . . . . . . . . . . . . . . . . . . 104
7.6 Discussion and conclusions . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
8 Déagrégation 111
8.1 Principe de la déagrégation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
8.2 Choix de la représentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
8.3 Résultats des déagrégations . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
8.3.1 Déagrégation 1D en magnitude . . . . . . . . . . . . . . . . . . . . . 113
8.3.2 Déagrégation 1D en distance . . . . . . . . . . . . . . . . . . . . . . . 113
8.3.3 Déagrégation 2D en magnitude et distance . . . . . . . . . . . . . . . 118
8.3.4 Rayons d’influence . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
8.3.5 Déagrégation en ε . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
8.4 Conclusions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
PARTIE III.
Méthodes alternatives 121
9 Méthode de Woo 123
9.1 Principe de la méthode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
9.1.1 Un modèle de sismicité plus proche du catalogue . . . . . . . . . . . . 123
9.1.2 Calcul probabiliste . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
9.2 Application . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
9.2.1 Choix des fonctions kernels . . . . . . . . . . . . . . . . . . . . . . . 126
9.2.2 Choix des sites et des paramètres du calcul probabiliste . . . . . . . . . 129
9.2.3 Exemples de grilles de taux de sismicité . . . . . . . . . . . . . . . . . 130
xi
9.2.4 Etudes d’impacts des choix de paramètres . . . . . . . . . . . . . . . . 130
9.2.5 Variabilité totale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
9.3 Conclusions et analyses futures . . . . . . . . . . . . . . . . . . . . . . . . . . 132
10 Complémentarité des méthodes probabilistes et déterministes 139
10.1 Accélération maximale observée dans l’histoire . . . . . . . . . . . . . . . . . 139
10.2 Estimation des périodes de retour des accélérations déterministes . . . . . . . . 141
10.3 Conclusions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
Conclusions et perspectives 143
ANNEXES 147
BIBLIOGRAPHIE 153
xii
Liste des figures
1.1 Courbe d’aléa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2 Deux types de zones sources . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3 La courbe de récurrence . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.4 Calcul de la probabilité de dépassement . . . . . . . . . . . . . . . . . . . . 12
1.5 Exemple d’une source ponctuelle . . . . . . . . . . . . . . . . . . . . . . . 15
1.6 Calcul de l’aléa pour une source ponctuelle . . . . . . . . . . . . . . . . . . 20
1.7 Source ponctuelle, modification de `
min
. . . . . . . . . . . . . . . . . . . 21
1.8 Source ponctuelle, modification de `
max
. . . . . . . . . . . . . . . . . . . 22
1.9 PDF normale et CDF tronquée renormalisée . . . . . . . . . . . . . . . . . . 23
1.10 Source ponctuelle, troncature des prédictions de la relation d’atténuation . . 24
2.1 Exemple de subdivision des zones sources en triangles . . . . . . . . . . . . 28
2.2 Exemple de subdivision des zones sources en triangles (zoom) . . . . . . . . 30
2.3 PDF normale et CDF tronquée renormalisée . . . . . . . . . . . . . . . . . . 31
2.4 Exemple d’interpolation de l’accélération . . . . . . . . . . . . . . . . . . . 31
3.1 Carte de sismicité instrumentale . . . . . . . . . . . . . . . . . . . . . . . . 35
3.2 Identification des répliques . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.3 Courbes de Gutenberg-Richter, catalogue instrumental [1962-1999 . . . . . 37
3.4 Superpositions des GR sur 9 ans . . . . . . . . . . . . . . . . . . . . . . . . 38
3.5 Données à l’origine des corrélations Levret et Scotti . . . . . . . . . . . . . 40
3.6 Différences entre les deux estimations de magnitudes historiques . . . . . . . 41
3.7 Carte de sismicité historique [1356-1961] . . . . . . . . . . . . . . . . . . . 42
3.8 Distribution en temps et magnitude du catalogue historique . . . . . . . . . . 43
3.9 Variabilité des estimations de magnitudes historiques . . . . . . . . . . . . . 44
4.1 Zonage sismotectonique . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.2 Atténuation du mouvement prédite et données réelles . . . . . . . . . . . . . 50
4.3 Distribution des données en distance et magnitude. . . . . . . . . . . . . . . 51
4.4 Distribution lognormale des accélérations . . . . . . . . . . . . . . . . . . . 52
xiii
LISTE DES FIGURES
4.5 Distribution des résidus en distance . . . . . . . . . . . . . . . . . . . . . . 52
4.6 Distribution des résidus en magnitude . . . . . . . . . . . . . . . . . . . . . 53
5.1 Estimation des périodes complètes (1) . . . . . . . . . . . . . . . . . . . . . 59
5.2 Estimation des périodes complètes (2) . . . . . . . . . . . . . . . . . . . . . 60
5.3 Méthode de Stepp . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
5.4 Courbe de Gutenberg-Richter du catalogue entier . . . . . . . . . . . . . . 62
5.5 Sélection des zones sources . . . . . . . . . . . . . . . . . . . . . . . . . . 68
5.6 Calcul des paramètres de sismicité dans la zone 10 . . . . . . . . . . . . . . 69
5.7 Calcul des paramètres de sismicité dans la zone 19 . . . . . . . . . . . . . . 70
5.8 Calcul des paramètres de sismicité dans la zone 32 . . . . . . . . . . . . . . 71
5.9 Temps de retour d’un ` ≥ 6.0 pour chaque zone source . . . . . . . . . . . 74
6.1 Instrumental and historical seismicity in France [1500-1999] . . . . . . . . . 79
6.2 b-value map estimated on the instrumental catalogue . . . . . . . . . . . . . 84
6.3 b-value map estimated on the historical catalogue . . . . . . . . . . . . . . . 84
6.4 Utsu’s test . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
6.5 Cumulative Gutenberg-Richter plots at three locations . . . . . . . . . . . . 85
7.1 French seismic catalogue in the period [1356-1999] . . . . . . . . . . . . . 91
7.2 Generating synthetic catalogs with Monte Carlo . . . . . . . . . . . . . . . . 95
7.3 Monte Carlo results . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
7.4 COV due to uncertainties on magnitude and location determinations . . . . . 97
7.5 Impacts of the M-I correlation and of the truncation . . . . . . . . . . . . . . 98
7.6 Understanding M-I correlation impacts . . . . . . . . . . . . . . . . . . . . 99
7.7 Impacts of `
min
and `
max
. . . . . . . . . . . . . . . . . . . . . . . . . . 102
7.8 Understanding impacts of `
min
and `
max
. . . . . . . . . . . . . . . . . . 102
7.9 Radius of influence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
7.10 Example of the logic tree results . . . . . . . . . . . . . . . . . . . . . . . . 105
7.11 Overall variability calculated from the logic tree . . . . . . . . . . . . . . . 106
7.12 Impacts of `
min
and `
max
at 1 Hz . . . . . . . . . . . . . . . . . . . . . . 108
7.13 Example of deaggregation in magnitude and distance at PGA and 1 Hz . . . 108
7.14 Comparing variabilities of results at different frequencies . . . . . . . . . . . 109
7.15 Hierarchy of impacts at fixed return period . . . . . . . . . . . . . . . . . . 109
8.1 Déagrégations m, r et ε, zone 6 . . . . . . . . . . . . . . . . . . . . . . . . 114
8.2 Déagrégations m, r et ε, zone 18 . . . . . . . . . . . . . . . . . . . . . . . . 115
8.3 Déagrégations m, r et ε, zone 19 . . . . . . . . . . . . . . . . . . . . . . . . 116
xiv
8.4 Déagrégations m, r et ε, zone 30 . . . . . . . . . . . . . . . . . . . . . . . . 117
8.5 Rayons d’influence à 475 et 10000 ans . . . . . . . . . . . . . . . . . . . . 120
9.1 Fonctions kernels utilisées (2D) . . . . . . . . . . . . . . . . . . . . . . . . 127
9.2 Fonctions kernels utilisées (3D) . . . . . . . . . . . . . . . . . . . . . . . . 128
9.3 Localisation des sites par rapport à la répartition des épicentres . . . . . . . . 129
9.4 Grilles de taux de sismicité lissés . . . . . . . . . . . . . . . . . . . . . . . 135
9.5 Impacts des choix de paramètres - méthode de Woo . . . . . . . . . . . . . . 136
9.6 Comparaison des impacts des choix de paramètres Woo/Cornell . . . . . . . 136
9.7 Distributions d’accélérations issues des arbres logiques sur Woo et Cornell . 137
10.1 Accélérations déterministes . . . . . . . . . . . . . . . . . . . . . . . . . . 140
10.2 Zonage sismotectonique extrait de Autran et al. (1998) . . . . . . . . . . . . 149
10.3 Identification des limites de zones (Autran et al., 1998) . . . . . . . . . . . . 150
10.4 Identification des limites de zones (Autran et al., 1998) . . . . . . . . . . . . 151
xv
LISTE DES FIGURES
xvi
Liste des tableaux
4.1 Ordre de grandeur de la dispersion de la relation d’atténuation . . . . . . . . 51
5.1 Périodes complètes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
5.2 Paramètres de sismicité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
5.3 Nombre de séismes utilisés . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
5.4 Zones sources sélectionnées . . . . . . . . . . . . . . . . . . . . . . . . . . 67
5.5 Temps de retour . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
6.1 Completeness periods . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
6.2 b-values computations at three locations . . . . . . . . . . . . . . . . . . . . 81
7.1 Completeness periods . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
7.2 Seismic parameters for the 17 selected source zones . . . . . . . . . . . . . 93
8.1 Rayons d’influence à 475 et 10000 ans . . . . . . . . . . . . . . . . . . . . 119
9.1 Paramètres des études d’impact (méthode de Woo) . . . . . . . . . . . . . . 131
9.2 Variabilités totales issues des arbres logiques sur Woo et Cornell-McGuire . 133
10.1 Périodes de retour d’accélérations déterministes . . . . . . . . . . . . . . . . 141
10.2 Paramètres utilisés pour le calcul des périodes de retour . . . . . . . . . . . 142
xvii
LISTE DES TABLEAUX
xviii
Introduction
La France est un pays à sismicité modérée, les séismes destructeurs sont rares mais leur
probabilité d’occurrence n’est pas nulle. Le séisme le plus fort du siècle dernier a atteint une
magnitude de 6.0 (séisme de Lambesc, 1909 ; Baroux et al., 2003) ; les archives historiques
recensent par ailleurs plusieurs séismes destructeurs sur les dix derniers siècles. L’estimation
de l’aléa sismique en France est par conséquent indispensable. Estimer l’aléa sismique en un
site, c’est déterminer le mouvement du sol contre lequel se prémunir. L’estimation de l’aléa
sismique est ainsi un premier pas vers l’estimation du risque sismique qui intègre également
la vulnérabilité des bâtiments. Cette thèse analyse, dans le contexte français, deux méthodes
probabilistes d’évaluation de cet aléa.
La méthode d’estimation probabiliste de l’aléa sismique est née à la fin des années 60 aux
Etats-Unis. Cornell (1968) propose de calculer des taux annuels de dépassement de niveaux du
mouvement du sol et d’introduire ces taux dans un processus temporel d’occurrence de Poisson :
l’aléa sismique probabiliste est un niveau du mouvement du sol ayant une certaine probabilité
d’être dépassé sur une certaine période de temps. Le calcul requiert un découpage de la région
étudiée en zones sources sismiques, une description de la sismicité des zones sources et un mo-
dèle d’atténuation des mouvements du sol. En 1976, l’USGS (U.S. Geological Survey) publie
les premières cartes d’aléa sismique probabiliste pour les Etats-Unis (Algermissen & Perkins,
1976). La même année, McGuire (1976) introduit la dispersion du mouvement sismique dans le
calcul. Peu après, les estimations d’aléa sismique des installations nucléaires se sont également
orientées vers les méthodes probabilistes (EPRI, 1986, Bernreuter et al., 1989). Les modifica-
tions de la méthode concernent ensuite essentiellement la modélisation des zones sources et la
récurrence des séismes (e.g. Frankel, 1995) ; le cœur de la méthode, le calcul d’une probabilité
de dépassement d’un mouvement du sol à partir d’un modèle d’atténuation reste inchangé. Les
avancées résident dans la prise en compte des incertitudes.
L’alternative à la méthode probabiliste est l’estimation déterministe de l’aléa. Les deux
méthodes sont fréquemment opposées. Elles reposent sur des données identiques (catalogues
de sismicité, modèle d’atténuation du mouvement du sol et zonage sismotectonique) mais leurs
principes de base sont très différents. En déterministe, le mouvement du sol considéré provient
d’un scénario magnitude-distance clairement identifié. En probabiliste, les lieux d’occurrence
et les fréquences des magnitudes sont modélisés et l’ensemble des scénarios participent au
1
♦ INTRODUCTION
calcul. L’estimation probabiliste est plus complexe, elle fournit non pas un unique niveau du
mouvement du sol mais une série de mouvements possibles associés à leur période de retour. Le
choix du mouvement à considérer est laissé aux experts, en fonction de la nature de l’installation
à dimensionner, de sa durée de vie, du risque associé.
L’estimation de l’aléa sismique est indissociable de la notion d’incertitude. A toutes les
étapes d’une estimation de l’aléa sismique, en déterministe comme en probabiliste, des choix
doivent être faits. Les incertitudes portent d’une part sur les données de base, d’autre part sur
les modèles choisis et leurs paramétrisations. La méthode probabiliste, basée sur des modèles,
se prête mieux que la méthode déterministe à la propagation des incertitudes en entrée sur les
estimations d’aléa, le traitement des incertitudes est en effet identique d’un site à l’autre. La
méthode probabiliste constitue en cela un outil d’aide à la décision majeur pour l’estimation de
l’aléa sismique.
Les méthodes probabilistes sont arrivées plus tardivement en France : le zonage sismique
réglementaire actuel (en cours de révision) repose sur une méthode déterministe de l’aléa (Des-
peroux & Godefroy, 1986). Dans le domaine de la sûreté nucléaire, l’estimation de l’aléa au
moyen de méthodes probabilistes en est au stade expérimental. Pourtant, dès 1980, la méthode
de Cornell-McGuire est expérimentée dans le Sud-Est de la France (Goula, 1980), sur l’ini-
tiative de l’IPSN (Institut de Protection et Sûreté Nucléaire). Une thèse se consacre ensuite
au sujet en 1995, toujours à l’IPSN (Bottard, 1995), établissant les premières cartes pour l’en-
semble de la France en terme d’intensité, axant ses recherches sur les déterminations des magni-
tudes maximales au moyen de méthodes statistiques et sur la difficulté d’appliquer des modèles
d’occurrence non poissoniens en France. Suivant le modèle américain, la prise en compte des
incertitudes est amorcée par l’introduction de la notion d’arbre logique (prise en compte des
différents modèles et avis d’experts et calcul d’une distribution de valeurs d’aléa). Peu après,
en 1996, un groupe de travail est constitué dans le cadre de l’Association Française du Génie
Parasismique (AFPS, groupe d’Estimation Probabiliste de l’Aléa Sismique). La contribution
est majeure, par l’établissement d’un zonage sismotectonique pour le territoire français (Autran
et al., 1998). Basées sur ce zonage, des cartes d’aléa en terme d’accélérations sont établies en
appliquant la méthode de Cornell-McGuire sur un catalogue de sismicité également construit
dans le cadre de cette étude (Dominique et al., 1998). Toutes les estimations d’aléa sont effec-
tuées pour une période de retour de 475 ans, classiquement considérée pour l’aléa sismique du
bâti conventionnel. L’étude de la sensibilité des estimations aux choix de paramètres d’entrée
est amorcée (André, 1999), sans quantification cependant. Enfin, en 2001, Martin et al. (2002a)
produisent de nouvelles cartes d’aléa probabiliste pour la France et les Antilles. Cette étude
est commandée par le ministère de l’environnement afin de remplir les nouvelles normes eu-
ropéennes (Eurocode 8), elle servira de base à l’établissement du nouveau zonage sismique de
la France métropolitaine et des Antilles (bâtiment conventionnel). Martin et al. (2002a) créent
i
leur propre catalogue et utilisent les dernières données disponibles (zonage sismotectonique et
modèles d’atténuation du sol). Ils identifient un certain nombre d’incertitudes et, à partir d’un
arbre logique, calculent la variabilité totale des estimations, liée aux choix des différentes op-
tions. Les périodes de retour considérées vont jusqu’à 2000 ans. Ils appliquent pour la première
fois en France une méthode probabiliste qui diffère de la méthode de Cornell-McGuire par son
modèle de sismicité : la méthode de Woo (1996). Elle est intégrée dans l’arbre logique mais
avec un poids faible, sa participation aux résultats reste marginale. Globalement, la méthode
utilisée principalement depuis le début des années 80 pour l’estimation de l’aléa sismique pro-
babiliste en France est la méthode de Cornell-McGuire. Les évolutions concernent d’une part le
traitement des incertitudes et d’autre part les données. Les catalogues de sismicité historiques
s’améliorent ; les données instrumentales sont de plus en plus nombreuses avec l’allongement
de la durée des catalogues de sismicité et l’installation de nouvelles stations sismologiques.
Dans le cadre des EPS, Etudes Probabilistes de Sûreté, tous les risques pris en compte
dans la sûreté des installations nucléaires sont calculés de manière probabiliste. Des études de
faisabilité doivent par conséquent être menées dans le domaine particulier du risque sismique
sur le territoire métropolitain français ; c’est dans cette problématique que cette thèse s’insère.
Les périodes de retour concernées sont plus longues que celles du bâtiment conventionnel :
de l’ordre de 10
4
-10
7
ans. La méthode de Cornell-McGuire continue d’être largement appli-
quée en Europe et dans le monde entier, elle est retenue pour cette étude, ainsi que la méthode
plus récemment proposée par Woo (1996). L’objectif de la thèse est d’identifier et de quanti-
fier l’ensemble des incertitudes apparaissant dans l’estimation probabiliste. Afin de contrôler
exactement les incertitudes liées au catalogue de sismicité, un nouveau catalogue est construit,
intégrant des magnitudes historiques converties avec les corrélations intensité-magnitude ac-
tuellement disponibles pour la France. Les paramètres requis par les modèles et les techniques
de calcul de l’aléa probabiliste sont recensés, l’impact du choix des paramètres est finalement
quantifié pour six d’entre eux : (1) incertitudes sur les déterminations de magnitude et locali-
sation des séismes, (2) choix de la corrélation intensité-magnitude, (3) choix de l’intervalle de
magnitude utilisé dans le calcul des modèles de récurrence, (4) choix des magnitudes minimales
et (5) maximales contribuant à l’aléa, et enfin (6) choix de tronquer les prédictions de la rela-
tion d’atténuation du mouvement du sol. De ces six paramètres, seul le choix de la magnitude
maximale a été considéré dans les études probabilistes précédentes en France. Les influences
des paramètres (4) et (6) n’ont jamais été discutées, alors que des études aux Etats-Unis en font
état depuis plus de 10 ans (Reiter, 1990). De plus, de nombreuses études ont montré l’influence
déterminante du zonage et du modèle d’atténuation du sol. Plusieurs années de travail ont abouti
en 1997 à un zonage (Autran et al., 1998), nous nous appuyons donc sur ces travaux. De même,
une loi d’atténuation a été récemment publiée (Berge-Thierry et al., 2003), elle repose sur les
dernières données disponibles. Ces paramètres sont conservés fixes dans cette étude, notre ob-
¸
♦ INTRODUCTION
jectif étant d’identifier les autres paramètres clefs de la méthode probabiliste. Les impacts sont
quantifiés pour différents sites géographiques et différentes périodes de retour. L’aléa est cal-
culé principalement au PGA (34 Hz), mais les fréquences 1, 2 et 5 Hz sont également abordées.
Enfin, une étude comparable est amorcée pour une méthode proposant un modèle de sismicité
alternatif, la méthode de Woo (1996). Notre objectif, tout au long de cette étude, est d’identifier
les paramètres qui contrôlent les estimations, de comprendre l’origine des contributions à l’aléa
et ainsi de rendre la méthode plus transparente.
La première partie de cette thèse expose tout d’abord les principes de la méthode de
Cornell-McGuire et leur application numérique. Les données françaises sont ensuite préparées :
le choix du zonage et de la loi d’atténuation est argumenté, le catalogue de sismicité est construit
à partir des catalogues historique et instrumental et les périodes représentatives de chaque ma-
gnitude sont déterminées. Le calcul des paramètres de sismicité, nécessaires pour modéliser la
récurrence, est finalement effectué dans les zones du zonage sismotectonique. Tous les éléments
nécessaires à un calcul de l’aléa probabiliste pour la France sont ainsi définis.
La seconde partie de la thèse explore et quantifie les incertitudes liées à six paramètres
du calcul probabiliste. Dans un premier temps, la dépendance avec la gamme de magnitude
utilisée du coefficient de décroissance exponentielle du modèle de récurrence est étudiée. Dans
un second temps, une analyse d’impact est menée à partir des domaines de variation possibles de
cinq paramètres : les incertitudes de catalogue (déterminations des magnitudes et localisations
des séismes), les choix de la corrélation intensité-magnitude, de la décision de tronquer ou non
les prédictions de la loi d’atténuation et des magnitudes minimales et maximales qui définissent
l’intervalle de magnitudes contribuant au calcul probabiliste.
La troisième partie aborde une méthode alternative (Woo, 1996) ; elle s’affranchit du zo-
nage sismotectonique et propose un lissage spatial du catalogue de sismicité. Une méthode
déterministe simple est également introduite au travers d’un exercice qui permet de montrer la
complémentarité possible des approches probabiliste et déterministe.
¡
Première partie
MÉTHODE DE CORNELL-MCGUIRE ET
APPLICATION EN FRANCE
j
0
Chapitre 1.
La méthode de Cornell-McGuire
La méthode d’estimation de l’aléa probabiliste utilisée dans cette étude est celle de Cornell-
McGuire (Cornell, 1968, McGuire, 1976). Cette méthode est largement utilisée dans le monde
entier. Les ouvrages de Kramer (1996) ou Reiter (1990) proposent une bonne introduction à
l’estimation de l’aléa selon Cornell-McGuire, tandis qu’Abrahamson (2000) fait le point sur les
pratiques actuelles en matière d’estimation probabiliste. La méthode de Cornell-McGuire mo-
délise les lieux d’occurrence des séismes, leurs tailles et leurs taux annuels de récurrence. Puis,
en un site donné, l’aléa est calculé en sommant les contributions de tous les scénarios possibles
(toutes les combinaisons de magnitudes et de distances). Dans ce chapitre, après une présenta-
tion de la théorie et des hypothèses sous-jacentes, les étapes du calcul de l’aléa sont détaillées
sur un cas de figure simple : une source ponctuelle.
1.1 L’estimation de l’aléa sismique probabiliste selon Cornell-
McGuire
1.1.1 Principe
Estimer l’aléa sismique probabiliste en un site, c’est déterminer les taux annuels d’occur-
rence de paramètres du mouvement du sol. Le paramètre du mouvement du sol le plus utilisé
dans les études probabilistes est le pic d’accélération ; mais la vitesse, le déplacement ou l’in-
tensité d’Arias peuvent également caractériser le mouvement.
Trois étapes préliminaires sont nécessaires :
– identifier les zones sources dans la région d’étude,
– dans chaque zone source, modéliser une courbe de récurrence à partir du catalogue
de sismicité, cette courbe de récurrence décrit les magnitudes possibles et leurs taux
annuels d’occurrence,
– choisir une relation d’atténuation du mouvement du sol adaptée à la région d’étude ;
pour un scénario donné (magnitude et distance) elle fournit une fonction de densité de
¬
♦1. LA MÉTHODE DE CORNELL-MCGUIRE
probabilité de l’accélération engendrée au site.
Pour une accélération cible donnée ¹

, le taux annuel de dépassement de cette accéléra-
tion cible (λ
A
∗) est calculé comme suit :
λ
A
∗ =
N

i=1
λ
i
Mmax
i

m=M
min

r
1[¹ ¹

|:. :]1
M
i
(:)1
R
i
(:)d:d: (1.1)

– λ
i
est le taux annuel de séismes de magnitude supérieure ou égale à la magnitude mi-
nimale choisie `
min
, pour la zone source i,
– 1
M
i
(:) et 1
R
i
(:) sont les fonctions de densité de probabilité en magnitude et distance
de la source i, elles sont supposées indépendantes,
– 1[¹ ¹

|:. :] est la probabilité qu’un séisme de magnitude : à la distance : du site
engendre une accélération supérieure à ¹

, cette probabilité est calculée à partir de la
relation d’atténuation,
– ` est le nombre de zones sources.
Les taux annuels de dépassement d’une série d’accélérations cibles sont calculés et une
courbe d’aléa est obtenue au site (Figure 1.1). La période de retour est l’inverse du taux annuel ;
en pratique on se réfère souvent à la période de retour plutôt qu’au taux annuel (il est plus facile
de parler d’une période de retour de 10000 ans plutôt que d’un taux annuel de 0.0001). Les
résultats des estimations probabilistes se présentent en général en terme d’accélérations corres-
pondant à des périodes de retour précises (100, 500, 1000 ans...) ; ces accélérations s’obtiennent
par interpolation à partir de la courbe d’aléa.
P
e
r
i
o
d
e

d
e

r
e
t
o
u
r
Acceleration
FIG. 1.1 – Courbe d’aléa : périodes de retour des accélérations.
8
1.1.2 Identification des lieux d’occurrence des séismes
Selon la connaissance de la tectonique active de la région étudiée, les zones sources
peuvent être de deux types (Figure 1.2). Dans les régions à forte sismicité, les séismes se pro-
duisent fréquemment, leur distribution en surface et en profondeur délimite les failles qui les
génèrent. Les zones sources sont alors des bandes étroites délimitant ces failles. Dans les ré-
gions à sismicité modérée comme la France, la sismicité est diffuse et les failles responsables
des séismes sont très mal identifiées. Les zones sources sont alors des aires larges, homogènes
du point de vue de différents critères (épaisseur de croûte, mécanismes au foyer, champ de
contrainte, distribution de la sismicité...). En pratique, les zones sources sont des polygones,
il n’y a pas de formulation analytique pour les fonctions de densité de probabilité en distance
(1
R
i
(:)), équation 1.1). Les zones sources sont par la suite subdivisées en sous-zones pour les-
quelles l’hypothèse de source ponctuelle est possible (distance source-site suffisamment grande
par rapport à la taille de la sous-zone).
Les courbes de récurrence sont modélisées à l’intérieur de chaque zone source. Les scé-
narios magnitude-distance sont assimilés à des points sources et les hypocentres sont supposés
uniformément distribués dans chaque zone, à la profondeur moyenne déterminée pour la zone.
Aire
Faille
FIG. 1.2 – Deux types de zones sources, les failles dans les régions caractérisées par une activité
sismique importante, les aires géographiques larges dans les régions de sismicité modérée.
1.1.3 Modélisation de la récurrence
Dans chaque zone source, une loi de récurrence est modélisée à partir du catalogue de
sismicité de la zone. Cette loi de récurrence fournit pour une magnitude ` le nombre annuel
de séismes de magnitude supérieure ou égale à `, λ
M
. Le modèle de l’exponentielle tronquée
o
♦1. LA MÉTHODE DE CORNELL-MCGUIRE
est le plus fréquemment utilisé (représentation graphique sur la figure 1.3) :
λ
M
= λ
M
min
c
−β(M−M
min
)
−c
−β(M
max
−M
min
)
1 −c
−β(M
max
−M
min
)
(1.2)
Il est basé sur l’observation de la décroissance exponentielle du nombre de séismes en fonction
de la magnitude (Gutenberg & Richter, 1944). Il est caractérisé par trois paramètres : la magni-
tude minimale `
min
, le coefficient de la décroissance exponentielle β et la magnitude maximale
`
max
. Les taux des magnitudes supérieures à `
max
sont nuls. Les fonctions de densité cumulée
et de densité de probabilité correspondantes sont ainsi :
1
M
(:) = 1[` < :|`
min
≤ : ≤ `
max
] =
1 −c
−β(m−M
min
)
1 −c
−β(M
max
−M
min
)
(1.3)
ct 1
M
(:) =
βc
−β(m−M
min
)
1 −c
−β(M
max
−M
min
)
(1.4)
Magnitude Mmax
T
a
u
x

a
n
n
u
e
l

c
u
m
u
l
e
Mmin
FIG. 1.3 – Courbe de récurrence, modèle de l’exponentielle tronquée.
La formulation initiale de Gutenberg & Richter (1944) comporte deux paramètres :
log
10
` = c −/`
où N est le nombre de séismes, M la magnitude, a est le logarithme du nombre de séismes de
magnitude 0 et b est la pente de la droite (appelée «b-value»). N peut être le nombre de séismes,
le nombre cumulé de séismes ou encore le nombre annuel cumulé. L’équation peut se formuler
comme suit :
λ
M
= c
α−βM
avec α = c ln 10 et β = / ln 10. En pratique, un catalogue de sismicité est complet à partir
1o
d’une magnitude dite magnitude de coupure `
C
: tous les séismes de magnitude supérieure ou
égale à `
C
sont reportés de manière exhaustive dans le catalogue. Au final, les magnitudes sont
utilisées à partir d’une magnitude minimale `
0
, supérieure ou égale à la magnitude de coupure ;
par conséquent il est plus pratique d’exprimer le taux annuel sous la forme :
λ
M
= λ
M
0
c
−β(M−M
0
)
(1.5)
avec λ
M
0
= c
α−βM
0
. Les deux paramètres de sismicité λ
M
0
et β sont calculés à partir du ca-
talogue de sismicité de chaque zone source. Un troisième paramètre est finalement introduit
afin de fournir une borne maximale aux magnitudes pouvant se produire dans la zone source, la
magnitude maximale `
max
, l’équation 1.2 est retrouvée pour `
0
= `
min
.
Il importe de bien distinguer les magnitudes `
0
et `
min
: `
0
est la magnitude minimale
utilisée pour calculer les paramètres de sismicité λ
M
0
et β, `
min
est la magnitude minimale
prise en compte dans le calcul probabiliste. L’intervalle de magnitude qui va contribuer à l’aléa
est déterminé par les choix de `
min
et `
max
.
1.1.4 Estimation de la probabilité de dépassement
La probabilité pour un couple magnitude-distance (m,r) d’engendrer au site une accéléra-
tion supérieure à l’accélération cible ¹

est calculée à partir de la relation d’atténuation. Celle-ci
prédit, pour une magnitude m à la distance r du site, le logarithme de l’accélération engendrée
au site. Elle peut être formulée ainsi (Bazzurro & Cornell, 1999) :
ln ¹ = o(:. :. θ) + εσ
lnA
. ε ∈ [−∞; +∞] (1.6)
La variable θ correspond par exemple au type de sol (rocher, sol sédimentaire). A chaque triplet
(m,r,θ) correspond une distribution de probabilité normale du logarithme de l’accélération ln ¹,
de moyenne ln ¹ = o(:. :. θ) et d’écart-type σ
lnA
. La fonction o(:. :. θ) peut par exemple être
de la forme :
o(:. :. θ) = (
1
: + (
2
: −(
3
|:: + (
4
(θ) (1.7)
Les paramètres (
i
sont calculés par régression à partir d’enregistrements réels. Les accélé-
rations étant dispersées, les logarithmes des accélérations sont supposés distribués selon une
loi normale ; l’écart-type de cette distribution σ
lnA
est calculé à partir des résidus entre va-
leurs observées et valeurs calculées (après détermination des coefficients). Les paramètres (
i
et
l’écart-type σ
ln A
varient avec la fréquence ; dans certaines relations d’atténuation, l’écart-type
varie également en fonction de la magnitude (Campbell, 1997). Le coefficient (
4
est fonction
11
♦1. LA MÉTHODE DE CORNELL-MCGUIRE
de la nature du sol, les classifications les plus simples séparent les sites rocheux des sites sur sol
sédimentaire. Certaines relations récentes établies à partir de larges bases de données proposent
une classification des sols plus détaillée (Lussou et al., 2000), distinguent les types de failles
ou des phénomènes plus complexes liés à la source (les effets de directivité par exemple, e.g.
(Somerville et al., 1997)).
P[A>A*|m,r]
r
M=m
lnA
lnR
lnAm
lnA*
r
lnA
lnR
M=m
M=m+1
lnA*
lnAm
P[A>A*|m+1,r] > P[A>A*|m,r]
FIG. 1.4 – Calcul de la probabilité de dépassement du niveau ¹

pour le couple (m,r) et le
couple (m+1,r) : à distance fixe r, un séisme de magnitude m+1 a une probabilité plus grande
d’engendrer un dépassement de ¹

qu’un séisme de magnitude m.
La probabilité que le couple (m,r) engendre une accélération ¹ supérieure à ¹

se calcule
alors ainsi :
1(¹ ¹

|:. :) = 1 −φ

ln ¹

−ln ¹
σ
lnA

(1.8)
avec φ la distribution de probabilité normale standard cumulée. Cette probabilité correspond à
1i
l’aire sous la courbe de la figure 1.4. Par ailleurs, supposer que les logarithmes des accélérations
suivent une loi normale revient à supposer que les accélérations suivent une loi log-normale ;
ainsi, si ¹
m
est la médiane des accélérations :
ln ¹ = ln ¹
median
(1.9)
Toute valeur d’accélération entre −∞ et +∞ a donc une probabilité non nulle d’être
engendrée par le couple (m,r). En pratique, les accélérations très peu probables situées à deux
ou trois écart-types au-dessus de la moyenne ln ¹
m
peuvent contribuer fortement à l’aléa. Afin
de remédier à cela, certaines études (Reiter, 1990, Anderson & Brune, 1999a, Abrahamson,
2000) tronquent la distribution de probabilité à une certaine valeur au-delà de la moyenne : en
général la moyenne ajoutée d’un multiple entier de l’écart-type (ln ¹
m
+ `σ
lnA
, N=1,2,3...).
La distribution n’est tronquée qu’aux valeurs supérieures ; le problème de la participation des
accélérations très peu probables ne se pose pas pour les niveaux cibles localisés à -`σ en-
dessous de la moyenne.
1.1.5 Obtention des accélérations
Interpolation
Le calcul de l’aléa fournit, pour une accélération cible, le taux annuel de l’occurrence
d’une accélération supérieure à cette cible. Cependant, c’est une accélération qui est en général
recherchée, correspondant à un taux annuel donné (ou une période de retour). Par conséquent,
le calcul de l’aléa est effectué pour une série d’accélérations, l’accélération correspondant au
taux annuel d’intérêt est ensuite obtenue par interpolation. Les valeurs minimale et maximale
de la série d’accélérations cibles doivent être choisies de manière à ce que leurs taux annuels
encadrent le taux annuel d’intérêt pour lequel l’accélération est interpolée.
Modèle de Poisson
Les séismes sont supposés se produire dans le temps selon un processus de Poisson : la
probabilité d’occurrence d’un séisme ne dépend pas du temps écoulé depuis le dernier séisme.
Pour un phénomène poissonien se produisant avec un taux annuel moyen τ, la probabilité P que
le phénomène se produise au moins une fois pendant le temps t est (Ang & Tang, 1975) :
1 = 1 −c
−τt.
(1.10)
L’occurrence des séismes suit un processus de Poisson, par suite l’occurrence des accélérations
(ou l’occurrence d’une accélération supérieure à un niveau cible) suit également un processus

♦1. LA MÉTHODE DE CORNELL-MCGUIRE
de Poisson. Si λ
A
∗ correspond au taux annuel de dépassement de ¹

, alors la probabilité P qu’il
se produise au site au moins une accélération supérieure à ¹

pendant le temps t est :
1 = 1 −c
−λt
= 1 −c

t
T
c·cc 1 =
1
λ
(1.11)
Ainsi, fixer P et t revient à fixer le taux annuel λ :
λ = −
ln(1 −1)
t
Le choix de P et t est un choix économique. La période de retour de 475 ans résulte du choix
d’une probabilité P de 10% sur une période de temps de 50 ans (le taux annuel correspondant
est 0.0021). Dimensionner un bâtiment pour qu’il résiste à l’accélération correspondant à une
période de retour de 475 ans, c’est dimensionner le bâtiment afin qu’il soit capable de supporter
une accélération qui a 10% de chance d’être dépassée sur les 50 prochaines années (ou 90%
de chances de ne pas être dépassée). Les 50 ans correspondent à la durée de vie moyenne des
bâtiments conventionnels. Une probabilité P plus faible conduira, pour une durée t constante, à
un taux annuel plus faible. Dans le cadre du nucléaire, les périodes de retour considérées sont
de l’ordre de 10
4
-10
7
ans.
Toutes les étapes de la méthode ont été présentées, le calcul de l’aléa peut maintenant être
illustré sur un cas de figure simplifié : un site à proximité d’une unique source ponctuelle.
1.2 Application sur une source ponctuelle
La méthode de Cornell-McGuire est ici appliquée sur un exemple simple : un site est
situé à la distance épicentrale R=25 km d’une source ponctuelle située à 10 km de profondeur
(Figure 1.5). Le fait de ne considérer qu’une seule distance simplifie considérablement le calcul
de l’aléa. Ce cas simplifié est très proche des cas réels, les études de déagrégation (cf. chapitre
8) montrent en effet que la majeure partie des contributions à l’aléa provient de sources à moins
de 60-70 km du site.
Dans cet exemple, les paramètres de sismicité sont arbitrairement fixés à 2.11 pour le
coefficient β et 0.024 pour le taux de sismicité annuel λ
0
= λ(` ≥ 3.5) (le coefficient β
calculé sur des données réelles varie en moyenne entre 1.5 et 3.0). Dans un premier temps, les
étapes du calcul du taux annuel de dépassement sont détaillées pour les niveaux cibles 150 et
250 gal. Dans un second temps, l’impact du choix de trois paramètres du calcul (magnitudes
minimale et maximale, troncature des prédictions de la relation d’atténuation) est abordé. Le
pas d’intégration en magnitude est choisi égal à 0.1 de manière à ce que les scénarios (couples
magnitude-distance) soient clairement identifiés.

SITE
SOURCE
R
FIG. 1.5 – Exemple d’une source ponctuelle à la distance hypocentrale de 27 km.
1.2.1 Calcul des taux de dépassement
Pour les deux exemples d’application de la méthode probabiliste suivants, la magnitude
minimale `
min
est fixée à 4.0, la magnitude maximale `
max
est fixée à 7.0 et la distribution
des accélérations prédite par la relation d’atténuation n’est pas tronquée.
Niveau cible de 150 gal
L’accélération cible est ici de 150 gal. Sur la Figure 1.6 sont représentées les étapes du
calcul :
a) Les probabilités d’occurrence des magnitudes entre 4.0 et 7.0 sont calculées avec la
fonction de probabilité cumulée de la loi de récurrence (équation 1.3). Ces probabilités sont
conditionnelles, elles correspondent à l’occurrence d’un séisme de magnitude m sachant qu’un
séisme de magnitude supérieure à `
min
= 4 se produit. La probabilité d’occurrence diminue
de manière exponentielle avec la magnitude.
b) Les probabilités de dépassement sont calculées pour les magnitudes de 4.0 à 7.0. Pour
chaque magnitude m, la probabilité qu’un séisme de magnitude m à la distance hypocentrale
de 27 km occasionne au site une accélération supérieure au niveau ¹

=150 gal s’obtient à
partir de la relation d’atténuation (équation 1.8). Plus la magnitude augmente, plus la probabilité
d’engendrer une accélération supérieure à 150 gal augmente.
c) Les probabilités d’occurrence d’une accélération supérieure à 150 gal, sachant qu’un
séisme de magnitude : ≥ 4.0 se produit, sont obtenues en multipliant membre à membre a) et
b).
d) Le taux annuel de dépassement de 150 gal est la somme des probabilités de dépasse-
ment de c), multipliée par le taux annuel λ(` ≥ 4.0) = 0.0083 (cf. équation 1.5). Le taux
annuel λ
150gal
= 1.58e-4 est reporté sur la courbe d’aléa du site (cercle plein).
Par conséquent, les probabilités de dépassement de c) correspondent aux contributions
relatives de chaque magnitude au taux final. Pour ce niveau cible de 150 gal, la contribution
des magnitudes augmente de 4.0 à 5.3-5.4 puis diminue jusqu’à la magnitude maximale 7.0.
1j
♦1. LA MÉTHODE DE CORNELL-MCGUIRE
Les magnitudes qui contribuent le plus sont dans l’intervalle [5.0-5.6].
Niveau cible de 250 gal
Le calcul est effectué cette fois pour un niveau d’accélération cible ¹

plus élevé : 250
gal (Figure 1.6, quadrants du bas). Les paramètres de sismicité du point source sont les mêmes
que dans l’exemple précédent, ainsi que la gamme de magnitude [`
min
-`
max
] contribuant à
l’aléa.
La distribution des probabilités d’occurrence des magnitudes de 4.0 à 7.0 est inchangée.
Par contre, les probabilités de dépassement de ¹

=250 gal ont diminué par rapport au cas précé-
dent (¹

=150 gal). L’accélération cible a augmenté et par conséquent la probabilité d’engendrer
une accélération supérieure à la cible a diminué, quelle que soit la magnitude.
Les contributions relatives des magnitudes (c) sont par suite également modifiées. Cette
fois, les magnitudes qui contribuent le plus au calcul du taux annuel de dépassement sont dans
l’intervalle [5.7-6.3]. Le taux annuel total λ
250gal
s’obtient à nouveau en sommant les contribu-
tions de c) et en multipliant la somme par le taux annuel λ(` ≥ 4.0). Le taux λ
250gal
= 3.37e-5,
inférieur à λ
150gal
, est reporté sur la courbe d’aléa du site (cercle plein).
1.2.2 Modification de paramètres du calcul
Modifier certains paramètres requis par les modèles utilisés permet d’éclairer le processus
de cumul des contributions et l’origine de ces contributions. Les deux premiers paramètres mo-
difiés conditionnent la gamme de magnitudes qui va participer au calcul de l’aléa : la magnitude
minimale et la magnitude maximale. Le troisième paramètre est la troncature des prédictions
de la relation d’atténuation, attribuant une probabilité nulle d’occurrence aux accélérations très
peu probables.
Augmentation de la magnitude minimale
La magnitude minimale utilisée dans les estimations d’aléa n’est pas toujours mentionnée,
alors qu’elle peut avoir une influence forte sur le résultat. Augmenter `
min
revient en effet à
réduire la gamme de magnitudes qui contribuent à l’aléa.
La magnitude minimale était jusqu’à présent fixée à 4.0, elle est augmentée à 4.5. Le
niveau cible est de 150 gal ; sur la figure 1.7 page 21, les résultats obtenus avec `
min
=4.5
(en rouge) sont superposés aux résultats obtenus avec `
min
=4.0 (en noir) afin de les comparer
facilement.
a) La distribution de probabilité en magnitude est modifiée, les magnitudes [4.0-4.5[ ne
sont plus prises en compte. Pour une magnitude : est calculée la probabilité que, si un séisme
10
de magnitude supérieure ou égale à 4.5 se produit, la magnitude de ce séisme soit égale à :.
Ce sont les magnitudes 4.5 qui ont cette fois la plus grande probabilité d’occurrence. Lorsque
`
min
=4.0, la somme des probabilités de 4.0 à 7.0 est égale à 1.0 ; lorsque `
min
=4.5, c’est la
somme des probabilités de 4.5 à 7.0 qui est égale à 1.0.
b) Les probabilités de dépassement sont identiques, l’accélération cible est la même dans
les deux cas.
c) Les probabilités de dépassement sachant qu’il se produit un séisme de magnitude su-
périeure à la magnitude `
min
sont modifiées : les contributions relatives sont conservées mais
les magnitudes [4.0-4.5[ ne contribuent plus.
d) Finalement, le taux (cercle plein rouge) a diminué, ce qui est logique puisque les ma-
gnitudes sont moins nombreuses à contribuer. La somme des probabilités de c) est multipliée
par le taux annuel λ(: ≥ 4.5), inférieur à λ(: ≥ 4.0).
Les courbes d’aléa montrent que l’augmentation de `
min
a un impact qui augmente
lorsque l’accélération diminue. Au-delà d’une accélération suffisamment grande (250 gal envi-
ron pour cet exemple), l’augmentation de `
min
n’a plus d’impact sur les taux annuels (cercles
rouges superposés aux cercles noirs).
Diminution de la magnitude maximale
La magnitude maximale diminue de 7.0 à 6.5. Les magnitudes ]6.5-7.0] ne contribuent
plus au calcul. Sur la figure 1.8 page 22 les résultats obtenus avec `
max
= 6.5 (en rouge)
sont superposés aux résultats correspondants à `
max
= 7.0 (en noir). L’accélération cible est
¹

= 350 gal :
a) La distribution de probabilité en magnitude est modifiée, la gamme de magnitude est
moins large. Les probabilités des magnitudes [4.0-6.5] ne sont cependant que très légèrement
augmentées car les probabilités des magnitudes ]6.5-7.0] (reportées sur [4.0-6.5]) étaient très
faibles.
b) Les probabilités de dépassement sont identiques sur l’intervalle [4.0-6.5], l’accélération
cible est la même dans les deux cas.
c) Les probabilités de dépassement sachant qu’il se produit un séisme de magnitude su-
périeure à la magnitude `
min
sont très légèrement augmentées dans l’intervalle [4.0-6.5], les
magnitudes ]6.5-7.0] ne participent plus au calcul.
d) Le taux annuel obtenu (cercle plein rouge) a logiquement diminué.
Les courbes d’aléa montrent que le fait de diminuer la magnitude maximale a un impact
très faible sur les faibles niveaux d’accélération (≤ 100gal) et un impact plus fort sur les accé-
lérations supérieures à 200 gal. En effet, lorsque le niveau d’accélération augmente, les faibles
magnitudes contribuent de moins en moins et la proportion de contributions apportées par les

♦1. LA MÉTHODE DE CORNELL-MCGUIRE
magnitudes élevées augmente.
Troncature des prédictions de la relation d’atténuation
Le paramètre qui est cette fois modifié est la fonction de densité de probabilité de l’accé-
lération fournie par la relation d’atténuation. Pour chaque séisme de magnitude m et distance
hypocentrale r, la relation d’atténuation fournit une fonction de densité de probabilité du lo-
garithme de l’accélération (cf. section 1.1.4). Cette fonction est une gaussienne d’écart-type
σ
log
10
A
et de moyenne log
10
¹
mediane
(utilisation de la relation d’atténuation Berge-Thierry et al.
(2003), cf. chapitre 4). La fonction de densité de probabilité de log
10
¹ pour une magnitude 6.0
à 27 km est représentée sur la figure 1.9 (page 23, graphique gauche, courbe grise). La fonction
cumulée correspondante est tracée sur le graphique de droite.
Deux calculs sont comparés : dans le premier les probabilités de dépassement sont calcu-
lées à partir de la fonction normale sans troncature, dans le second elles sont calculées à partir
de la fonction normale tronquée à 2σ au-dessus de la moyenne log
10
¹
mediane
. La fonction de
densité de probabilité tronquée est renormalisée. Sur la figure 1.9 est tracée, pour une troncature
à +2σ, la fonction de densité de probabilité cumulée tronquée et renormalisée (tirets noirs).
Sur la Figure 1.10 page 24, les résultats avec troncature à 2σ (en rouge) sont représentés
superposés aux résultats sans troncature (en noir), le calcul est effectué pour une accélération
cible de 200 gal :
a) La distribution de probabilité en magnitude est inchangée.
b) Les probabilités de dépassement de chaque magnitude sont légèrement diminuées,
celles des magnitudes inférieures à 5.3 sont réduites à zéro.
c) Les probabilités de dépassement sachant qu’il se produit un séisme de magnitude ` ≥
`
min
sont fortement diminuées, elles sont d’autant plus affectées que la magnitude est faible.
Ces résultats montrent que les contributions des magnitudes [4.0-5.3] dans le cas non tronqué
correspondent à des accélérations situées à plus de 2σ au-dessus de la médiane.
d) Le taux final est reporté sur la courbe d’aléa. Il est plus faible que le taux calculé sans
troncature. Les courbes d’aléa montrent que la troncature a un impact sur toutes les accélérations
cibles, de 50 à 500 gal.
Cet exemple démontre le rôle prépondérant des accélérations très peu probables (situées
à plus de 2 écart-types au-dessus de la médiane). Ces accélérations peuvent contribuer très
fortement, leurs très faibles probabilités sont en effet compensées par les très fortes probabilités
d’occurrence des magnitudes.
18
1.2.3 Conclusions
Le calcul détaillé de l’aléa sur cet exemple simple éclaire les natures différentes des pro-
babilités qui interviennent et leur mode d’addition. D’autre part, les modifications des para-
mètres d’entrée (`
min
, `
max
et la troncature à +`σ) et leurs effets sur les différentes étapes
du calcul permettent de comprendre le rôle de chacun de ces paramètres. Une modification de
la magnitude minimale a un impact sur le taux annuel estimé d’autant plus fort que le niveau
d’accélération cible est faible. A l’inverse, une modification de la magnitude maximale a un im-
pact d’autant plus fort que l’accélération cible est grande. Enfin, la troncature de la distribution
gaussienne fournie par la relation d’atténuation influence les résultats quelle que soit l’accéléra-
tion cible considérée. Ces effets, mis en évidence sur un exemple simple, vont se retrouver dans
les situations réelles (études d’impact du chapitre 7).
1o
♦1. LA MÉTHODE DE CORNELL-MCGUIRE
4 5 6 7
0
0.05
0.1
0.15
0.2
P
(
m
=
M

|

1

M
>
=
4
)
Magnitude m
a)
0 100 200 300 400 500
10
−6
10
−5
10
−4
10
−3
10
−2
Acceleration (gal)
T
a
u
x

a
n
n
u
e
l
s
d) COURBE D’ALEA d) COURBE D’ALEA d) COURBE D’ALEA d) COURBE D’ALEA d) COURBE D’ALEA d) COURBE D’ALEA d) COURBE D’ALEA d) COURBE D’ALEA d) COURBE D’ALEA d) COURBE D’ALEA d) COURBE D’ALEA d) COURBE D’ALEA d) COURBE D’ALEA d) COURBE D’ALEA d) COURBE D’ALEA d) COURBE D’ALEA d) COURBE D’ALEA d) COURBE D’ALEA d) COURBE D’ALEA
4 5 6 7
0
0.2
0.4
0.6
0.8
1
P
(
A
>
A
*
|
m
)
Magnitude m
b)
4 5 6 7
0
0.2
0.4
0.6
0.8
1
x 10
−3
P
(
A
>
A
*
|

1

M
>
=
4
.
0
)
Magnitude m
c)
150 gal
4 5 6 7
0
0.05
0.1
0.15
0.2
P
(
m
=
M

|

1

M
>
=
4
)
Magnitude m
a)
0 100 200 300 400 500
10
−6
10
−5
10
−4
10
−3
10
−2
Acceleration (gal)
T
a
u
x

a
n
n
u
e
l
s
d) COURBE D’ALEA d) COURBE D’ALEA d) COURBE D’ALEA d) COURBE D’ALEA d) COURBE D’ALEA d) COURBE D’ALEA d) COURBE D’ALEA d) COURBE D’ALEA d) COURBE D’ALEA d) COURBE D’ALEA d) COURBE D’ALEA d) COURBE D’ALEA d) COURBE D’ALEA d) COURBE D’ALEA d) COURBE D’ALEA d) COURBE D’ALEA d) COURBE D’ALEA d) COURBE D’ALEA d) COURBE D’ALEA
4 5 6 7
0
0.2
0.4
0.6
0.8
1
P
(
A
>
A
*
|
m
)
Magnitude m
b)
4 5 6 7
0
0.2
0.4
0.6
0.8
1
x 10
−3
P
(
A
>
A
*
|

1

M
>
=
4
)
Magnitude m
c)
250 gal
FIG. 1.6 – Calcul de l’aléa pour une source ponctuelle, A

= 150gal et A

= 250gal ; a) Probabilités
d’occurrence des magnitudes (condition : il se produit une M ≥ 4.0) ; b) P(A > A

|m) ; c) P(A >
A

|m ≥ 4.0), (soit c)=a)×b), multiplication membre à membre) ; d) Courbe d’aléa, cercle plein : λ
A
∗.
io
4
4
.
5
5
5
.
5
6
6
.
5
7
0
0
.
0
5
0
.
1
0
.
1
5
0
.
2
P ( m = M | 1 M > = 4 ) e t P ( m = M | 1 M > = 4 . 5 )
M
a
g
n
i
t
u
d
e

m
a
)
0
1
0
0
2
0
0
3
0
0
4
0
0
5
0
0
1
0

6
1
0

5
1
0

4
1
0

3
1
0

2
A
c
c
e
l
e
r
a
t
i
o
n

(
g
a
l
)
T a u x a n n u e l s
d
)

C
O
U
R
B
E

D

A
L
E
A
d
)

C
O
U
R
B
E

D

A
L
E
A
d
)

C
O
U
R
B
E

D

A
L
E
A
d
)

C
O
U
R
B
E

D

A
L
E
A
d
)

C
O
U
R
B
E

D

A
L
E
A
d
)

C
O
U
R
B
E

D

A
L
E
A
d
)

C
O
U
R
B
E

D

A
L
E
A
d
)

C
O
U
R
B
E

D

A
L
E
A
d
)

C
O
U
R
B
E

D

A
L
E
A
d
)

C
O
U
R
B
E

D

A
L
E
A
d
)

C
O
U
R
B
E

D

A
L
E
A
d
)

C
O
U
R
B
E

D

A
L
E
A
d
)

C
O
U
R
B
E

D

A
L
E
A
d
)

C
O
U
R
B
E

D

A
L
E
A
d
)

C
O
U
R
B
E

D

A
L
E
A
d
)

C
O
U
R
B
E

D

A
L
E
A
d
)

C
O
U
R
B
E

D

A
L
E
A
d
)

C
O
U
R
B
E

D

A
L
E
A
d
)

C
O
U
R
B
E

D

A
L
E
A
4
4
.
5
5
5
.
5
6
6
.
5
7
0
0
.
2
0
.
4
0
.
6
0
.
8 1
P ( A > A * | m )
M
a
g
n
i
t
u
d
e

m
b
)
4
4
.
5
5
5
.
5
6
6
.
5
7
0
0
.
5 1
1
.
5 2
2
.
5 3
3
.
5 4
x

1
0

3
P ( A > A * | 1 M > = 4 . 0 )
M
a
g
n
i
t
u
d
e

m
c
)
FIG. 1.7 – Cas d’une source ponctuelle, effet d’une augmentation de `
min
: en noir, `
min
=
3.5 ; en rouge, `
min
= 4.5 ; niveau cible : ¹

= 150 gal.
i1
♦1. LA MÉTHODE DE CORNELL-MCGUIRE
4
4
.
5
5
5
.
5
6
6
.
5
7
0
0
.
0
5
0
.
1
0
.
1
5
0
.
2
P ( m = M | 1 M > = 4 )
M
a
g
n
i
t
u
d
e

m
a
)
0
1
0
0
2
0
0
3
0
0
4
0
0
5
0
0
1
0

6
1
0

5
1
0

4
1
0

3
1
0

2
A
c
c
e
l
e
r
a
t
i
o
n

(
g
a
l
)
T a u x a n n u e l s
d
)

C
O
U
R
B
E

D

A
L
E
A
d
)

C
O
U
R
B
E

D

A
L
E
A
d
)

C
O
U
R
B
E

D

A
L
E
A
d
)

C
O
U
R
B
E

D

A
L
E
A
d
)

C
O
U
R
B
E

D

A
L
E
A
d
)

C
O
U
R
B
E

D

A
L
E
A
d
)

C
O
U
R
B
E

D

A
L
E
A
d
)

C
O
U
R
B
E

D

A
L
E
A
d
)

C
O
U
R
B
E

D

A
L
E
A
d
)

C
O
U
R
B
E

D

A
L
E
A
d
)

C
O
U
R
B
E

D

A
L
E
A
d
)

C
O
U
R
B
E

D

A
L
E
A
d
)

C
O
U
R
B
E

D

A
L
E
A
d
)

C
O
U
R
B
E

D

A
L
E
A
d
)

C
O
U
R
B
E

D

A
L
E
A
d
)

C
O
U
R
B
E

D

A
L
E
A
d
)

C
O
U
R
B
E

D

A
L
E
A
d
)

C
O
U
R
B
E

D

A
L
E
A
d
)

C
O
U
R
B
E

D

A
L
E
A
4
4
.
5
5
5
.
5
6
6
.
5
7
0
0
.
2
0
.
4
0
.
6
0
.
8 1
P ( A > A * | m )
M
a
g
n
i
t
u
d
e

m
b
)
4
4
.
5
5
5
.
5
6
6
.
5
7
0
0
.
5 1
1
.
5
x

1
0

4
P ( A > A * | 1 M > = 4 . 0 )
M
a
g
n
i
t
u
d
e

m
FIG. 1.8 – Cas d’une source ponctuelle, effet d’une diminution de `
max
: en noir, `
max
= 7.0 ;
en rouge, `
max
= 6.5 ; niveau cible : ¹

= 350 gal.
ii
0.5 1 1.5 2 2.5 3 3.5
0
0.005
0.01
0.015
log
10
(PGA)
PDF
+2σ
0.5 1 1.5 2 2.5 3 3.5
0
0.2
0.4
0.6
0.8
1
log
10
(PGA)
CDF
FIG. 1.9 – Troncature de la distribution de probabilité normale prédite par la relation d’atté-
nuation ; à gauche : PDF normale non tronquée, à droite : fonction de densité cumulée (CDF)
normale non tronquée en gris et tronquée à 2σ en tirets noirs (la CDF tronquée est renormali-
sée).

♦1. LA MÉTHODE DE CORNELL-MCGUIRE
4
4
.
5
5
5
.
5
6
6
.
5
7
0
0
.
0
5
0
.
1
0
.
1
5
0
.
2
P ( m = M | 1 M > = 4 )
M
a
g
n
i
t
u
d
e

m
a
)
0
1
0
0
2
0
0
3
0
0
4
0
0
5
0
0
1
0

6
1
0

5
1
0

4
1
0

3
1
0

2
A
c
c
e
l
e
r
a
t
i
o
n

(
g
a
l
)
T a u x a n n u e l s
d
)

C
O
U
R
B
E

D

A
L
E
A
d
)

C
O
U
R
B
E

D

A
L
E
A
d
)

C
O
U
R
B
E

D

A
L
E
A
d
)

C
O
U
R
B
E

D

A
L
E
A
d
)

C
O
U
R
B
E

D

A
L
E
A
d
)

C
O
U
R
B
E

D

A
L
E
A
d
)

C
O
U
R
B
E

D

A
L
E
A
d
)

C
O
U
R
B
E

D

A
L
E
A
d
)

C
O
U
R
B
E

D

A
L
E
A
d
)

C
O
U
R
B
E

D

A
L
E
A
d
)

C
O
U
R
B
E

D

A
L
E
A
d
)

C
O
U
R
B
E

D

A
L
E
A
d
)

C
O
U
R
B
E

D

A
L
E
A
d
)

C
O
U
R
B
E

D

A
L
E
A
d
)

C
O
U
R
B
E

D

A
L
E
A
d
)

C
O
U
R
B
E

D

A
L
E
A
d
)

C
O
U
R
B
E

D

A
L
E
A
d
)

C
O
U
R
B
E

D

A
L
E
A
d
)

C
O
U
R
B
E

D

A
L
E
A
4
4
.
5
5
5
.
5
6
6
.
5
7
0
0
.
2
0
.
4
0
.
6
0
.
8 1
P ( A > A * | m )
M
a
g
n
i
t
u
d
e

m
b
)
4
4
.
5
5
5
.
5
6
6
.
5
7
0 1 2 3 4 5
x

1
0

4
P ( A > A * | 1 M > = 4 . 0 )
M
a
g
n
i
t
u
d
e

m
c
)
FIG. 1.10 – Cas d’une source ponctuelle, effet d’une troncature de la distribution de probabilité
normale prédite par la relation d’atténuation : en noir, pas de troncature ; en rouge, troncature
à 2σ ; niveau cible : ¹

= 200 gal.

Chapitre 2.
Le code de calcul CRISIS
Les programmes de calcul de l’aléa selon la méthode de Cornell-McGuire sont nom-
breux : les codes EQRISK (McGuire, 1976), SEISRISK III (Bender & Perkins, 1987) et CRISIS
(Ordaz, 2001a) sont parmi les plus couramment utilisés. Dans cette étude, le code de calcul de
l’aléa est basé sur la version CRISIS 1.0.18. Le code source fortran de CRISIS a été modifié se-
lon nos besoins (adaptation à la relation d’atténuation Berge-Thierry et al. (2003), mise en place
de la déagrégation, ...). Ce chapitre décrit comment le code CRISIS met en pratique la méthode
de Cornell-McGuire, en reprenant les étapes du calcul : subdivision des zones sources, intégra-
tion en magnitude, troncature des prédictions de la relation d’atténuation et interpolation des
accélérations. De plus, les paramètres choisis dans notre étude et les modifications éventuelles
du code sont précisés.
2.1 Mode de calcul
Pour une accélération cible ¹

, le code calcule le taux annuel d’occurrence d’une accélé-
ration supérieure à ¹

(taux annuel de dépassement), les intégrales en magnitude et distance de
l’équation 1.1 sont discrétisées :
λ
A
∗ =
N

i=1
λ
i
Mmax
i

m=M
min

r
1[¹ ¹

|:. :]1
M
i
(:)1
R
i
(:)∆:∆:
Les informations suivantes sont fournies en entrée du programme CRISIS :
– les coordonnées du site,
– la magnitude minimale `
min
et les taux de sismicité associés de chaque zone source
i : λ
i
= λ
i
(` ≥ `
min
),
– les magnitudes maximales `
max
i
,
– les pentes des lois de récurrence β
i
,
– les sommets des polygones qui délimitent les zones sources,
ij
♦2. LE CODE DE CALCUL CRISIS
– les paramètres qui contrôlent les discrétisations en magnitude (∆:) et en distance
(1:i:, 1:i:, 1:cr, cf. plus loin),
– les coefficients de la relation d’atténuation,
– les accélérations cibles et les périodes de retour d’intérêt.
Le programme CRISIS calcule λ
A
∗ :
– en subdivisant chaque zone source en sous-zones afin d’obtenir les 1
R
i
,
– en calculant les 1
M
i
à partir de β, `
min
et `
max
i
(modèle d’exponentielle tronquée,
équation 1.4),
– en calculant 1[¹ ¹

|:. :] à partir de la relation d’atténuation pour toutes les com-
binaisons (m,r) (équation 1.8),
Le code permet d’introduire des incertitudes sur les paramètres de sismicité et sur la
magnitude maximale et de tenir compte de ces incertitudes dans le calcul. Cette option n’a pas
été utilisée dans cette étude, nous avons préféré faire varier ces paramètres à l’extérieur du code
de calcul probabiliste, afin de pouvoir quantifier la variabilité engendrée sur les estimations
d’aléa.
2.2 Subdivision des zones sources
Dans la méthode de Cornell-McGuire, la courbe de récurrence modélisée pour une zone
source est répartie uniformément sur l’ensemble de la zone. En pratique, la zone source est
subdivisée en sous-zones considérées comme des zones sources ponctuelles et leurs taux de
sismicité sont proportionnels à leurs surfaces. La distance source-site est alors la distance entre
le barycentre de la sous-zone et le site. Les techniques de subdivision varient selon les codes,
le code de calcul EQRISK (McGuire, 1976) découpe par exemple les zones sources en portions
d’anneaux circulaires centrés sur le site.
Le code CRISIS subdivise les zones sources en triangles. La taille des triangles varie avec
la distance source-site : les triangles ont des dimensions d’autant plus grandes qu’ils sont loin du
site ; cette triangularisation permet ainsi un gain de temps de calcul. Pour chaque triangle sont
calculés une dimension caractéristique 1c (la racine carrée de l’aire du triangle) et le rapport 1j
entre la distance source-site et 1c. Dans un premier temps, les polygones des zones sources sont
subdivisés en triangles (les sommets des triangles correspondent aux sommets des polygones) ;
puis ces triangles «primaires» sont à nouveau subdivisés, et ainsi de suite... Les subdivisions
s’arrêtent lorsqu’une des deux conditions suivantes est remplie :
– 1c ≤ 1:i:,
– 1j ≥ 1:i: (hypothèse de source ponctuelle).
Les paramètres 1:i: et 1:i: sont définis en entrée du code CRISIS. Dans toute notre étude,
i0
nous avons utilisé les paramètres par défaut du code : 1:i: = 11 km et 1:i: = 3. La
subdivision s’arrête lorsque la dimension caractéristique du triangle est inférieure à 11 km ou
lorsque la distance source-site est supérieure à 3 fois la taille du triangle. De plus, une distance
maximale 1:cr est fournie en entrée du code CRISIS : les triangles ne seront pas pris en
compte au-delà de 1:cr, car les contributions au-delà de 1:cr sont négligeables. Nous avons
utilisé une distance maximale de 400 km ce qui est largement suffisant au vu des études de
déagrégation (cf. chapitre 8), l’essentiel des contributions provient en effet de sources à moins
de 100 km.
La subdivision des zones sources diffère d’un site à l’autre. La figure 2.1 (page 28) montre
une subdivision du zonage utilisé dans cette étude, pour le site de coordonnées (-0.29 ;43.0) dans
les Pyrénées. Les zones sources correspondent aux trait épais, les subdivisions aux traits fins.
Un zoom sur le site (figure 2.2, haut) permet de mieux apprécier la subdivision à proximité du
site.
Un second jeu de paramètres 1:i:/1:i: a été testé : 1:i: = 1 km et 1:i: = 5,
conseillé lorsque le site est très proche des sources (Ordaz, 2001b). Les temps de calcul sont
néanmoins plus longs. La figure 2.2 montre la subdivision très fine obtenue au site précédent.
Nos tests montrent que les différences sur les accélérations sont de l’ordre de 1 gal, quelle que
soit la période de retour entre 100 et 10000 ans et le site géographique considéré. Les paramètres
par défaut de CRISIS produisent donc une subdivision suffisamment précise pour notre cas de
figure (les zones sources sont à des profondeurs de 10 et 15 km). Le second jeu de paramètres
(1/5) ne sera utilisé que lors des études de déagrégation (chapitre 8) où l’utilisation du jeu de
paramètres (3/11) produit des déagrégations en distance très légèrement biaisées.
2.3 Intégration en magnitude
Le choix du pas en magnitude ∆: est important. L’intégration en magnitude dans le
code CRISIS est effectuée avec la méthode de Simpson. La probabilité de dépassement 1[¹
¹

|:. :] est calculée pour chaque magnitude échantillonnée : plus le pas en magnitude est petit
et plus le calcul de l’aléa est précis. Dans le code CRISIS, le pas en magnitude ∆: est par
défaut égal à (`
max
− `
min
)9. Nous avons modifié le code afin d’imposer un pas de 0.1
quelles que soient les valeurs de `
min
et `
max
.
D’autre part, la déagrégation (chapitre 8) implique de stocker au fur et à mesure lors
du calcul les contributions en magnitude et distance. La méthode de Simpson interpole sur
trois points par un polynôme du second degré. Par suite, utiliser la méthode de Simpson pour
intégrer la densité de probabilité en magnitude impose une largeur minimale de 2∆: pour le
stockage des contributions en magnitude. Nous avons donc modifié le mode d’intégration de

♦2. LE CODE DE CALCUL CRISIS
FIG. 2.1 – Subdivision des zones sources en triangles pour le site (-0.29 ;43.0) (carré blanc) ;
avec 1:i: = 11 km, 1:i: = 3 et 1:cr = 400 km; traits épais : zones sources, traits fins :
triangles subdivisés ; zoom sur la figure 2.2 (figure du haut).
la magnitude : la densité de probabilité de l’intervalle [:,:+∆:] est calculée à partir de la
fonction de densité cumulée (équation 1.3). Le stockage en magnitude peut alors être effectué
avec la même précision que l’intégration.
2.4 Troncature et renormalisation de la distribution des ac-
célérations
Dans le code CRISIS, la troncature des prédictions de la loi d’atténuation est implémen-
tée. Pour un couple magnitude-distance (m,r), la relation d’atténuation fournit une fonction de
densité de probabilité normale (PDF), centrée sur la valeur moyenne ln ¹
m
et d’écart-type σ
ln
A
.
Afin de ne pas tenir compte des accélérations très peu probables, la PDF peut être tronquée à
i8
`σ au-dessus de la moyenne ln ¹
m
: les probabilités des accélérations supérieures à ¹
m
c

de-
viennent nulles. La PDF tronquée aux valeurs supérieures doit être renormalisée et la probabilité
de dépassement ne se calcule plus selon l’équation 1.8 mais comme suit :
1(ln ¹ ln ¹

|:. :) = 1 −φ

ln ¹ −ln ¹
m
σ

1
φ(`)
= 0
ln ¹ ≤ ln ¹
m
+ `σ
ln ¹ ln ¹
m
+ `σ
(2.1)
L’effet d’une troncature sur la distribution normale prédite par la relation d’atténuation est illus-
tré sur la figure 2.3. Sur la PDF (à gauche) sont indiquées les valeurs à +1σ, +2σ et +3σ ; les
fonctions de probabilité cumulées tronquées (et renormalisées) correspondantes sont superpo-
sées à la fonction non tronquée (à droite). Le mode de calcul probabiliste permet aux accélé-
rations très peu probables de contribuer considérablement aux estimations d’aléa ; l’effet de la
troncature des prédictions de la relation d’atténuation est analysé au chapitre 7.
2.5 Set d’accélérations cibles et interpolation
Le code CRISIS détermine les accélérations cibles pour lesquelles le calcul du taux annuel
est effectué à partir de trois paramètres d’entrée : une accélération minimale ¹
min
, une accé-
lération maximale ¹
max
et un nombre de cibles. Les cibles sont distribuées dans l’intervalle

min

max
] avec un pas qui augmente de manière logarithmique avec l’accélération.
Le code calcule les taux annuels de dépassement de ces cibles puis interpole les accéléra-
tions correspondant aux taux annuels d’intérêt. Il importe de choisir judicieusement les bornes
minimales et maximales des accélérations cibles, ainsi que le nombre requis, afin que les taux
annuels soient correctement interpolés. Dans cette étude, les taux annuels de dépassement sont
calculés pour 80 accélérations entre 30 et 3000 gal. Sur la figure 2.4 est représenté un exemple
d’interpolation sur la courbe d’aléa. Les symboles carrés correspondent aux taux annuels cal-
culés, la croix correspond au résultat de l’interpolation pour la période de retour de 475 ans. Le
pas en accélération est très fin, le calcul des taux annuels sur cette série d’accélérations assure
une interpolation très précise pour toutes les périodes de retour de 100 à 100000 ans.
io
♦2. LE CODE DE CALCUL CRISIS
FIG. 2.2 – Subdivision des zones sources en triangles (cf. légende de la figure 2.1), avec
1:i: = 11 km et 1:i: = 3 (Haut), puis avec 1:i: = 1 km et 1:i: = 5 (Bas).
¸o
0.5 1 1.5 2 2.5 3 3.5
0
0.005
0.01
0.015
log
10
(PGA)
PDF
1σ2σ3σ
0.5 1 1.5 2 2.5 3 3.5
0
0.2
0.4
0.6
0.8
1
log
10
(PGA)
CDF
No T
N=1
N=2
N=3
FIG. 2.3 – Troncature de la distribution de probabilité normale prédite par la relation d’atténuation ;
à gauche : PDF normale non tronquée, à droite : CDF normale non tronquée en gris, tronquée à +1σ
(trait continu), à +2σ (tirets) et à +3σ (pointillés). Les CDF tronquées sont renormalisées.
10
2
10
1
10
2
10
3
10
4
10
5
10
6
P
e
r
i
o
d
e

d
e

r
e
t
o
u
r

(
a
n
n
e
e
s
)
Acceleration (gal)
475 ans
105gal
FIG. 2.4 – Exemple d’interpolation de l’accélération correspondant à la période de retour 475
ans ; symboles carrés : résultat du calcul de l’aléa, croix : résultat de l’interpolation (105 gal).
¸1
♦2. LE CODE DE CALCUL CRISIS
¸i
Chapitre 3.
Constitution du catalogue de sismicité
Deux types de données sont disponibles pour décrire la sismicité de la France, les don-
nées historiques et les données instrumentales. La base de données historique SisFrance ras-
semble des informations sur des séismes s’étant produit dans le dernier millénaire, tandis que
le catalogue instrumental du LDG (Laboratoire de Détection Géophysique du Commissariat à
l’Energie Atomique) couvre les derniers 40 ans. Les séismes historiques sont décrits en terme
d’intensités et les séismes instrumentaux en terme de magnitudes. Un catalogue de sismicité doit
être constitué avec une seule mesure caractérisant tous les événements sismiques. La magnitude
est choisie ici comme mesure homogène, il est donc nécessaire de transformer les intensités ma-
crosismiques de tous les événements historiques en magnitudes.
Les zones les plus actives en France sont situées aux frontières avec les pays voisins. Pour
estimer l’aléa sismique sur le territoire, la zone étudiée doit être plus large et comprendre les
régions frontalières : dans cette étude, la fenêtre géographique choisie s’étend de −6

à 10

en
longitude et 41

à 52

en latitude.
3.1 Le catalogue de sismicité instrumental
3.1.1 Choix du catalogue du LDG
Le réseau sismologique du LDG est le seul réseau français assurant une couverture du
territoire depuis plus de 40 ans. Le catalogue utilisé dans cette étude débute en 1962 et se ter-
mine fin 1999. La magnitude estimée est une magnitude locale `
L
(Nicolas et al., 1998). L’en-
semble des séismes de magnitude supérieure ou égale à 3.0 sont reportés sur la carte 3.1 (4666
événements dans la fenêtre géographique considérée). Les deux magnitudes les plus fortes en-
registrées depuis 1962 s’élèvent à 5.8, elles correspondent au séisme de Ligurie en 1963 et au
séisme de Roermond en 1992 (cf. carte 3.1).
Les stations sismologiques du réseau LDG sont localisées sur le territoire français, les
caractérisations des séismes qui se produisent aux frontières sont moins précises que celles des
¸¸
♦3. CONSTITUTION DU CATALOGUE DE SISMICITÉ
séismes à l’intérieur du territoire. Cependant, afin de limiter les corrélations entre magnitudes,
nous avons choisi de ne pas utiliser de catalogues sismiques étrangers. En effet, même si un ca-
talogue étranger dispose d’une magnitude locale `
L
, cette magnitude ne sera probablement pas
équivalente à la magnitude `
L
du LDG et une corrélation devra être effectuée. La détermina-
tion des coefficients d’une corrélation est toujours délicate, la conversion d’une magnitude dans
une autre entraîne toujours des incertitudes (Dyck, 1985). L’utilisation du catalogue du LDG
seul assure l’homogénéité du catalogue instrumental en magnitude mais aussi dans le temps,
ce qui est extrêmement important pour le calcul des taux de récurrence. Par ailleurs, seules les
magnitudes supérieures ou égales à 3.5 sont utilisées pour le calcul des paramètres de sismi-
cité : ce seuil est suffisamment élevé pour assurer une bonne couverture du réseau LDG dans
les zones sources situées aux frontières. Les orientations prises dans les études d’aléa précé-
dentes sont différentes : dans l’étude EPAS (Dominique et al., 2001), les catalogues des pays
voisins sont intégrés au catalogue français ; de nombreuses corrélations sont utilisées (tant sur
le catalogue instrumental que sur les intensités historiques). A l’inverse, pour la révision du zo-
nage sismique de la France, les catalogues de sismicité étrangers sont utilisés séparément dans
les zones sources localisées sur le sol du pays correspondant.
D’autre part, environ 250 séismes de magnitude supérieure à 3.0 disposent uniquement
d’une magnitude de durée, ils sont pour la plupart antérieurs à 1980. Le report sur un graphique
de la magnitude locale en fonction de la magnitude de durée, pour les événements disposant des
deux, montre qu’elles sont comparables et qu’il n’est pas nécessaire d’utiliser une corrélation.
Dans cette étude, les magnitudes de durée sont considérées équivalentes aux magnitudes `
L
.
3.1.2 Traitement des répliques
Dans le calcul probabiliste, les séismes sont supposés se produire de manière aléatoire
dans le temps et l’espace (processus de Poisson). Cette hypothèse est très forte, dans la réalité
les séismes ne sont pas indépendants les uns des autres, l’occurrence d’un séisme sur une faille
modifie le champ de contrainte et influence la capacité de cette faille à produire d’autres séismes.
Tenir compte de ces dépendances est impossible à l’heure actuelle en France, en raison du faible
nombre de données disponibles ; le processus de Poisson reste le seul modèle d’occurrence
applicable. En revanche, dans les régions plus actives, lorsqu’une zone source délimite une
faille bien renseignée, un modèle d’occurrence plus réaliste peut être appliqué : le modèle de
renouvellement. La probabilité d’occurrence d’un séisme sur la faille augmente lorsque le temps
écoulé depuis le dernier séisme augmente (Cramer et al., 2000).
L’hypothèse d’un processus de Poisson amène de nombreuses études probabilistes à «net-
toyer» le catalogue de sismicité de ces répliques. Dominique et al. (2001) élimine ainsi ma-
nuellement les séismes se produisant entre une semaine avant et un an après le choc princi-
¸¡
−6 −4 −2 0 2 4 6 8 10
41
42
43
44
45
46
47
48
49
50
51
52
Catalogue instrumental (LDG), 1962−1999
Longitude
L
a
t
i
t
u
d
e
[3.0 4.0[
[4.0 5.0[
[5.0 6.0[
FIG. 3.1 – Sismicité instrumentale, catalogue du LDG [1962-1999], M
L
≥ 3.0.
pal. Identifier les répliques des événements principaux est une opération extrêmement délicate ;
nous avons cependant tenté d’identifier les répliques du catalogue instrumental grâce à l’algo-
rithme de Reasenberg (1985). Nous avons conservé les paramètres requis par son programme
déterminés pour des catalogues de sismicité en Californie : définir des paramètres propres aux
données françaises serait très difficile vu le faible nombre de séismes de magnitude significative
(` ≥ 4.0).
L’algorithme de Reasenberg est appliqué sur les magnitudes instrumentales supérieures à
3.0. Les chocs principaux et répliques sont reportés sur la carte 3.2 lorsque la magnitude du choc
principal est supérieure à 3.5 et lorsqu’il y a plus de 1 réplique (au total 36 chocs principaux).
A côté de chaque groupe de séismes est mentionnée la magnitude du choc principal. Pour les
11 chocs principaux dont la magnitude est supérieure à 5.0 (en rouge), la magnitude maximale
est suivie de la magnitude minimale des répliques, de l’année et du nombre de séismes total
détectés. Par exemple, 61 répliques du séisme d’Arudy (` = 5.7, 1980) dans les Pyrénées sont
identifiées, ou encore 2 répliques du séisme d’Arette (` = 5.3, 1967).
La sismicité en France est faible et les répliques sont peu nombreuses si l’on considère les
magnitudes supérieures à 3.5 (magnitudes utilisées dans la suite pour le calcul des paramètres
¸j
♦3. CONSTITUTION DU CATALOGUE DE SISMICITÉ
−6 −4 −2 0 2 4 6 8 10
41
42
43
44
45
46
47
48
49
50
51
52
4.8
5.8 3.4 1963 13
5.4 3.2 1964 6
5.3 3.5 1967 3
5.5 3.1 1970 3
4.7
3.6
5.7 3 1972 15
3.8
3.8
3.6
4.5
5.6 3 1978 18
5.7 3 1980 62
4.3
4.9
4.7
4.7
4.3
4.6
4
4.7
4.8
4.7
3.6
5.8 3 1992 10
4.7
4.1
3.8
4.4
3.8
4.3
5.6 3 1996 11
5.3 3 1996 4
4.2
4
Longitude
L
a
t
i
t
u
d
e
FIG. 3.2 – Chocs principaux et répliques identifiés par l’algorithme de Reasenberg (1985)
appliqué sur le catalogue instrumental (` ≥ 3.0) ; chiffres noirs : magnitude `
P
du choc
principal ; chiffres rouges : `
P
≥ 5.0, suivie de la magnitude minimale des répliques, de
l’année et du nombre de répliques (en comptant le choc principal).
de sismicité). Les taux de sismicité sont néanmoins légèrement diminués si le catalogue nettoyé
est utilisé plutôt que le catalogue original. Cependant, nous avons constaté que les différences
entre les pentes β des courbes de récurrence calculées sur le catalogue nettoyé et sur le catalogue
original sont inférieures à l’écart-type sur β (cf. chapitre 5). Nous avons finalement choisi de ne
pas travailler sur le catalogue nettoyé : le catalogue instrumental reste intègre. L’incertitude liée
au nettoyage des répliques n’est donc pas abordée dans cette étude.
3.1.3 La courbe de Gutenberg-Richter
Le catalogue instrumental [1962-1999] contient un grand nombre de séismes de faible
magnitude (Figure 3.1). Les hypothèses requises pour modéliser les courbes de récurrence que
sont la décroissance exponentielle du nombre de séismes avec la magnitude et la stationnarité
dans le temps du taux de sismicité, peuvent être partiellement vérifiées.
Sur la figure 3.3, le nombre de séismes est reporté en fonction de la magnitude, pour
¸0
le catalogue instrumental entier. Les nombres de séismes, cumulés et non-cumulés, décroissent
exponentiellement lorsque la magnitude augmente à partir de la magnitude 3.2. Cette magnitude
est la magnitude de coupure du catalogue instrumental, les magnitudes inférieures à 3.2 ne sont
pas enregistrées de manière exhaustive sur les 38 ans que couvre le catalogue. Le catalogue
est en revanche complet pour les magnitudes supérieures à 3.2. La pente de la décroissance
exponentielle est par ailleurs de l’ordre de 1.1 (/ = |:10β).
1 2 3 4 5 6
10
0
10
1
10
2
10
3
10
4
10
5
Magnitude
N
o
m
b
r
e

d
e

s
é
i
s
m
e
s
FIG. 3.3 – ]
Courbes de Gutenberg-Richter pour le catalogue instrumental du LDG, période [1962-1999] ;
cercles vides : nombres de séismes non-cumulés ; cercles pleins : nombres de séismes cumulés ;
pas en magnitude : 0.2.
D’autre part, l’hypothèse de stationnarité dans le temps de la courbe de Gutenberg-Richter
peut être vérifiée dans une certaine mesure à partir du catalogue instrumental. Sur le graphique
3.4 sont superposées les courbes de Gutenberg-Richter (cumulées) sur 4 périodes de temps de
9 ans successives (de 1964 à 1999). Les courbes se superposent sur l’intervalle de magnitude
[2.8-4.3], les pentes et les taux sont comparables d’une période à l’autre. En revanche, à partir de
magnitude 4.3-4.5, les courbes divergent. Les périodes de 9 ans ne sont pas représentatives pour
ces magnitudes : elles sont trop courtes par rapport à leurs temps de retour. Par ailleurs, la baisse
du seuil de détection du réseau avec le temps apparaît clairement : le nombre de séismes pour
les magnitudes inférieures à 3.0 augmente vers les périodes récentes. Les nombres de séismes
s’alignent à partir d’une magnitude de plus en plus petite (le nombre de stations du réseau LDG
augmente et le territoire est de mieux en mieux couvert).
Ainsi, sur la période de temps d’observation instrumentale et à l’échelle du territoire, la
¸¬
♦3. CONSTITUTION DU CATALOGUE DE SISMICITÉ
loi puissance de Gutenberg-Richter et la stationnarité du taux de sismicité sont vérifiées.
1.5 2 2.5 3 3.5 4 4.5 5 5.5 6
10
0
10
1
10
2
10
3
10
4
Magnitude
N
o
m
b
r
e

d
e

s
é
i
s
m
e
s
[1964−1972]
[1973−1981]
[1982−1990]
[1991−1999]
FIG. 3.4 – Courbes de Gutenberg-Richter sur 4 périodes de 9 ans successives du catalogue
instrumental.
3.2 Le catalogue de sismicité historique
La base de données SisFrance rassemble l’ensemble des informations disponibles concer-
nant les séismes historiques (Levret et al., 1994, 1996). Ces archives portent sur les derniers
mille ans, ce sont des écrits de toute sorte (coupures de presse, manuscrits anciens, archives
ecclésiastiques ou d’Etat, travaux scientifiques,...) interprétés en terme d’intensités macrosis-
miques. L’intensité macrosismique estime la force de la secousse sismique en un lieu donné.
Elle repose sur les effets du séisme observés sur les personnes, les objets et les constructions.
L’échelle d’intensité utilisée dans la base SisFrance est l’échelle MSK 1964 (Medvedev et al.,
1967). Elle compte 12 degrés, le premier degré (I) correspond à une secousse totalement im-
perceptible, le dernier (XII) n’a jamais été observé, il correspond à la destruction totale de tout
type de bâtiment. Le degré III correspond au seuil de perception humaine de la secousse. Les
séismes de la base SisFrance sont décrits par des observations d’intensité ; à chaque observa-
tion sont associés des coordonnées géographiques et un coefficient de qualité selon le degré de
fiabilité des documents historiques interprétés. Les épicentres macrosismiques ont par ailleurs
été déterminés et les intensités à l’épicentre déduites.
¸8
3.2.1 Calcul de la magnitude historique
Une corrélation intensité-magnitude permet de calculer les magnitudes des séismes his-
toriques. Les séismes post-1962 ne sont pas concernés puisque c’est la date du début du cata-
logue instrumental. Cependant ces séismes disposant à la fois d’une magnitude instrumentale et
d’une description en termes d’intensité sont utilisés pour dériver les coefficients des corrélations
intensité-magnitude.
Deux corrélations existent à l’heure actuelle en France, basées sur la même technique
d’inversion mais sur des données différentes. La corrélation Levret (1994) repose sur 73 séismes
disposant d’une magnitude locale LDG. La corrélation Scotti (Griot-Pommera & Scotti, 2001)
repose sur 10 séismes : les séismes les mieux renseignés des 73 précédents et des séismes
antérieurs à 1962 de magnitude plus élevée (magnitude IPGP, Cara & Rouland (1987)). Les
distances sont hypocentrales dans la corrélation Levret et épicentrales dans la corrélation Scotti :
– Corrélation Scotti :
` = 0.64 ∗ 1 + 1.86 ∗ |oo
10
1c −0.45 (3.1)
– Corrélation Levret :
` = 0.44 ∗ 1 + 1.48 ∗ |oo
10
1/ + 0.48 (3.2)
avec ` la magnitude, 1 l’intensité, 1
h
la distance hypocentrale et 1
e
la distance épicen-
trale. Sur la figure 3.5 sont présentés les séismes ayant servi à établir la corrélation Levret : les
magnitudes macrosismiques sont en ordonnée et les magnitudes instrumentales en abscisse. La
superposition de la droite n = r montre que la corrélation Levret sous-estime les magnitudes
supérieures à 5.0. Sur la même figure (graphique du bas) sont représentés les séismes ayant servi
à établir la corrélation Scotti, l’objectif était de disposer d’un jeu de données plus équilibré (ac-
corder un poids comparable à chaque intervalle de magnitude). Les magnitudes Levret pour
ces séismes sont également reportées : les magnitudes Scotti sont plus proches des magnitudes
instrumentales (`
L
, LDG) que les magnitudes Levret.
La corrélation Levret est appliquée avec une profondeur de 10 km pour tous les séismes.
Les profondeurs des séismes historiques sont très mal contraintes, la profondeur de 10 km cor-
respond à la profondeur moyenne des séismes en France (Autran et al., 1998). La figure 3.6
montre la distribution des différences entres les deux estimations de magnitude pour l’ensemble
des séismes historiques utilisés dans cette étude : les magnitudes Scotti sont en moyenne supé-
rieures aux magnitudes Levret de 0.4-0.5 degré.
La magnitude peut être calculée directement à partir de l’intensité épicentrale selon les
équations 3.1 ou 3.2, comme dans les études probabilistes de Martin et al. (2002a) et Domi-
¸o
♦3. CONSTITUTION DU CATALOGUE DE SISMICITÉ
3 3.5 4 4.5 5 5.5 6 6.5 7
3
3.5
4
4.5
5
5.5
6
6.5
7
Magnitude instrumentale
M
a
g
n
i
t
u
d
e

m
a
c
r
o
s
i
s
m
i
q
u
e
MLevret
3 3.5 4 4.5 5 5.5 6 6.5 7
3
3.5
4
4.5
5
5.5
6
6.5
7
Magnitude instrumentale
M
a
g
n
i
t
u
d
e

m
a
c
r
o
s
i
s
m
i
q
u
e
MLevret
MScotti
FIG. 3.5 – Données sur lesquelles sont basées les corrélations Levret et Scotti : Haut, jeu de données
utilisées pour établir la corrélation Levret ; Bas, jeu de données utilisées pour établir la corrélation
Scotti.
nique et al. (2001). Cependant, l’incertitude sur la détermination de l’intensité épicentrale est
grande (elle ne correspond pas forcément à une observation). Nous avons préféré utiliser l’en-
semble des observations d’intensité disponibles pour chaque séisme. Dans un premier temps,
les observations sont rassemblées par classe d’intensité I et pour chaque classe une distance à
l’épicentre macrosismique moyenne est calculée. Cette distance constitue le rayon-équivalent
de l’isoséiste. La corrélation fournit autant d’estimations de magnitude qu’il y a de classes d’in-
tensité renseignées ; la magnitude attribuée au séisme est finalement la moyenne arithmétique
de ces magnitudes.
¡o
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
0
20
40
60
80
100
120
MScotti−MLevret
N
o
m
b
r
e

d
e

s
e
i
s
m
e
s
FIG. 3.6 – Différences entre M
Scotti
et M
Levret
pour les 320 séismes historiques pour lesquels
M
Scotti
≥ 4.5.
3.2.2 Extraction de la base de données SisFrance
Sur des critères que nous avons fixés afin d’assurer une estimation fiable de la magni-
tude, les séismes suffisamment renseignés sont extraits de la base de données SisFrance afin de
constituer le catalogue de sismicité historique. Dans la base, chaque observation dispose d’un
coefficient A, B ou C selon la qualité des renseignements. Le coefficient C est attribué lorsque
«la description des effets est douteuse du fait de sources incertaines, voire peu fiables et des
recherches supplémentaires sont nécessaires» (Levret et al., 1996).
Dans un premier temps, les rayons des isoséistes sont calculés pour les séismes disposant
d’au moins une observation dans une classe d’intensité supérieure ou égale à III (intensité mi-
nimale correspondant au seuil de détection par les personnes). Les observations de qualité C ne
sont pas prises en compte. Ainsi les petits séismes mal contraints sont éliminés.
Le séisme est finalement retenu et une magnitude est calculée si au moins trois classes
d’intensité supérieure ou égale à III sont renseignées (disposent d’au moins une observation).
La magnitude moyenne est ainsi calculée sur un minimum de trois valeurs, les demi-degrés
constituent des classes (par exemple IV-V).
Le catalogue historique compte finalement 570 séismes. Au total, deux catalogues de 570
séismes sont disponibles puisque deux corrélations intensité-magnitude existent (équations 3.1
et 3.2). Le catalogue Scotti est représenté sur la figure 3.7, il contient 320 magnitudes supé-
rieures ou égales à 4.5. Les zones éclairées sont les mêmes que pour les 38 ans de sismicité
instrumentale 3.1, les magnitudes des séismes sont cependant plus élevées.
¡1
♦3. CONSTITUTION DU CATALOGUE DE SISMICITÉ
−6 −4 −2 0 2 4 6 8 10
41
42
43
44
45
46
47
48
49
50
51
52
Longitude
L
a
t
i
t
u
d
e
[4.0 5.0[
[5.0 6.0[
[6.0 ...[
FIG. 3.7 – Sismicité historique [1356-1961], M
Scotti
≥ 4.0.
3.2.3 Caractéristiques du catalogue historique
Le report des séismes selon leur magnitude et leur date d’occurrence (figure 3.8, page 43)
révèle une caractéristique importante du catalogue historique : la perte de l’information lorsque
l’on remonte dans le temps. Par exemple, les faibles magnitudes [4.0-4.5[ ne sont reportées
que depuis la fin du A1A
e
siècle ; tandis que de 1350 à 1750, les magnitudes reportées sont
quasiment toutes supérieures à 6.0.
D’autre part, les magnitudes historiques correspondent à la moyenne des magnitudes cal-
culées pour chaque isoséiste. Les différences entre les magnitudes maximale et minimale de
chaque événement sont reportées en fonction de la magnitude moyenne (figure 3.9, page 44).
Ces différences sont de l’ordre de 1 degré de magnitude. Sur le graphique, la moyenne des dif-
férences par intervalle de largeur 0.5 est également représentée (courbe noire), ces différences
sont stables en moyenne sur toute la gamme de magnitude : la technique de calcul n’a pas intro-
duit de biais. De cette distribution des différences entre estimations minimale et maximale peut
être déduite une incertitude moyenne de 0.5 degré sur la magnitude historique.
Note : Le catalogue historique Scotti contient plusieurs magnitudes de l’ordre de 7.0-7.2 ;
les magnitudes du catalogue Scotti sont plus élevées que celles du catalogue Levret. La corré-
¡i
4 4.5 5 5.5 6 6.5 7 7.5
1300
1400
1500
1600
1700
1800
1900
2000
Magnitude
T
e
m
p
s

(
a
n
n
é
e
s
)
FIG. 3.8 – Distribution en temps et magnitude, catalogue de sismicité historique [1356-1961], magni-
tudes historiques calculées avec la corrélation Scotti.
lation Scotti fournit des magnitudes historiques plus proches des magnitudes instrumentales
`
L
du LDG sur l’intervalle [4.0-6.5] que la corrélation Levret (cf. figure 3.5, page 40). Par
ailleurs, les estimations des magnitudes des deux séismes récents de Hennebont (30/11/02) et
Rambervillers (22/02/03) sont éloquentes :
– Hennebont : `
L
(11G) = 5.7, `
L
(1c`coo) = 5.4, `
W
(11H) = 4.3 ;
– Rambervillers : `
L
(11G) = 5.9, `
L
(1c`coo) = 5.4, `
W
(11H) = 4.8,
(Le 1c`coo est le Réseau National de Surveillance Sismique, géré par l’EOST de
Strasbourg (Ecole et Observatoire des Sciences de la Terre) ; l’11H est basé à Zurich).
Ces magnitudes conduisent à supposer qu’une magnitude `
L
(11G) de 7.0 correspond à
une magnitude `
W
plus faible. L’estimation de la magnitude ne peut être traitée dans le cadre
de cette thèse, mais elle constitue une problématique majeure.
3.3 Constitution du catalogue combiné instrumental et histo-
rique
Les corrélations M-I sont établies à partir de séismes décrits par une magnitude locale
LDG (à l’exception de quelques séismes antérieurs à 1962). Les magnitudes historiques cal-
culées et les magnitudes instrumentales sont par conséquent considérées homogènes. Chaque
¡¸
♦3. CONSTITUTION DU CATALOGUE DE SISMICITÉ
4 4.5 5 5.5 6 6.5 7 7.5
0
0.5
1
1.5
2
2.5
3
3.5
4
Magnitude moyenne calculée
D
i
f
f
é
r
e
n
c
e

M
m
a
x

M
m
i
n
FIG. 3.9 – Distribution des différences entre les estimations de magnitudes minimales et maximales, en
fonction de la magnitude moyenne, pour chaque séisme historique (M
Scotti
), courbe continue : moyenne
des différences par intervalle de largeur 0.5.
catalogue historique est assemblé avec le catalogue instrumental en un unique catalogue cou-
vrant la période [1356-1999]. Deux catalogues sont donc disponibles pour l’estimation de l’aléa
sismique, ils seront appelés les catalogues Scotti et Levret dans la suite. Dans toute notre étude,
c’est le catalogue Scotti qui sera principalement utilisé, mais le catalogue Levret sera également
employé afin d’estimer la dépendance des résultats avec le choix de la corrélation M-I.
Dans le calcul probabiliste, les mouvements du sol engendrés par les séismes sont calculés
à partir d’une relation d’atténuation. Pour une distance et une magnitude données, cette relation
prédit le mouvement du sol au site considéré (chapitre 1). La magnitude du catalogue devrait
par conséquent être la même que celle de la relation d’atténuation utilisée. La relation d’atté-
nuation utilisée dans cette étude (Berge-Thierry et al., 2003) a été dérivée à partir de magnitudes
de surface `
S
(chapitre 4). Les séismes du catalogue LDG disposant des deux estimations de
magnitudes `
L
et `
S
sont actuellement trop peu nombreux pour établir une corrélation fiable.
Cependant, il existe une corrélation `
b
-`
S
pour la France (Dufumier), mais elle nécessite le
recours à une seconde corrélation `
L
-`
b
. A chaque conversion entre échelles de magnitude,
l’incertitude sur la nouvelle magnitude augmente. Notre objectif n’est pas une estimation ab-
solue de l’aléa sismique mais une analyse des incertitudes sur les estimations d’aléa liées à
la méthode probabiliste. Nous avons donc préféré conserver les magnitudes `
L
plutôt que de
constituer un catalogue qui serait inévitablement biaisé. C’est également l’orientation prise lors
de la révision du zonage sismique français (Martin et al., 2002a). Il est cependant certain que
dans le futur les efforts doivent être portés sur l’établissement d’une corrélation `
L
-`
S
.
¡¡
Chapitre 4.
Zonage et relation d’atténuation
Le calcul de l’aléa sismique probabiliste repose sur trois données de base : un catalogue
de sismicité de la région d’étude, un zonage sismotectonique et un modèle d’atténuation du
mouvement du sol adapté au contexte tectonique. Le zonage et la relation d’atténuation choisis
pour cette étude sont présentés dans ce chapitre. Le zonage sismotectonique utilisé est un zonage
de référence, issu d’un travail de plusieurs années où des spécialistes de différents domaines
(géophysique, géologie, génie civil, sismologie) sont intervenus (Autran et al., 1998). Il a été
utilisé dans la révision du zonage réglementaire français (Martin et al., 2002b). D’autre part,
la relation d’atténuation choisie Berge-Thierry et al. (2003) est la relation adaptée au contexte
français la plus récente, c’est également la relation de référence dans la réglementation nucléaire
en France.
4.1 Le zonage sismotectonique
La sismicité de la France est modérée et diffuse, il est difficile d’associer les événements
sismiques aux failles qui les génèrent. A l’échelle du territoire, seules des aires géographiques
larges peuvent délimiter les zones sources sismiques et une profondeur moyenne est attribuée
à chaque zone source. Ces zones sont déterminantes dans la méthode probabiliste de Cornell-
McGuire : à l’intérieur de chaque zone est modélisée une courbe de récurrence, la sismicité est
ensuite supposée répartie de manière uniforme dans la zone.
4.1.1 Le zonage AFPS-EPAS (Autran et al., 1998)
Le zonage utilisé dans cette étude est issu du groupe de travail AFPS-EPAS (Association
Française de génie Parasismique/Evaluation Probabiliste de l’Aléa Sismique) auquel ont parti-
cipé des spécialistes appartenant à différents organismes (BRGM, GEO-TER, IPSN et EDF).
La méthodologie qui a été mise en place a consisté à établir dans un premier temps plusieurs
zonages basés sur des critères différents, puis dans un second temps à fusionner ces zonages
¡j
♦4. ZONAGE ET RELATION D’ATTÉNUATION
pour obtenir le zonage probabiliste. Les zonages existants, établis pour des estimations déter-
ministes de l’aléa, ont servi de support. Dans un zonage à visée probabiliste, la répartition de la
sismicité devient un critère important.
Trois grands thèmes ont abouti à trois zonages :
– Zonage structural : les grandes limites structurales de la croûte fragile (nature de la
croûte et histoire de sa déformation depuis environ 300 Ma).
– Types de déformation : répartition des déformations récentes et actuelles (tectonique
alpine des 25 derniers Ma).
– Répartition de la sismicité (les catalogues disponibles sont supposés représentatifs des
principales discontinuités crustales).
Les trois jeux de limites obtenus sont ensuite compilés pour aboutir à un zonage unique «pro-
babiliste». Les limites de ce zonage final sont classées en trois niveaux : limites principales
(structuration alpine), limites secondaires (héritage hercinien) et limites peu marquées (les li-
mites qui ne sont ni principales ni secondaires, les transitions non expliquées par des éléments
structuraux). Un quatrième type de limites est ajouté : les limites «de modèle», imposées au
pourtour du territoire afin de fermer les zones. Le zonage et la nature des limites, extraits de
Autran et al. (1998), sont présentés en annexe.
De plus, un degré de confiance est attribué à chaque limite, séparant les limites «fiables»
des limites «moins fiables» (traits pointillés sur la carte en annexe). Cette hiérarchie des limites
de zones est maintenue dans le zonage final afin de pouvoir envisager des regroupements de
zones, lors du calcul des paramètres de sismicité, lorsque l’échantillon de sismicité est trop
restreint.
Le zonage utilisé dans cette étude correspond aux limites et profondeurs considérées dans
l’étape 3 du groupe de travail AFPS-EPAS (Dominique et al., 2001). Il est présenté sur la figure
4.1 page 47. C’est une version possible du zonage probabiliste AFPS-EPAS présenté en annexe.
4.1.2 Les conséquences de l’utilisation d’un zonage
Rôle déterminant du zonage
Le choix du zonage est déterminant pour l’estimation probabiliste de l’aléa sismique. La
superposition d’une carte d’aléa au modèle des zones sources utilisé montre que les contours
des valeurs d’aléa suivent les limites des zones sources. En un point géographique, l’aléa peut
dépendre très fortement de la zone source dans laquelle se trouve ce site. Dans le calcul pro-
babiliste, le taux de sismicité total d’une zone source est en effet redistribué uniformément sur
toute la surface de la zone source. L’importance du zonage apparaît évidente sur cet exemple
simple : supposons qu’une zone fortement sismique A jouxte une zone faiblement sismique B.
¡0
−6 −4 −2 0 2 4 6 8 10
41
42
43
44
45
46
47
48
49
50
51
52
Longitude
L
a
t
i
t
u
d
e
[3.5 4.0[
[4.0 5.0[
[5.0 6.0[
[6.0 ...[
FIG. 4.1 – Zonage sismotectonique utilisé dans cette étude (Autran et al., 1998, Dominique
et al., 2001), superposé au catalogue de sismicité [1356-1999].
Rassembler les zones A et B dans une seule et même zone source conduit à diminuer l’aléa des
points de la zone A et à l’inverse à augmenter l’aléa des points de la zone B (par rapport à un
zonage dans lequel les zones A et B seraient individuellement des zones sources). Dans le cadre
d’une estimation de l’aléa sismique en vue de l’établissement d’un zonage réglementaire, il est
indispensable de calculer l’aléa en envisageant différentes limites possibles. Cependant, notre
objectif n’était pas d’estimer un niveau d’aléa mais d’identifier d’autres paramètres clefs qui
contrôlent l’aléa. L’objectif de cette étude n’est pas d’élaborer un nouveau zonage, nous avons
choisi de n’utiliser qu’un jeu de limites de zones (Figure 4.1).
¡¬
♦4. ZONAGE ET RELATION D’ATTÉNUATION
Lorsque les limites de zones sont des failles...
Les critères choisis conduisent à délimiter des zones par des failles ou des systèmes de
failles : faille des Cévennes (limite :

2, cf. annexe), failles du rift Rhénan (limites :

7), faille
de Nîmes (:

13), faille Nord Pyrénéenne (:

29), faille de la Têt (:

31)... Le fait qu’une faille
constitue une limite entre deux zones sources dans une estimation de l’aléa sismique est forte-
ment criticable. Il est bien évident que si cette faille produit un séisme, les dommages seront des
deux côtés de la faille. Une approche probabiliste par failles conduirait au contraire à délimiter
des zones étroites autour de ces failles, cette approche serait plus satisfaisante mais elle néces-
site une connaissance des failles actives qui n’existe pas encore pour l’ensemble du territoire
français. Cette approche est actuellement expérimentée pour la région de la Durance (Clément
et al., 2004).
4.2 La relation d’atténuation
4.2.1 La relation d’atténuation Berge-Thierry (2003)
Le choix de la relation d’atténuation est déterminant pour l’estimation de l’aléa sismique,
il pose cependant des difficultés importantes dans les zones à sismicité modérée. Les données
de mouvements forts sont en effet peu nombreuses, les relations sont dérivées à partir de bases
rassemblant des données de plusieurs pays. Les études d’estimation de l’aléa sismique les plus
récentes en France utilisent diverses relations considérées adaptées au contexte géodynamique
français : celles de Mohammadioun & Pecker (1993) et Tento et al. (1992) dans l’étude EPAS
(Dominique et al., 2001) ; celles de Ambraseys (1995), Ambraseys et al. (1996) et Berge-Thierry
et al. (2003) dans la révision du zonage réglementaire français (Martin et al., 2002a).
La relation Berge-Thierry et al. (2003), la plus récente, a été choisie dans cette étude.
Les événements sélectionnés et la paramétrisation de la relation sont adaptés au contexte de
sismicité européen. Cette relation est par ailleurs la relation de référence pour les études d’aléa
sismique dans le nucléaire (Règle Fondamentale de Sûreté 1.2.c, Berge-Thierry et al. (2000)).
Elle est de la forme :
log
10
¹(1) = c(1)`
S
+ /(1)1 −|oo
10
1 + c
i
(1) σ
log
10
A
(4.1)
où A est la pseudo-accélération en cm.s

2, `
S
la magnitude de surface et R la distance hy-
pocentrale en km. Le coefficient c
i
a été évalué pour deux conditions de sol : site rocheux (c
1
,
\
S
>800m/s) et site sédimentaire (c
2
, 300 m/s < \
S
≤ 800 m/s). Les coefficients a, b et c
i
¡8
dépendent de la fréquence mais sont indépendants de la magnitude et de la distance. Les coef-
ficients au PGA (34 Hz) sont : c = 0.3118, / = −0.9303c-3, c1 = 0.1537c+1, c2 = 0.1573c+1
et σ
log
10
A
= 0.2923 (mouvements horizontaux). Les coefficients ont été calculés pour des fré-
quences de 0.1 à 34 Hz, ils sont également disponibles pour le mouvement vertical.
La base de données est contituée à 83% d’enregistrements européens (15 pays différents)
et afin de couvrir les grandes magnitudes (` ≥ 6.0), elle contient également 17% de données
californiennes. L’installation du RAP (Réseau Accélérométrique Permanent) est récente (initiée
en 1993), les enregistrements de mouvements forts sur le territoire français sont actuellement
peu nombreux et ne peuvent suffire pour établir une relation d’atténuation. Les coefficients de la
relation sont ainsi dérivés à partir d’enregistrements issus de régions de régimes tectoniques très
différents. La dispersion des données (0.2923 ≤ σ ≤ 0.4365, de 34 à 0.1 Hz) correspond donc
au mélange de différentes sources, chemins de propagation, et effets de site. Avec seulement
deux classes pour décrire les conditions de sites, la dispersion des données à l’intérieur d’une
classe est inévitablement importante. L’atténuation du mouvement est certainement différente
d’une région à l’autre (dans les Alpes et le Massif Armoricain par exemple), cependant il faudra
attendre longtemps avant de pouvoir établir des relations d’atténuation régionales à partir de
données réelles.
Pour illustration, les prédictions de l’atténuation avec la distance des valeurs au PGA sont
calculées pour une magnitude de 5.0 à une profondeur de 10 km(figure 4.2), pour un sol rocheux
et un site sédimentaire. Les valeurs prédites à ±σ sont également indiquées. Les données pré-
sentes dans la base correspondant à des séismes de magnitude 4.9, 5.0 et 5.1, sont superposées
aux courbes de prédiction. La dispersion des données est importante, des PGA sont observés à
2 et 3 écart-types au-dessus de la moyenne. En complément, les valeurs d’accélération prédites
par la relation à différents multiples de l’écart-type à partir de la moyenne sont reportées dans
le tableau 4.1 pour les magnitudes 5.0 et 6.0. Selon le nombre d’écart-types, l’accélération pré-
dite varie entre 0.005g et 0.283g, pour ` = 5.0, et entre 0.010g et 0.580g pour ` = 6.0. La
variabilité du mouvement prédit par la relation d’atténuation est très forte, comme le sont les
données réelles à partir desquelles est dérivée la relation.
4.2.2 Base de données et domaine de représentativité
Les graphiques de la figure 4.3 présentent le domaine de distribution des données en
distance et magnitude, pour les deux conditions de site. Les données à moins de 10 km et plus
de 100 km sont peu nombreuses. La faible quantité de données à courtes distances n’a pas
permis de contraindre un terme de saturation. Les enregistrements mondiaux montrent en effet
que le mouvement sature en champ proche. Le zonage sismotectonique de cette étude comporte
des zones sources à 10 et 15 km de profondeur (à l’exception d’une zone faiblement sismique,
¡o
♦4. ZONAGE ET RELATION D’ATTÉNUATION
10 20 30 40 50 60 70 80 90 100
0.6
0.8
1
1.2
1.4
1.6
1.8
2
2.2
2.4
2.6
Distance
l
o
g
1
0
(
P
G
A
)
Predicted Rock
Predicted Alluvium
Observed Rock
Observed Alluvium
FIG. 4.2 – Atténuation du logarithme de l’accélération en fonction de la distance pour M=5 ;
courbes continues : valeurs moyennes prédites par la relation d’atténuation (rocher et sol sédi-
mentaire) ; tirets : valeurs moyennes ±1σ ; cercles et croix : observations (extraites de la base
de données, 4.9 ≤ ` ≤ 5.1).
chapitre 5), les effets d’une absence de saturation sont probablement limités.
Par ailleurs, pour déterminer l’écart-type de la relation d’atténuation, les logarithmes des
accélérations sont supposés suivre une distribution log-normale. Le graphique de la figure 4.4
présente la distribution des résidus entre valeurs observées et valeurs prédites, pour tous les
mouvements horizontaux au PGA (rocher et site sédimentaire). A cette distribution est super-
posée une fonction de densité de probabilité normale, de moyenne zéro et d’écart-type σ
log
10
A
.
Les deux distributions se superposent correctement, l’hypothèse d’une distribution gaussienne
est globalement vérifiée.
Afin de définir le domaine de représentativité de la relation, les résidus entre valeurs
observées et valeurs prédites sont calculés et reportés sur des graphiques : en fonction de la
distance (figure 4.5) et en fonction de la magnitude (4.6). Sur toute la gamme de distances et
toute la gamme de magnitudes les résidus sont relativement symétriques par rapport à zéro ;
ils ne présentent par ailleurs pas de biais systématique pour une gamme de distances ou de
magnitudes précise. Le domaine de représentativité de la relation correspond donc au domaine
défini par les données, soit de 4 à 330 km en distance et de 4.0 à 7.9 en magnitude.
jo
Nb de σ ` = 5.0 ` = 6.0
3 0.283 0.580
2 0.144 0.296
1 0.074 0.151
0 0.038 0.077
−1 0.019 0.039
−2 0.010 0.020
−3 0.005 0.010
TAB. 4.1 – Accélérations prédites par la relation d’atténuation Berge-Thierry (2003) en o, pour
différents écarts au-dessous et au-dessus de la moyenne (0σ).
4 5 6 7 8
10
1
10
2
D
i
s
t
a
n
c
e

h
y
p
o
c
e
n
t
r
a
l
e

(
k
m
)
Magnitude
Rock data
4 5 6 7 8
10
1
10
2
D
i
s
t
a
n
c
e

h
y
p
o
c
e
n
t
r
a
l
e

(
k
m
)
Magnitude
Alluvium data
FIG. 4.3 – Distribution en distance et magnitude des données utilisées pour établir la relation
d’atténuation, au rocher et sur sol sédimentaire (mouvements horizontaux), extrait de Berge-
Thierry et al. (2003).
j1
♦4. ZONAGE ET RELATION D’ATTÉNUATION
−2 −1.5 −1 −0.5 0 0.5 1 1.5 2
0
0.02
0.04
0.06
0.08
0.1
0.12
0.14
0.16
log(Aobs)−log(Apred)
FIG. 4.4 – Distribution des résidus (différence entre le logarithme de l’accélération observée
et celui prédit, PGA, mouvements horizontaux de la base), et superposition d’une distribution
normale théorique de moyenne zéro et écart-type σ
log
10
A
.
10
0
10
1
10
2
10
3
−2
−1.5
−1
−0.5
0
0.5
1
1.5
2
Distance hypocentrale (km)
l
o
g
(
A
o
b
s
)

l
o
g
(
A
p
r
e
d
)

−σ
FIG. 4.5 – Distribution des résidus en distance : différence entre le logarithme de l’accélé-
ration observée et celui de la valeur prédite par la relation d’atténuation (PGA, mouvements
horizontaux et 5% d’amortissement), extrait de Berge-Thierry et al. (2003).
ji
4 4.5 5 5.5 6 6.5 7 7.5 8
−2
−1.5
−1
−0.5
0
0.5
1
1.5
2
Magnitude
l
o
g
(
A
o
b
s
)

l
o
g
(
A
p
r
e
d
)

−σ
FIG. 4.6 – Distribution des résidus en magnitude : différence entre le logarithme de l’accélé-
ration observée et celui de la valeur prédite par la relation d’atténuation (PGA, mouvements
horizontaux et 5% d’amortissement).

♦4. ZONAGE ET RELATION D’ATTÉNUATION

Chapitre 5.
Calcul des paramètres de sismicité
La méthode de Cornell-McGuire requiert la modélisation d’une courbe de récurrence dans
chaque zone source. Le modèle classique de l’exponentielle tronquée est utilisé. (équation 1.2,
chapitre 1). Ce chapitre traite dans un premier temps de la détermination des périodes complètes
de chaque intervalle de magnitude. Dans un second temps, les taux de sismicité λ(` ≥ 3.5) et
les pentes β des courbes de récurrence sont calculés dans chaque zone source, à partir des ma-
gnitudes supérieures où égales à 3.5, en appliquant la méthode de Weichert (1980). Ce modèle
de récurrence repose sur la loi puissance et l’invariance dans le temps du taux de sismicité ; en
fin de chapitre ces hypothèses sont illustrées sur le catalogue instrumental du territoire entier.
5.1 Extraction des parties complètes du catalogue
Le catalogue de sismicité, construit au chapitre 3, s’étend de 1356 à 1999. Pour une ma-
gnitude donnée, le taux annuel doit être estimé sur une période de temps où le catalogue est
exhaustif pour cette magnitude. Déterminer cette période «complète» revient à déterminer la
date à partir de laquelle tous les séismes pour cette magnitude donnée sont reportés sans oubli
dans le catalogue. Cette date est appelée «date de complétude». La période la plus longue pos-
sible doit être utilisée afin de calculer les taux sur un maximumde données et sur des périodes de
temps suffisamment grandes devant les temps de retour des magnitudes. Les faibles magnitudes
ne sont reportées de manière exhaustive que depuis la date de début du réseau instrumental. Les
dates de complétude des magnitudes élevées sont quant à elles beaucoup plus anciennes, ces
séismes ont eu des effets importants et ont marqué les populations, ils sont mentionnés dans
les archives. Ainsi, plus la magnitude augmente et plus la période complète correspondante
s’allonge.
Les méthodes d’estimation des périodes de complétude nécessitent un grand nombre de
données, les périodes sont par la suite déterminées sur le catalogue du territoire entier puis
supposées valides à l’intérieur de chaque zone source. Néanmoins, les régions ne se sont pas
peuplées de manière homogène dans l’histoire (les régions montagneuses sont moins bien ren-
jj
♦5. CALCUL DES PARAMÈTRES DE SISMICITÉ
seignées que les régions urbaines) et de la même manière le seuil de détection varie d’une région
à l’autre selon la densité du réseau instrumental. Le faible nombre de données ne permet pas
de tenir compte de cette variation dans l’espace. Une comparaison avec des périodes complètes
obtenues à l’échelle régionale est cependant possible dans les régions sismiques des Alpes et
des Pyrénées.
Deux méthodes de lecture grahique sont classiquement utilisées pour déterminer les pé-
riode complètes : la méthode «linéaire» et la méthode de Stepp (Stepp, 1972). Elles supposent le
taux de sismicité invariant dans le temps. Une autre méthode, qui ne repose pas sur cette hypo-
thèse, consiste à tracer la courbe de Gutenberg-Richter sur des intervalles de plus en plus longs
et à relier les magnitudes de coupure aux périodes temporelles considérées. Cette technique
n’est cependant applicable que pour les faibles magnitudes du catalogue instrumental ; sur des
périodes de temps plus longues, les données sont moins nombreuses et les décroissances expo-
nentielles ne sont pas retrouvées.
Les périodes complètes sont estimées pour les deux catalogues de sismicité Scotti et Le-
vret (tableau 5.1) ; l’obtention de ces périodes est illustrée sur le catalogue Scotti.
5.1.1 Estimation à partir du nombre cumulé de séismes
Cette méthode consiste à reporter en fonction du temps et pour chaque intervalle de ma-
gnitude le nombre cumulé de séismes. Les courbes sont linéaires lorsque le taux de sismicité est
constant, des tronçons linéaires successifs de pentes croissantes indiquent une baisse du seuil
de détection des séismes à des dates précises. Le tronçon linéaire le plus récent correspond
à la période complète. Cet accroissement d’informations disponibles peut s’expliquer par des
évolutions historiques.
Sur les figures 5.1 et 5.2 sont représentées les courbes des nombres cumulés de séismes
par intervalle de largeur 0.5 (0.5 correspond à l’incertitude moyenne sur la magnitude histo-
rique). Les tronçons linéaires sélectionnés sont indiqués, ainsi que les dates de complétudes.
Les courbes obtenues à partir des catalogues régionaux des Alpes et des Pyrénées sont égale-
ment superposées. De plus, sur les cartes sont reportés les séismes correspondant à l’intervalle
de magnitude considéré.
Pour les intervalles de magnitude [3.5-4.0[ et [4.0-4.5[, les courbes sont linéaires à partir
de 1962, date de mise en place du réseau sismologique. La courbe des magnitudes [4.5-5.0[
montre une rupture de pente vers 1920, ces magnitudes seront par conséquent utilisées à partir
de cette date. De la même manière, mais avec un nombre de séismes de plus en plus réduit,
les dates de complétudes déduites pour les magnitudes [5.0-6.0[ et [6.0-6.5[ sont 1870 et 1800.
L’estimation pour les magnitudes supérieures à 6.5 est très délicate, vu le très faible nombre de
séismes, mais la date de complétude est estimée à 1500. D’autre part, les courbes régionales
j0
Intervalle [3.5-4.4] [4.5-4.9] [5.0-5.4] [5.5-5.9] [6.0-6.4] [6.5-...]
Période S [1962-1999] [1920-1999] [1870-1999] [1870-1999] [1800-1999] [1500-1999]
Période L [1962-1999] [1900-1999] [1870-1999] [1800-1999] [1500-1999] [1500-1999]
TAB. 5.1 – Périodes de complétudes des deux catalogues de sismicité (o : Scotti ; 1 : Levret),
pour les magnitudes ` ≥ 3.5 groupées dans des intervalles de largeur 0.5.
sont globalement en accord avec la courbe du catalogue entier pour les magnitudes inférieures
à 6.5, sauf dans l’intervalle de magnitude [4.0-4.5[ où les courbes régionales semblent indiquer
une période complète plus large ([1920-1999]). La comparaison devient impossible au-delà de
6.5 car le nombre de séismes est alors extrêmement réduit dans chacune de ces régions.
Les périodes de complétude ne peuvent être estimées qu’à l’échelle du territoire, cepen-
dant l’hypothèse de leur validité à l’échelle de chaque zone source est globalement vérifiée dans
les régions les plus actives (Alpes et Pyrénées).
5.1.2 Méthode de Stepp
La méthode de Stepp (1972) est la seconde méthode graphique utilisée classiquement pour
la détermination des dates de complétude. Les résultats se lisent à nouveau sur un graphique.
Pour chaque intervalle de magnitude, la méthode consiste à calculer sur des périodes de
temps 1 de plus en plus longues l’écart-type du taux de sismicité moyen et à le reporter sur un
graphique en fonction de 1 (Figure 5.3, page 61). Le pas en temps est ici de 5 ans, la première
période est donc [1995-1999], la seconde [1990-1999],..., la dernière de largeur 660 ans est
[1340-1999].
Le taux annuel moyen sur la période de temps 1 (en années) est la moyenne des taux
annuels. La variance de ce taux moyen est donc :
σ
2
λ
(1) =
λ(1)
:(1)
=
λ(1)
1
. (5.1)
σ
λ
(1) =

λ(1)

1
(5.2)
Lorsque le taux est constant sur plusieurs années, il est constant d’une période 1 à l’autre
et l’écart-type σ
λ
est alors inversement proportionnel à

1. Sur un graphique log-log, les va-
leurs de σ
λ
s’alignent sur une droite de pente −0.5. La période complète se termine lorsque
les points s’écartent de cette droite. La méthode de Stepp apporte par ailleurs une information

♦5. CALCUL DES PARAMÈTRES DE SISMICITÉ
supplémentaire : la période minimale représentative est indiquée par le début de l’alignement,
elle est relative à l’aire géographique considérée.
Sur le graphique 5.3, les segments, représentés par des tirets et de pente −0.5, délimitent
les alignements des valeurs σ
λ
pour chaque intervalle de magnitude. Ainsi, la période minimale
représentative est de 5 ans pour l’intervalle [3.5-4.0[, 20 ans pour [4.0-4.5[, 40 ans pour [4.5-
5.0[, 50 ans pour [5.0-5.5[ et 80 ans pour [5.5-6.0[. Les points s’écartent d’une droite de pente
−0.5 lorsque la période complète est atteinte : les périodes complètes sont globalement en
accord avec celles déterminées en 5.1.1 et indiquées par les traits verticaux. Pour une précision
inférieure à 5 ans, il faudrait réduire le pas en temps.
Au-delà de 6.5 (en vert), les données sont très peu nombreuses et il devient difficile de
déduire des dates de complétude. Ainsi la méthode de Stepp conforte les dates de complétude
estimées en 5.1.1, mais elle est limitée aux grandes magnitudes par le faible nombre de séismes
disponibles. Au-delà d’une période suffisamment grande, toutes les courbes sont de pente iden-
tique −1 : les périodes incluses n’apportent aucun séisme supplémentaire et σ
λ
décroît en
1
T
.
5.1.3 Conclusions et récurrences sur le catalogue [1500-1999]
Les deux méthodes reposent sur une même hypothèse : la stationnarité du taux de sismi-
cité dans le temps. Elle fournissent globalement des résultats identiques et deviennent difficiles
à appliquer lorsque les données sont rares. L’attribution des dates de complétude pour les ma-
gnitudes supérieures à 6.5 est délicate, ces magnitudes sont rares, la période de temps couverte
par le catalogue est trop courte. Par ailleurs, il existe des méthodes systématiques où la période
est calculée et non lue sur un graphique (Albarello et al., 2001), mais ces méthodes statistiques
nécessitent de la même manière un minimum de données pour obtenir des périodes fiables avec
des intervalles d’incertitude raisonnable.
Les taux annuels des magnitudes supérieures à 3.5 peuvent maintenant être calculés sur le
catalogue de tout le territoire [1500-1999]. La figure 5.4 présente les taux annuels cumulés cal-
culés à partir des catalogues Scotti et Levret. La décroissance exponentielle n’est pas respectée
sur tout l’intervalle de magnitude. En effet, pour les deux catalogues les taux des magnitudes
[5.5-6.0[ sont plus élevés que ceux prédits par les extrapolations des magnitudes inférieures
à 5.5. Deux hypothèses majeures sont nécessaires pour tracer une telle courbe : le catalogue
[1500-1999] est supposé homogène et les taux de sismicité sont supposés constants. Ces hypo-
thèses ne sont peut-être pas valides sur toute la longueur du catalogue, il se peut aussi que la loi
d’échelle ne soit pas respectée sur l’intervalle de magnitude entier.
j8
1850 1900 1950 2000
0
200
400
600
800
1000
N
o
m
b
r
e

c
u
m
u
l
e

d
e

s
e
i
s
m
e
s
Temps
1962
[3.5−4.0[
−5 0 5 10
42
44
46
48
50
52
[3.5−4.0]
total
Alpes
Pyrénées
1850 1900 1950 2000
0
50
100
150
200
250
300
350
400
N
o
m
b
r
e

c
u
m
u
l
e

d
e

s
e
i
s
m
e
s
Temps
1962
[4.0−4.5[
−5 0 5 10
42
44
46
48
50
52
[4.0−4.5]
1850 1900 1950 2000
0
50
100
150
200
N
o
m
b
r
e

c
u
m
u
l
e

d
e

s
e
i
s
m
e
s
Temps
1920
[4.5−5.0[
−5 0 5 10
42
44
46
48
50
52
[4.5−5.0[
FIG. 5.1 – Détermination des périodes complètes pour 3 intervalles de magnitudes, nombres
de séismes cumulés en fonction du temps, pour le catalogue entier et deux catalogues régio-
naux ; périodes complètes : tronçons linéaires ; cartes de sismicité : distribution des séismes
correspondants ; rectangles : limites des catalogues régionaux.
jo
♦5. CALCUL DES PARAMÈTRES DE SISMICITÉ
1700 1800 1900 2000
0
50
100
150
200
N
o
m
b
r
e

c
u
m
u
l
e

d
e

s
e
i
s
m
e
s
Temps
1870
[5.0−6.0[
−5 0 5 10
42
44
46
48
50
52
[5.0−6.0[
total
Alpes
Pyrénées
1500 1600 1700 1800 1900 2000
0
10
20
30
40
50
N
o
m
b
r
e

c
u
m
u
l
e

d
e

s
e
i
s
m
e
s
Temps
1800
[6.0−6.5[
−5 0 5 10
42
44
46
48
50
52
[6.0−6.5[
1250 1500 1750 2000
0
5
10
15
20
25
30
N
o
m
b
r
e

c
u
m
u
l
e

d
e

s
e
i
s
m
e
s
Temps
1500
[6.5 ...[
−5 0 5 10
42
44
46
48
50
52
[6.5− ...[
FIG. 5.2 – Détermination des périodes complètes pour 3 intervalles de magnitudes, nombres
de séismes cumulés en fonction du temps, pour le catalogue entier et deux catalogues régio-
naux ; périodes complètes : tronçons linéaires ; cartes de sismicité : distribution des séismes
correspondants ; rectangles : limites des catalogues régionaux.
0o
10
1
10
2
10
3
10
−3
10
−2
10
−1
10
0
]3.5 4]
]4 4.5]
]4.5 5]
]5 5.5]
]5.5 6]
]6 6.5]
[6.5−...]
Temps (Années)
σ
λ
38 78 130 200 500
FIG. 5.3 – Détermination des périodes complètes par intervalle de magnitude avec la méthode de Stepp
(cf. texte) ; les points s’alignent sur une droite de pente −0.5 lorsque la période de temps commence à
être représentative (droites tiretées noires), ils s’écartent de la droite à la date de complétude ; les traits
verticaux indiquent les périodes complètes déterminées par la méthode linéaire.
01
♦5. CALCUL DES PARAMÈTRES DE SISMICITÉ
4 5 6 7
10
−2
10
−1
10
0
10
1
10
2
t
a
u
x

a
n
n
u
e
l

>
=

m
magnitude m
Scotti
4 5 6 7
10
−2
10
−1
10
0
10
1
10
2
magnitude m
Levret
FIG. 5.4 – Courbe de Gutenberg-Richter du catalogue [1500-1999], les taux annuels sont calculés sur
les périodes complètes, catalogues Scotti et Levret.
5.2 Calcul des paramètres de sismicité et sélection des zones
sources
Les périodes complètes ayant été déterminées, les paramètres de sismicité λ
M
0
et β peuvent
être calculés dans chaque zone source. La méthode classique de Weichert (1980), adaptée au
manque de données des régions à sismicité modérée, est appliquée.
5.2.1 La méthode de Weichert (1980)
La méthode de Weichert est utilisée pour le calcul des paramètres de sismicité dans une
grande partie des études d’estimation probabiliste de l’aléa selon Cornell-McGuire. Cette mé-
thode est une généralisation des méthodes de Aki (1965), Utsu (1965, 1966) et Page (1968),
reposant sur le maximum de vraisemblance. Elle gère des taux de sismicité calculés sur des
périodes de temps qui varient avec la magnitude.
Les occurrences des séismes sont supposées suivre un processus de Poisson. Aki (1965)
estime β avec la méthode du maximum de vraisemblance à partir des magnitudes supérieures
ou égales à `
0
:
β =
1
` −`
0
(5.3)
avec ` la magnitude moyenne des événements utilisés. Cette équation est valable pour
des valeurs de magnitudes continues.
0i
En pratique, les magnitudes sont cependant groupées et la largeur de l’intervalle doit être
supérieure à l’incertitude sur la magnitude. Utsu (1965, 1966) propose une méthode tenant
compte de la largeur de l’intervalle (2δ) :
1
β
βδ
tanh(βδ)
= ` −`
0
(5.4)
Page (1968) propose par ailleurs de tronquer la courbe de récurrence à la magnitude maxi-
male `
x
. Il estime β à partir des magnitudes continues entre `
0
et `
x
selon l’équation sui-
vante :
1
β
= ` −`
0

`
x
exp(−β(`
x
−`
0
))
1 −exp(−β(`
x
−`
0
))
`
0
≤ ` ≤ `
x
(5.5)
Ces équations estiment la pente de la Gutenberg-Richter lorsque la période couverte par
le catalogue de sismicité est complète pour toutes les magnitudes supérieures ou égales à `
0
.
Weichert (1980) propose une généralisation de ces équations permettant de prendre en compte
les séismes sur des périodes de temps différentes selon leur magnitude :

i
t
i
`
i
exp(−β`
i
)

j
t
j
exp(−β`
j
)
=

i
:
i
`
i
`
= ` (5.6)
où les t
i
sont les périodes complètes des intervalles de magnitudes [`
i
− δ ;`
i
+ δ] centrés
sur `
i
et contenant :
i
événements, ` est le nombre total de séismes utilisés. Le paramètre β
s’obtient alors par itérations (avec la méthode de Newton par exemple). Les formules de Aki,
Utsu et Page se retrouvent en posant les t
i
égales à une période unique t, en supposant que la
magnitude `
x
est très grande et/ou en faisant tendre la largeur de l’intervalle vers 0.
L’écart-type sur β est par ailleurs (Weichert, 1980) :
σ
2
(β) =
1
`

i
t
i
exp(−β`
i
)

2

i
t
i
`
i
exp(−β`
i
)

2

i
t
i
exp(−β`
i
)

i
t
i
`
2
i
exp(−β`
i
)
(5.7)
Le second paramètre de la loi de récurrence est le taux de sismicité λ
M
0
: le nombre annuel
de séismes de magnitude supérieure ou égale à la magnitude minimale `
0
. Son estimateur
au sens du maximum de vraisemblance et pour des taux calculés sur des périodes de temps
variables est :

♦5. CALCUL DES PARAMÈTRES DE SISMICITÉ
λ
0
= `

i
exp(−β:
i
)

j
t
j
exp(−β:
j
).
(5.8)
et sa variance est λ
0
`.
5.2.2 Application en France : sélection des zones sources
La méthode de Weichert est appliquée dans chaque zone du zonage sismotectonique,
en utilisant les périodes complètes déterminées sur l’ensemble du territoire. Les paramètres
de sismicité sont calculés sur l’intervalle de magnitudes [3.5-`
obs
max
]. La magnitude minimale
`
0
= 3.5 est choisie de manière à ce que les faibles magnitudes instrumentales, beaucoup
plus nombreuses que les magnitudes plus fortes historiques, ne contrôlent pas à elles seules les
estimations. La magnitude `
obs
max
est la magnitude maximale observée dans le sous-catalogue
entier (périodes non complètes incluses). Le choix de la magnitude maximale est cependant peu
important ; nos résultats montrent en effet que l’influence de la magnitude maximale sur les
paramètres de sismicité de Weichert est négligeable. Bender & Perkins (1993) remarquent de la
même manière que lorsque l’intervalle de magnitude est suffisamment grand (`
x
-`
min
≥∼ 2.5
ou 3), β peut être considéré indépendant de la magnitude maximale.
Les résultats pour les deux catalogues Scotti et Levret sont reportés dans le tableau 5.2
et les nombres de séismes utilisés dans le cas du catalogue Scotti sont détaillés pour chaque
intervalle de magnitude dans le tableau 5.3. Les paramètres sont calculés pour les 17 zones
sources décrites dans le tableau 5.4 et présentées sur la carte 5.5 (page 68). Dans 22 zones
sources, les paramètres n’ont pas été retenus.
Les nombres de séismes (tableau 5.3) des zones sélectionnées varient entre 14 (zone :

11,
Limagne) et 183 (zone des Pyrénées :

30). Alors que β prend des valeurs comprises entre 1.3
et 3.1, les écart-types sur β (tels que calculés par Weichert) sont compris entre 0.12 et 0.4.
Lorsque σ
β
0.4, la zone n’est pas retenue ; 22 zones sont ainsi rejetées soit parce qu’elles
ne contiennent pas suffisamment de séismes (` ≤ 10), soit parce que les magnitudes sont
concentrées dans l’intervalle [3.5-4.0[. L’écart-type sur β peut atteindre l’ordre de grandeur de
β.
Les zones les plus actives sont les Pyrénées Occidentales Nord (:

30) et le Massif Ar-
moricain Sud (:

10) avec un taux annuel de sismicité (` ≥ 3.5) respectivement de 4.13 et
3.24 (tableau 5.2). Les valeurs des β de ces zones sont 2.3 et 2.2 (soient des b-values proches
de 0.9, valeur la plus fréquemment obtenue dans le monde). Par ailleurs, le coefficient β de la
zone :

27 (Pyrénées Nord) est très élevé (β = 3.1, soit / = 1.34), cette zone contient en effet
un grand nombre de petites magnitudes (` < 4.5) localisées dans la zone de Lacq. Enfin, les

paramètres de sismicité de six zones sont calculés sur moins de 25 séismes : zones :

3 (23
événements), 8 (22), 11 (14), 13 (21), 18 (21) et 32 (18). Les coefficients β varient entre 1.33 et
2.21 et les écart-types σ
β
entre 0.22 et 0.37.
La modélisation de la courbe de Gutenberg-Richter est illustrée pour trois zones sources
(figures 5.6 à 5.8, pages 69 à 71). Pour chaque zone, les séismes du sous-catalogue sont reportés
sur un graphique temps-magnitude. Les périodes complètes sont indiquées, ainsi que les séismes
appartenant aux périodes complètes. La courbe de récurrence modélisée est superposée aux taux
de sismicité observés (cumulés et non-cumulés). Les courbes de récurrence tenant compte des
écart-types sur le taux de sismicité λ
M
0
et la pente β sont également représentées. Le calcul
est effectué sur 147 séismes dans la zone 10 (σ
β
= 0.12), 27 séismes dans la zone 19 (σ
β
=
0.26) et 18 séismes dans la zone 32 (σ
β
= 0.33). A noter que les courbes de récurrence sont
tracées non-tronquées jusqu’à la magnitude maximale observée `
obs
max
. Le faible nombre de
données de la zone 18 illustre les difficultés à modéliser la récurrence des séismes dans les
régions à sismicité modérée : les intervalles de magnitude [4.5-5.0[, [5-5.5[ et [5.5-6.0[ ne
contiennent qu’un séisme, le taux annuel de récurrence est alors directement l’inverse de la
période complète.
Les paramètres de sismicité sont estimés dans chaque zone source. A partir de λ
M
0
et
β, le taux de sismicité correspondant à la magnitude minimale `
min
choisie pour le calcul
probabiliste est calculé. Il reste à déterminer la magnitude maximale et les trois paramètres
nécessaires au modèle de l’exponentielle tronquée sont obtenus. Dans la suite, l’aléa ne sera
estimé qu’à l’intérieur de ces 17 zones sources. Si l’on souhaitait estimer l’aléa à l’extérieur
de ces zones, une solution consisterait à regrouper les zones contenant un faible nombre de
séismes, calculer la courbe de récurrence puis la redistribuer dans ces zones sources. Ce taux
de sismicité est considéré comme un «background» sismique. C’est ce qui est proposé dans le
cadre de la révision du zonage réglementaire français (Martin et al., 2002a). Cependant, notre
approche est différente, l’objectif de cette étude n’est pas une détermination de l’aléa sur le
territoire, il est de comprendre ce qui contrôle les estimations là où la méthode s’applique de
manière fiable. Dans la suite, il ne sera plus question que de ces 17 zones sources.
0j
♦5. CALCUL DES PARAMÈTRES DE SISMICITÉ
zone β. o β. 1 λ
0
. o λ
0
. 1
3 2.11 ± 0.32 2.4 ± 0.3 0.48 ± 0.15 0.46 ± 0.15
4 2.01 ± 0.23 2. ± 0.2 0.74 ± 0.15 0.74 ± 0.14
6 1.73 ± 0.19 2.2 ± 0.2 1.12 ± 0.14 1.03 ± 0.15
8 1.33 ± 0.22 1.6 ± 0.3 0.37 ± 0.13 0.33 ± 0.13
10 2.18 ± 0.12 2.6 ± 0.1 3.24 ± 0.15 3.08 ± 0.15
11 1.80 ± 0.34 2.5 ± 0.6 0.28 ± 0.14 0.23 ± 0.15
13 1.87 ± 0.32 2.2 ± 0.4 0.46 ± 0.14 0.45 ± 0.15
16 1.97 ± 0.20 2.1 ± 0.2 1.27 ± 0.15 1.24 ±0.15
17 1.66 ± 0.18 1.9 ± 0.2 0.87 ± 0.14 0.84 ±0.14
18 2.16 ± 0.37 2.5 ± 0.4 0.47 ± 0.15 0.45 ±0.15
19 1.58 ± 0.26 2. ± 0.3 0.53 ± 0.14 0.48 ±0.14
20 1.84 ± 0.20 2.1 ± 0.2 1.13 ± 0.14 1.09 ±0.15
23 1.98 ± 0.16 2.3 ± 0.2 1.39 ± 0.15 1.30±0.15
27 3.09 ± 0.33 3.3 ± 0.3 1.51 ± 0.16 1.50 ±0.16
30 2.29 ± 0.12 2.6 ± 0.1 4.13 ± 0.15 4.02 ±0.15
32 2.21 ± 0.36 2.6 ± 0.4 0.4 ± 0.15 0.39 ±0.15
37 2.35 ± 0.33 2.6 ± 0.3 0.69 ± 0.15 0.68 ±0.15
TAB. 5.2 – Paramètres de sismicité β et λ(` ≥ 3.5) des zones sources, o se rapporte au
catalogue Scotti et 1 au catalogue Levret, les zones sont décrites dans le tableau 5.4 et sur la
figure 5.5.
00
Z [3.5-3.9] [4.0-4.4] [4.5-4.9] [5.0-5.4] [5.5-5.9] [6.0-6.4] [6.5-7.0] [7.0-7.4] N
3 13 4 2 1 1 0 1 1 23
4 20 8 2 0 2 1 1 1 35
6 28 8 7 6 3 3 0 0 55
8 8 3 3 1 5 0 2 0 22
10 86 24 19 7 6 3 1 1 147
11 7 1 3 1 2 0 0 0 14
13 13 3 2 0 3 1 0 0 22
16 28 19 3 4 3 2 0 0 59
17 20 12 3 1 3 3 3 0 45
18 13 4 2 0 0 2 0 0 21
19 13 3 4 3 3 1 0 0 27
20 27 10 6 7 3 1 0 0 54
23 37 8 12 3 1 2 2 1 66
27 45 12 1 2 1 0 0 0 61
30 111 36 14 10 5 6 0 1 183
32 11 2 2 2 1 0 0 0 18
37 20 5 2 0 2 1 0 0 30
TAB. 5.3 – Nombre d’événements utilisés dans le calcul des paramètres de sismicité par inter-
valle de magnitude et pour les 17 zones sources, catalogue Scotti.
Zone Nom de la zone H Zone Nom de la zone H
3 Mons - Aix-la-Chapelle 10 18 MCE-Front pennique Nord 10
4 Fossé Rhénan inférieur 10 19 MCE-Front pennique Sud 10
6 Massif Armoricain Nord 20 20 Ivrea Sesia 15
8 Fossé Rhénan supérieur 10 23 Chaînes subalpines méridionales 10
10 Massif Armoricain Sud 15 27 Pyrénées Nord 10
11 Limagnes 10 30 Pyrénées Occidentales Nord 15
13 Jura 5 32 Pyrénées Orientales 10
16 Pré-Alpes et pennique suisse 10 37 Pyrénées Sud 10
17 Région du Valais 10
TAB. 5.4 – Zones sources sélectionnées, les limites et profondeurs H (en km) sont une com-
binaison des limites et profondeurs testées dans le rapport EPAS-AFPS (phase 3), Dominique
et al. (2001).

♦5. CALCUL DES PARAMÈTRES DE SISMICITÉ
−6 −4 −2 0 2 4 6 8 10
41
42
43
44
45
46
47
48
49
50
51
52
Longitude
L
a
t
i
t
u
d
e
3
4
6
8
10
11
13
16
17
18
19
20
23
27
30
32
37
[3.5 4.0[
[4.0 5.0[
[5.0 6.0[
[6.0 ...[
FIG. 5.5 – Sélection des 17 zones sismotectoniques sélectionnées, superposées au catalogue de
sismicité [1356-1999].
08
3.5 4 4.5 5 5.5 6 6.5 7 7.5
10
−4
10
−3
10
−2
10
−1
10
0
10
1
N
o
m
b
r
e

a
n
n
u
e
l

d
e

s
é
i
s
m
e
s
magnitude
Taux annuels observés non−cumulés
Taux annuels cumulés
Courbe de Gutenberg−Richter
Courbe GR, β+δ(β), λ+δ(λ)
3.5 4 4.5 5 5.5 6 6.5 7 7.5
1500
1550
1600
1650
1700
1750
1800
1850
1900
1950
2000
magnitude
T
e
m
p
s
catalogue total de la zone
Périodes complètes
évènements inclus dans les périodes complètes
FIG. 5.6 – Zone source :

10 : sous-catalogue de sismicité et courbe de Gutenberg Richter
modélisée superposée aux taux observés (catalogue Scotti).
0o
♦5. CALCUL DES PARAMÈTRES DE SISMICITÉ
3.5 4 4.5 5 5.5 6 6.5
10
−3
10
−2
10
−1
10
0
N
o
m
b
r
e

a
n
n
u
e
l

d
e

s
é
i
s
m
e
s
magnitude
Taux annuels observés non−cumulés
Taux annuels cumulés
Courbe de Gutenberg−Richter
Courbe GR, β+δ(β), λ+δ(λ)
3.5 4 4.5 5 5.5 6 6.5
1800
1820
1840
1860
1880
1900
1920
1940
1960
1980
2000
magnitude
T
e
m
p
s
catalogue total de la zone
Périodes complètes
évènements inclus dans les périodes complètes
FIG. 5.7 – Zone source :

19 : sous-catalogue de sismicité et courbe de Gutenberg Richter
modélisée superposée aux taux observés (catalogue Scotti).
¬o
3.5 4 4.5 5 5.5 6 6.5 7
10
−5
10
−4
10
−3
10
−2
10
−1
10
0
N
o
m
b
r
e

a
n
n
u
e
l

d
e

s
é
i
s
m
e
s
magnitude
Taux annuels observés non−cumulés
Taux annuels cumulés
Courbe de Gutenberg−Richter
Courbe GR, β+δ(β), λ+δ(λ)
3.5 4 4.5 5 5.5 6 6.5 7 7.5
1400
1500
1600
1700
1800
1900
2000
magnitude
T
e
m
p
s
catalogue total de la zone
Périodes complètes
évènements inclus dans les périodes complètes
FIG. 5.8 – Zone source :

32 : sous-catalogue de sismicité et courbe de Gutenberg Richter
modélisée superposée aux taux observés (catalogue Scotti).
¬1
♦5. CALCUL DES PARAMÈTRES DE SISMICITÉ
5.3 Estimations des temps de retour des magnitudes
Les paramètres de sismicité ont été déterminés pour l’ensemble des zones sources ; les
courbes de récurrence peuvent alors être calculées (équation 1.2, page 10). Elles seront utilisées
dans le calcul probabiliste. Il est de plus intéressant de considérer les temps de retour des ma-
gnitudes déduits de ces courbes de récurrence, exercice qui est rarement abordé dans les études
d’aléa sismique probabiliste. Le temps de retour est l’inverse du taux annuel moyen, il renseigne
sur la fréquence des séismes dans la zone, même si les occurrences ne sont pas périodiques.
Les temps de retour peuvent être déduits des courbes de récurrence établies à partir des
deux catalogues disponibles (Scotti et Levret, cf. chapitre 3). De plus, en tenant compte de
l’incertitude sur la pente de la courbe de récurrence (écart-type sur β), des bornes minimales et
maximales peuvent être calculées (1
inf
est calculé avec la pente β + δβ et 1
sup
avec β −δβ).
A titre d’exemple, les temps de retour d’une magnitude supérieure ou égale à 6.0 sont
reportés dans les tableaux 5.5. Ils sont calculés selon l’équation 1.2 (modèle de l’exponentielle
tronquée, page 10), avec `
max
= 7.0 lorsque les paramètres de sismicité issus du catalogue
Scotti sont utilisés, et avec `
max
= 6.5 dans le cas du catalogue Levret. Le choix de la ma-
gnitude maximale `
max
est arbitraire et peut influencer fortement les temps de retour calculés
(surtout lorsqu’il s’agit de magnitudes élevées). Par exemple, le temps de retour dans la zone
16, calculé avec le catalogue Scotti et `
max
= 6.5, augmente de 125 à 172 ans ; dans la zone 30
il augmente de 82 à 109 ans. Les temps de retour affichés dans les tableaux 5.5 sont des ordres
de grandeur.
Les estimations varient fortement d’un catalogue à l’autre et pour des pentes différentes
de la courbe de récurrence. Une magnitude supérieure ou égale à 6.0 a un temps de retour
dans la zone 8 (Bassin Rhénan) qui varie entre 66 et 556 ans ; dans la zone 16 (Pré-Alpes et
pennique suisse) ce temps de retour prend des valeurs entre 79 et 434 ans ; dans la zone 32
(Pyrénées Orientales) les estimations vont de 347 ans à 6109 ans ; et de 773 à 6629 ans dans
la zone 27 (Pyrénées Nord). Les incertitudes sur les temps de retour des séismes de magnitude
supérieure à 6.0 sont donc très grandes, mais il est cependant nécessaire d’anticiper sur la suite
pour relativiser l’impact de cette variabilité sur l’aléa. En effet, dans le chapitre 7, les impacts
sur l’aléa du choix de la corrélation magnitude-intensité sont calculés : pour une période de
retour de 10000 ans, l’aléa diminue de 18% dans la zone du Bassin Rhénan, de 8% dans la zone
16, de 15% dans la zone 32 et de 6% dans la zone 27.
Ces temps de retour se rapportent à l’aire géographique de chaque zone source, afin de
comparer plus facilement les zones entre elles, les temps de retour normalisés pour une aire de
100 ×100 /:
2
ont également été calculés (1
norm
).
Sur la figure 5.9 (carte du haut), la couleur de remplissage de chaque zone source est
fonction du temps de retour d’une magnitude supérieure ou égale à 6.0 dans la zone, estima-
¬i
zone 1
S
1
S
inf
1
S
sup
1
S
norm
3 462 229 946 446
4 237 148 380 486
6 81 51 129 611
8 101 66 157 199
10 80 63 102 789
11 384 194 775 933
13 268 135 543 483
16 125 79 201 159
17 90 57 143 52
18 519 204 1354 691
19 125 64 249 48
20 104 66 166 82
23 117 73 188 166
27 1609 773 3367 2549
30 82 65 104 55
32 704 347 1445 784
37 570 279 1175 583
zone 1
L
1
L
inf
1
L
sup
1
L
norm
3 1225 568 2686 1183
4 345 213 566 710
6 332 190 586 2485
8 304 170 556 600
10 283 200 401 2764
11 2877 732 11934 6984
13 813 350 1939 1463
16 258 154 434 326
17 204 132 318 119
18 1470 556 3992 1957
19 545 253 1201 211
20 287 168 494 225
23 395 251 626 559
27 2940 1315 6629 4657
30 238 176 322 159
32 2186 802 6109 2435
37 1253 589 2704 1283
TAB. 5.5 – Temps de retour 1 en années d’une magnitude supérieure ou égale à 6.0, calculés à
partir des lois de récurrence des zones sources, sur les deux catalogues de sismicité Scotti (o,
tableau de gauche) et Levret (1, tableau de droite) (cf. chapitre 3) ; 1 : calcul avec β, 1
inf
:
calcul avec β +δ(β), 1
sup
: calcul avec β −δ(β), 1
norm
: temps 1 normalisés pour une surface
de 100 ×100 /:
2
.
tion basée sur le catalogue Scotti (tableau 5.5, 1). Pour indication, les séismes de magnitude
supérieure ou égale à 5.5 présents dans le catalogue (périodes non complètes comprises) sont
également reportés sur la carte. Les temps de retour issus du catalogue Levret correspondent à
la carte du bas.
Nous avons souhaité montrer ces résultats par souci de transparence. Ils reposent entière-
ment sur l’hypothèse d’une décroissance du nombre de séisme exponentielle lorsque la magni-
tude augmente (courbe de Gutenberg-Richter). Ils ne peuvent être «vérifiés» sur la seule base du
catalogue de sismicité, trop court, mais il serait intéressant de confronter ces estimations avec
les résultats de paléosismicité par exemple, ou de géodésie.
Ces temps de retour sont des ordres de grandeur, ils permettent de hiérarchiser les zones
selon leur activité sismique.
¬¸
♦5. CALCUL DES PARAMÈTRES DE SISMICITÉ
−6 −4 −2 0 2 4 6 8 10
41
42
43
44
45
46
47
48
49
50
51
52
Longitude
L
a
t
i
t
u
d
e
m>=5.5
3 4
6
8
10
11
13
16
17
18
19
20
23
27
32
37
Annees
100
200
300
400
500
600
10
30
−6 −4 −2 0 2 4 6 8 10
41
42
43
44
45
46
47
48
49
50
51
52
Longitude
L
a
t
i
t
u
d
e
3 4
6
8
10
11
13
16
17
18
19
20
23
27
30
32
37
Annees
0
300
600
900
1200
1500
1800
2100
FIG. 5.9 – Temps de retour d’un séisme de magnitude supérieure ou égale à 6.0 ; Haut : à
partir du catalogue de sismicité Scotti, Bas : à partir du catalogue de sismicité Levret ; Points
noirs : séismes ` ≥ 5.5 sur la longueur totale du catalogue historique (périodes non-complètes
comprises). Ces estimations sont des ordres de grandeurs, elles comportent une incertitude très
forte (cf. tableau 5.5)
.
¬¡
Deuxième partie
QUANTIFICATION ET COMPRÉHENSION
DES INCERTITUDES
¬j
¬0
Chapitre 6.
Mapping b-values in France using two
different magnitude ranges : possible
non power-law behavior
(Published in Geophysical Research Letter, September 2003)
Abstract. The first step in probabilistic seismic hazard assessment is the characterization of
seismic sources. The fundamental assumption is that the Gutenberg-Richter power law can be
applied and is valid at all scales. In this study, we found that the power-law model may not
be verified in the southeastern regions of France. Frequency-magnitude distributions are map-
ped using 2 different magnitude ranges : (1) [3.0-4.4] using only homogeneous instrumental
data, (2) [3.5-`
max(observed)
] using instrumental and historical data. b-values estimated on these
two magnitude ranges are similar in the Pyrenees and the Rhine Basin. However, they differ
significantly in the Southern Alps : the slopes estimated on magnitude range [3.0-4.4] are much
steeper (b>1.4) than the slopes estimated on magnitudes above 3.5 (0.9<b<1.1). Until a clear
identification of the underlying processes is made, a conservative option (i.e. lowest b-values)
should be considered for probabilistic estimation of hazard in the eastern part of France.
6.1 Introduction
Probabilistic seismic hazard analyses (PSHA) based on the method of Cornell (1968) rely
on three key elements : 1) identifying source zones, 2) estimating the occurrence of earthquakes
in these zones, and 3) modeling the ground movement that these earthquakes will induce at a
site. This paper does not consider seismic source zones nor attenuation models. Discussion is
focused on the parameter estimation for the occurrence model of earthquakes as first propo-
sed by Gutenberg and Richter (1944) : logN=a-bM, where earthquakes exponentially decay in
number (N) as a function of their magnitude (M). Seismicity rate 10
a
, and the slope of the G-R
¬¬
♦6. MAPPING B-VALUES IN FRANCE USING TWO DIFFERENT MAGNITUDE
RANGES : POSSIBLE NON POWER-LAW BEHAVIOR
curve b, which is indicative of the relative distribution of small and large earthquakes, are the
parameters that have to be calculated.
Numerous methods have been proposed in the literature for the computation of the b-value
(Utsu, 1965, Aki, 1965, Page, 1968, Bender, 1983). The method used in this study is Weichert’s
method (1980), which is a generalization of Aki and Utsu’s maximum likelihood methods able
to handle annual rates calculated for different periods of time (thus maximizing the number of
events used).
The stability analysis of G-R parameters estimations performed in numerous studies (see
Wiemer & Wyss (1997), for a complete description) indicated that these parameters can vary
both spatially and temporally at all scales. The physical interpretations that have been proposed
in the literature for the spatial variability of the b-value range from the degree of material he-
terogeneities (Mogi, 1962, Mori & Abercrombie, 1997), to stress variations in the crust (Sholz,
1968, Wyss, 1973), and differences in the mechanical behavior of the faults (Amelung & King,
1997). Temporal variations of the b-value, on the other hand, have often been related to the pre-
paration process for natural earthquakes and rock fracture in the laboratory (Kanamori, 1981,
Urbancic et al., 1992).
The present study addresses the spatial variation of the b-value at regional scales in France
and shows that the b-value can be locally extremely dependent on the magnitude range used to
calculate it.
6.2 Data
Several difficulties have to be dealt with before computing G-R parameters : the cata-
logues should contain homogeneous magnitude determinations, declustering should be perfor-
med, completeness periods should be determined and a geographic window has to be chosen.
Magnitudes. The Laboratoire de Détection Géophysique (LDG), Bruyères le Châtel,
France, installed a national seismic network in 1962. The LDG has been measuring local ma-
gnitudes homogeneously since then (Nicolas et al., 1998). The LDG instrumental catalogue
used in this study, covering the [1962-1999] period, shows (Figure 6.1) that France is a country
of moderate seismicity (5 events with `
L
5.0 every 10 years, `
max
= 5.8). Nevertheless,
great earthquakes have occurred in the past and have been documented in the historical record.
The SisFrance historical database covers the last thousand years. The historical catalogue we
use, an extraction from this base, contains 10 events with intensity MSK equal or greater than
VII every 50y, for the last 5 centuries. Historical magnitudes were calculated using an intensity-
magnitude correlation deduced from macroseismic observations for 73 events reported in both
the historical database SisFrance and the instrumental catalogue LDG (Levret et al., 1994) lo-
¬8
−6 −4 −2 0 2 4 6 8 10
41
42
43
44
45
46
47
48
49
50
51
52
Longitude
L
a
t
i
t
u
d
e
[3.0 4.0[
[4.0 5.0[
[5.0 6.0[
[6.0 7.0[
FIG. 6.1 – Instrumental and historical seismicity in France, covering the period [1500-1999].
cated all over France. The reference magnitude for this study is therefore the `
L
of the LDG
catalogue. Due to the lack of data, it is difficult to compute regional correlations.
Declustering. According to our declustering tests, the seismicity of the instrumental ca-
talogue is only weakly clustered. Moreover, we found that results based on the declustered
catalogue were not significantly different from results based on the original catalogue. The ca-
talogues used in this study are therefore not declustered.
Completeness. Studies were performed using all earthquakes in the window [-6 ;10] in
longitude and [41 ;52] in latitude. Using cumulative number of earthquakes versus time plots
and assuming stationary seismic rates, it can be shown that the period of completeness is 17
years (1983-1999) for magnitudes 3.0-3.1 and 38 years (1962-1999) for magnitudes equal or
above 3.2. Completeness periods calculated for the combined catalogue (historical appended to
instrumental) are reported in the Table 6.1. Magnitudes are binned in intervals of 0.5 because
0.5 is the average uncertainty in historical magnitudes.
¬o
♦6. MAPPING B-VALUES IN FRANCE USING TWO DIFFERENT MAGNITUDE
RANGES : POSSIBLE NON POWER-LAW BEHAVIOR
Magnitude interval Completeness period Time interval (year)
[3.0 3.1] 1983-1999 17
[3.2 4.4] 1962-1999 38
[4.5 4.9] 1900-1999 100
[5.0 5.4] 1870-1999 130
[5.5 5.9] 1800-1999 200
[6.0 6.9] 1500-1999 500
TAB. 6.1 – Completeness periods (time interval over which all events in the magnitude bin have
been recorded).
6.3 Mapping the b-values
A grid of 0.25

x0.25

is defined over the study region and for each grid point, the b-value
is computed using all earthquakes falling inside a circle with a fixed radius. The procedure
followed to map the b-value is similar to that of Wiemer and Wyss (1997), only the size of
the sampled area is larger. The radius of the circle is fixed at 100km in order to explore the
variability in the b-values for sizes of source zones similar to those used in PSHA studies in
France. b-values are only shown at grid points where σ < 0.4 (σ is the standard deviation of
β = / ∗ |:(10), b is the b-value) . It is found that this criterion insures that a sufficient number
of events are taken into account in the computation. The number of earthquakes used for the
computations thus varies from grid point to grid point between 50 and 600. In order to check on
the stability of the GRparameters, two magnitude intervals are tested : [3.0-4.4] is representative
of the instrumental period and [3.5-`
max(observed)
] is representative of the instrumental and
historical period (hereafter called M3.5+).
The first interval has a minimum threshold imposed by the completeness period, which
varies spatially for magnitudes lower than 3.0. As will be discussed later, dealing with magni-
tudes greater than 3.0 also reduces potential problems related to artificial seismicity or clusters.
The higher limit of this first interval is due to the fact that rates for magnitudes higher than 4.5
cannot be estimated within 100km-radius circle : the 38-y period is no longer representative for
such an area (the time period being too short).
As for the second interval, the minimum threshold of 3.5 is chosen to allow the historical
data to contribute to the b-value estimations, minimizing the contribution of the instrumental
catalogue. In Weichert’s method (1980), the higher the number of earthquakes that contributes
to the calculation of the annual rate, the higher their weight in the estimation of the slope. The
minimum threshold cannot be increased to 4.0 because the number of data within 100km-radius
circle would be too small to estimate the b-values with confidence.
8o
Location /
I
σ
I
`
C
/
C
σ
C
`
C
A (6.5 ; 48) 1.26 0.12 153 1.20 0.12 48
B (0 ; 43) 1.03 0.06 576 1.17 0.05 239
C (7.25 ; 44.5) 1.71 0.08 540 1.06 0.06 138
TAB. 6.2 – b-value estimation at three different locations ; subscript I corresponds to mode-
ling on instrumental catalogue and interval [3.0-4.4] ; subscript C corresponds to modeling on
combined catalogue and interval M3.5+. N is number of events used.
6.4 Results
Two b-value maps are obtained, Figure 6.2 displays b-values estimated on the instru-
mental catalogue (38y), and 6.3 b-values estimated on the combined catalogue (historical and
instrumental, 500y). Given the severity of the filtering criterion (σ(/) < 0.18), only the higher
seismic rate zones are highlighted : the Pyrenees to the South, the Rhine Basin and the Alps to
the East and the southern part of Brittany to the West. Values calculated at each grid point are
extended to a 0.25

x0.25

area in order to create the map.
Based on the instrumental data only (6.3), b takes values over a wide range between 0.6
and 1.8. The thick black contour in the South-East of France corresponds to iso-values of b=1.7.
Previous studies worldwide have shown that the exponent b usually takes values between 0.75
and 1.25 (Okal & Romanowicz, 1994). Such values are found in the Pyrenees and in the North-
East of France (Rhine Basin). Values above 1.5 have previously been reported only in volcanic
areas (Wiemer et al., 1998). Such high values are surprisingly found in the Southern Alps, at
the boarder between France and Italy.
b-values calculated on the combined catalogue (historical and instrumental, ` ≥ 3.5) are
mainly contained in the interval [0.6-1.25]. Results are consistent in the Pyrenees and in North-
East of France between the two maps, whereas they differ significantly in the Alps. Utsu (1992)
proposed a method to test the significance of b value differences, based on the number of events
used. The results of this test are plotted on Figure 6.4, to highlight zones where both slopes
are statistically different with a minimum of 99% probability. Grid points where slopes are
considered significantly different are colored in dark gray ; points that did not pass the test are
colored light gray. Points that passed the test correspond approximately to b-value differences
greater than 0.4. Discrepancies are clearly localized over the Alps.
In order to emphasize the extreme variability in b-value estimate that can result from the
choice of the magnitude range used, three examples of the calculated Gutenberg-Richter are
shown for three different locations (Figure 6.5, Tableau 6.2). At location A (Rhine Basin) and
B (central Pyrenees), b-values are similar : 1.26/1.20 and 1.03/1.17 (cf. Tableau 6.2). At point
81
♦6. MAPPING B-VALUES IN FRANCE USING TWO DIFFERENT MAGNITUDE
RANGES : POSSIBLE NON POWER-LAW BEHAVIOR
C however, b-values are extremely different : 1.71 versus 1.06. Notice that the computations on
the instrumental catalogue and on the combined catalogue use the same events in the [3.5-4.4]
magnitude range, since the completeness period for these magnitudes is of 38 years (the instru-
mental period). However the resulting estimated slopes can be different : the ones estimated on
the instrumental catalogue are largely controlled by the magnitude bins between 3.0 and 3.5,
whereas those estimated on the combined catalogue are largely controlled by the magnitude
bins between 3.5 and 4.5.
6.5 Discussion and Conclusion
The remarkable difference observed in the Alps in the b-value estimates between these
two magnitude intervals raises two fundamental questions : are these slopes both correct or is
there a bias that is introduced in one or both catalogues ? If they are both correct, what is the
underlying physical mechanisms that can account for such a non-linear behavior of the b-value
as a function of the magnitude range ?
b-values estimated in the interval [3.0-4.4] could be biased for two reasons : the pre-
sence in the instrumental catalogue of aftershocks and/or induced seismicity. The declustering
of the LDG catalogue with Reasenberg’s algorithm (1985) gave very similar results. Since only
` ≥ 3 are used in the calculations, only a few clusters were detected by the algorithm and
their presence has a minor impact on the estimation of seismicity rates over a 17 or a 38 year
period. The second source of biased estimation may be the presence in the catalogue of artificial
seismicity. A histogram of the number of events as a function of the hour of the day can help to
identify induced seismicity. In the East of France, bins corresponding to working hours between
9am and 4pm indeed contain an abnormal number of earthquakes, but this artificial seismicity
is important only in the magnitude interval [2.5-3.0], (which is not used in the calculations).
A rough estimate shows that it represent less than 15% of the total seismicity for the range of
magnitudes studied [3.0-3.2]. A reduction of 15% in the number of events in the magnitude in-
terval [3.0-3.2] only slightly modifies the b-value estimations. The highest discrepancies located
in the Southern Alps remain and another explanation must be sought.
b-values estimated in the interval M3.5+ are within the usual expected range [0.75-1.25].
However they could also be biased by the choice of the magnitude-intensity correlation used to
convert the historical intensities into magnitudes. We are working on a new correlation based
on the 10 most reliable events for which we have both a good macroseismic description and an
instrumental magnitude. This second correlation estimates higher magnitudes than the Levret
correlation (0.4 magnitude degree on average). b-values estimated on this alternative historical
catalogue (appended to the instrumental one) are only slightly modified (the decrease in the
8i
b-values is lower than 0.2).
Assuming that both slopes, estimated separately on intervals [3.0-4.4] and M3.5+, are
correct, then a physical mechanism must be sought to explain the high discrepancies (up to 0.8
difference) observed in the Alps. Both intervals of magnitude might be linked to different phy-
sical processes. The magnitude interval M3.5+ could reflect regional tectonics whereas smaller
magnitudes might be linked to a local phenomenon. The presence of the identified Ivrea Body
in this zone (inclusion of mantle at crustal levels, Paul et al., [2001]) could be responsible for
high b-values in the [3.0-4.4] interval. Accurate hypocenters localizations (Paul et al., 2001)
show that events are located at the interface between the Ivrea Body and the crust. We attribute
the high instrumental b-values in the magnitude interval [3.0-4.4] to a creeping behavior at the
interface between crust and mantle inclusion. The stretching of the high b-value zone to the
southwest of point C is due to the smoothing and the lack of seismicity to the west. Indeed, for
points along the borders of the seismic zones, earthquakes are mainly located in one side of the
circles. The eastern limit of the high b-value region is not affected by this border effect, since
there is seismicity to the east.
This study shows that the modeling of earthquake recurrence curves by a unique exponen-
tial decrease is questionable in the eastern regions of France and likely incorrect over the Alps.
Using a minimum threshold lower than 3.5 when using the combined catalogue would have
yielded average slopes that could not satisfactorily fit neither the small nor the moderate range
of magnitudes. Estimating b-values on both magnitude intervals inside source zones for PSHA
calculations leads to a difference of 50% in PGA (Peak Ground Acceleration) estimates in the
Alps. Until a clear identification of the processes is made, a conservative option (estimation of
b-values in the magnitude range M3.5+) should be considered for the probabilistic estimation
of hazard in this region.
Acknowledgments We thank LDG for providing us with their instrumental catalogue. This
work was supported by contract CFR :

171625. We are thankful to Chris Bean and an anony-
mous reviewer for their constructive comments.

♦6. MAPPING B-VALUES IN FRANCE USING TWO DIFFERENT MAGNITUDE
RANGES : POSSIBLE NON POWER-LAW BEHAVIOR
0.6
0.8
1
1.2
1.4
1.6
1.8
−4 −2 0 2 4 6 8
41
42
43
44
45
46
47
48
49
50
51
52
Longitude
L
a
t
i
t
u
d
e
A
B
C
FIG. 6.2 – b-value map estimated with Weichert’s method on the magnitude interval [3.0-4.4],
black thick line corresponds to the 1.7-isochrone, number of earthquakes used varies between
50 and 600.
0.6
0.8
1
1.2
1.4
1.6
1.8
−4 −2 0 2 4 6 8
41
42
43
44
45
46
47
48
49
50
51
52
Longitude
L
a
t
i
t
u
d
e
A
B
C
FIG. 6.3 – b-value map estimated with Weichert’s method on the magnitude interval M3.5+,
number of earthquakes varies between 25 and 250. Standard deviations of b are lower than
0.18.

−4 −2 0 2 4 6 8
41
42
43
44
45
46
47
48
49
50
51
52
Longitude
L
a
t
i
t
u
d
e
A
B
C
FIG. 6.4 – Results of applying at each grid point the method of Utsu (1992) to test the si-
gnificance of b value differences at the 99% confidence limit. The individual b-value sets are
displayed in 6.2 and 6.3 ; dark gray cells passed the test, light gray ones failed.
3 4 5 6 7
10
−4
10
−2
10
0
10
2
a)
A
n
n
u
a
l

#

o
f

e
v
e
n
t
s

M
+
magnitude
b=1.26
b=1.20
3 4 5 6 7
10
−4
10
−2
10
0
10
2
b)
magnitude
b=1.03
b=1.17
3 4 5 6 7
10
−4
10
−2
10
0
10
2
magnitude
c)
b=1.71
b=1.06
FIG. 6.5 – Cumulative Gutenberg-Richter plots for 2 different magnitude intervals, superimpo-
sed to cumulated observed annual rates, a) at location A (6.5,48) ; b) at location B (0,43) ; c)
at location C (7.25,44.5).
8j
♦6. MAPPING B-VALUES IN FRANCE USING TWO DIFFERENT MAGNITUDE
RANGES : POSSIBLE NON POWER-LAW BEHAVIOR
80
Chapitre 7.
Quantifying uncertainties in French
PSHA
Abstract. The results of this study clearly identify four key parameters controlling the es-
timation of probabilistic seismic hazard assessment (PSHA) in France in the framework of
Cornell-McGuire’s method. Results at PGA demonstrate the equally high impact, at all return
periods, of the choice of truncation of the predicted ground motions distribution (at +2σ) and of
the choice between two different magnitude-intensity correlations. Interestingly, the choice of
minimum magnitude [3.5 ;4.5] on hazard estimates can have an important impact at small return
periods (<1000 years), whereas the maximum magnitude [6.5 ;7.0], on the other hand, is not a
key parameter even at large return periods (10000 years). This hierarchy of impacts is maintai-
ned at lower frequencies down to 5 Hz. Below 5 Hz, the choice of the maximum magnitude has
a much greater impact whilst the impact due to the choice of the minimum magnitude disap-
pears. Moreover, variability due to catalogue uncertainties is also quantified : this uncertainty
that underlies all hazard results can engender variability as high as the variability due to the
controlling parameters. Parameter impacts, calculated at the centres of each source zone, show
a linear trend with the seismicity models of the zone, demonstrating the lack of contributions
coming from neighbouring zones. Indeed, the region of influence that contributes to the PSHA
estimate at a given site decreases with increasing return periods. Although the overall variability
in hazard estimates due to input uncertainty (COV between 10 and 20% at PGA) may be arbi-
trarily reduced by expert choices, better physical models may be needed before reliable PSHA
estimates may be obtained.
7.1 Introduction
Probabilistic seismic hazard assessment (PSHA) usually does not receive the attention it
deserves in the seismological community. PSHA studies are indeed often limited to sensitivity
studies focused on predominantly two inputs : the seismotectonic zoning and the ground motion

♦7. QUANTIFYING UNCERTAINTIES IN FRENCH PSHA
attenuation relationship. Little effort is put into understanding the mechanics of the probabilistic
computations, on clearly stating the parameters chosen and in quantifying the impact of such
parameters on the final results. Consequently, results are very difficult to compare from one
study to the next and the source of the differences is not easy to understand. However, pro-
babilistic seismic hazard estimation is the basis for the establishment of seismic hazard maps
and application of anti-seismic regulations. It is fundamental to understand its mechanics tho-
roughly in order to not only clearly define its limitations and uncertainties but also to propose
new research to reduce the uncertainty. This study is an attempt to go in that direction.
Probabilistic seismic hazard assessment requires inputs and models that can bear great
uncertainties. These uncertainties and their impacts on hazard results depend on the region
of interest. This study concerns the French metropolitan area ; the objective is to quantify the
impact on hazard estimations due to the choice of key parameters that are required by the proba-
bilistic method of Cornell-McGuire (Cornell, 1968, McGuire, 1976). The majority of existing
sensitivity studies in PSHA deal with the impact of the zoning (either considering different
zoning or using soft boundaries, (Bender & Perkins, 1993) as well as with the impact of the
attenuation relationship used (calculating hazard with different available attenuation relation-
ships). In this study, we build on previous efforts and consider a single seismotectonic zoning
and a single attenuation relationship. The reference seismotectonic zoning was elaborated by
the AFPS-EPAS working group (working group of the French Association For Earthquake En-
gineering), composed of several experts from various fields : geology, geophysics, seismology,
engineering (Autran et al., 1998). The attenuation relationship used in this study was derived
from a European database (Berge-Thierry et al., 2003) and is the reference attenuation relation-
ship for France in deterministic hazard studies.
The remaining uncertainties explored in this paper include : catalogue uncertainties concer-
ning the magnitude and location determinations, the magnitude-intensity correlation used to
compute historical magnitudes, the truncation of the ground motion probability density func-
tion, the minimum magnitude contributing to the hazard, and the maximum magnitudes that
could occur in the source zones. Considering the large scatter of most attenuation relationships
(Douglas, 2003), nearly all PSHA take into account the lognormal distribution. However, few
studies address the problem of truncation of this distribution, although the consequences of no
truncation both at small and large return periods have been evoked a long time ago (Reiter,
1990, Bender & Perkins, 1993). Similarly, very few sensitivity studies consider the choice of
the minimum magnitude used in the PSHA calculations. The influence of this parameter on
hazard estimation is not new (Reiter, 1990) and is tightly linked to the way the scatter of the
attenuation relationship is taken into account. In this paper, the impact of the choice of the mini-
mum magnitude is quantified for the French territory. At the other end of the magnitude range,
the choice of the maximum magnitudes of the source zones, which is often addressed in PSHA
88
sensitivity studies (Giner et al., 2002, Rebez & Slejko, 2000), is also considered here.
In this study, hazard is computed at the centres of 17 selected source zones of the AFPS-
EPAS zoning. We consider that these source zones contain a sufficient number of seismic data
to estimate the recurrence parameters required by the probabilistic method. Concentrating only
on 17 sites, we do not need to use maps and thus, representing variability results is easier : in-
dividual impacts of parameters can be compared between geographical sites and also between
different return periods. Moreover, we show that impacts are related with the seismic characte-
ristics of the source zones, leading to a better understanding of impact variability from one zone
to the other.
The uncertainties in magnitude and location are explored through the generation of syn-
thetic catalogues ; whereas to estimate individual parameter impacts, a reference set of parame-
ters is first defined and parameters are modified one at a time. The percentage change due to
each individual parameter variation is quantified. Reference and alternative values are carefully
chosen to describe the most representative interval of possible values. Finally, the frequency
dependence of the parameter impacts on hazard estimates is also computed.
7.2 Choice of probabilistic methodology
The following is a concise summary of the Cornell-McGuire’s approach for probabilistic
seismic hazard assessment (Cornell, 1968, McGuire, 1976).
The probabilistic estimation of seismic hazard at a site consists in computing the annual
rate of occurrence of a ground motion parameter exceeding a specified level (hereafter called
the target level ¹
T
). The most common ground motion parameter, used in this study, is the
acceleration. The annual rates of interest in hazard assessment range from 0.01 to 0.00001, but
it is common to refer to the inverse of the annual rate, the return period (100 to 100000 years).
However, it is important to recall that earthquakes occurrences are not assumed to be periodic
but Poissonian. The annual rates of several target levels ¹
T
are computed, so that for any return
period of interest, the corresponding acceleration is deduced by interpolation.
The Cornell-McGuire method for the computation of rates of exceedance relies on four
steps :
1. The sources of seismicity must be identified ; these sources are faults in regions where
active faults can be delineated clearly (highly seismic regions) and areas in regions where
active faults are poorly known. Limits of areas are drawn according to geological, geophy-
sical or seismological homogeneous features. France shows diffuse intraplate seismicity
therefore only source zones can be used. The zoning we use (Autran et al., 1998) pro-
poses 39 zones for France and its frontiers along with an estimation of the average depth
8o
♦7. QUANTIFYING UNCERTAINTIES IN FRENCH PSHA
of earthquakes for each source zone. Our study will focus only on the 17 most seismic
zones (Figure 7.1).
2. Inside each source zone, the magnitude range of possible earthquakes and their correspon-
ding annual rates of occurrence must be estimated. The truncated exponential Gutenberg-
Richter model (McGuire & Arabasz, 1990) is used here. The seismic parameters (slope
of the Gutenberg-Richter and the seismic rate) are calculated from the data, and the maxi-
mum magnitude is arbitrarely fixed.
3. An attenuation relationship is used to predict the acceleration engendered at the site by
a seismic event of magnitude M and hypocentral distance R. The Berge-Thierry et al.
(2003) attenuation relationship is used here. For each couple (M,R), the relationship
yields a normal probability density function (PDF) for logarithms of accelerations, with
mean value log
10
(¹) = c` − log
10
1 + /1 + c and standard deviation σ (c = 0.3118,
/ = −9.303e−4, c = 1.537 and σ
log
10
A
= 0.2923, for Peak Ground Accelerations at rock
sites). This distribution is used to calculate the probability for the couple (M,R) to en-
gender an acceleration exceeding the target ¹
T
, integrating the normal distribution from
log
10
¹
T
to +∞.
4. Finally, exceedance rates of all the existing couples (M,R) are summed.
In this study, annual rates are calculated for 80 accelerations between 30 and 3000 gal.
Accelerations are then interpolated for return periods 100, 475, 1000, 10000 and 100000 years.
Traditionally, 475 years is used for conventional buildings, while the return periods considered
for nuclear safety can range from 1000 to 100000. Assuming that acceleration occurrences
follow a Poissonian distribution, the annual rates λ are derived from the formula 1 = 1 −
exp(−λt), 1 being the probability of the occurrence of at least one acceleration higher than
the target level over the time interval t. Thus, a return period of 475 years corresponds to the
probability of 0.1 of exceeding at least once the acceleration level over 50 years.
7.3 Constructing the catalogue
The seismicity contained in the geographical window[-6

;10

] in longitude and [41

;52

]
in latitude is considered (Figure 7.1). The seismic catalogue contains both instrumental and his-
torical data. The homogeneous measure of earthquake size is the local magnitude `
L
. The
instrumental part of the catalogue is provided by the Laboratoire de Détection Géophysique
(LDG; Nicolas et al. (1998)) and covers the time period [1962-1999]. The historical part of
the catalogue covers the time period [1500-1961] and is extracted from the SisFrance database
that gathers events from the last 1000 years. For the purpose of this study, we estimated ma-
gnitudes only for events that are described by at least three intensity classes (intensity III or
oo
−6 −4 −2 0 2 4 6 8 10
41
42
43
44
45
46
47
48
49
50
51
52
Longitude
L
a
t
i
t
u
d
e
3
4
6
8
10
11
13
16
17
18
19
20
23
27
30
32
37
[3.5 4.0[
[4.0 5.0[
[5.0 6.0[
[6.0 7.0[
FIG. 7.1 – French seismic catalogue in the period [1356-1999] ; magenta lines : AFPS-EPAS seismo-
tectonic zoning, thick magenta lines : selected source zones (with index of source zones and sites.)
above, half degrees are used). For each event, average epicentral distances are computed for
each intensity class based on assumed epicentral coordinates, given in the SisFrance database,
and on all available individual observations. The poor quality observations or those affected by
site effects were not considered. Then using the magnitude-intensity correlation, a magnitude
for each intensity class is computed and the mean magnitude of all available intensity classes
is then considered as the final magnitude for the event. At the moment two correlations are
available. The coefficients of these intensity-magnitude correlations are derived by regression.
The difference between the two correlations comes from the selection of events chosen for
calibrating the M-I conversions. In the first correlation all events having both an instrumental
magnitude and macroseismic intensities observations are considered (Levret et al., 1994). In
the second correlation (Griot-Pommera & Scotti, 2001) only a sub-set of the best-documented
events is used for the calibration. The second correlation yields magnitudes higher than the first
by 0.4 units on average. Therefore the two available catalogues have the instrumental part in
common, but different historical magnitudes. In order to compute annual rates, it is necessary
to estimate the periods of completeness adapted to each catalogue. For each interval of magni-
o1
♦7. QUANTIFYING UNCERTAINTIES IN FRENCH PSHA
Interval [3.5-4.4] [4.5-4.9] [5.0-5.4] [5.5-5.9] [6.0-6.4] [6.5-...]
Period S [1962-1999] [1920-1999] [1870-1999] [1870-1999] [1800-1999] [1500-1999]
Period L [1962-1999] [1900-1999] [1870-1999] [1800-1999] [1500-1999] [1500-1999]
TAB. 7.1 – Periods of completeness for different magnitude intervals for the two seismic catalogues
(same instrumental part [1962-1999] but different historical magnitudes) ; S is the catalogue with Scotti
magnitudes and L is the catalogue with Levret magnitudes.
tude, the period of completeness is the time window in which the magnitudes are considered to
be exhaustively and homogeneously reported (Table 7.1). There is an uncertainty on the deter-
mination of these time windows, this uncertainty being highest for magnitudes above 6.5 (very
few events). The periods of completeness of this study rely on the Stepp’s technique (1972) and
a "linear" method, for which seismic rate is assumed to be constant and independent of time. In
the "linear" method, cumulative numbers of events versus time are plotted for each magnitude
interval and the last linear trend, which usually has the highest slope, is selected. These methods
require large data sets, which may be available at a regional scale in the Alps and the Pyrenees,
but not everywhere else. Therefore periods of completeness were only determined for the en-
tire catalogue contained in the geographical window of Figure 7.1. Moreover, a recent study by
Beauval & Scotti (2003a) showed that calculating the Gutenberg-Richter parameters including
magnitudes lower than 3.5 yields anomalously high b-values in the Eastern parts of France.
Building on the conclusions of this paper, we compute the seismic parameters on magnitudes
3.5 and above.
7.4 Selecting the seismic source zones and computing seismi-
city models
Subcatalogues are extracted for each source zone of the seismotectonic zoning scheme
(Autran et al., 1998). The slope of recurrence curves (the b-value or β value) and seismicity rate
are calculated using Weichert’s method (1980). This method is a generalisation of the likelihood
methods of Aki (1965), Utsu (1966) and Page (1968). It is able to handle annual rates estimated
on different periods of time. The β value is chosen such that it maximizes the product of the
probabilities of having observed each annual seismic rate. Estimated β values are less dependent
than least-square methods upon the few events that make up the high magnitude intervals. For
all zones, the magnitude range used is [3.5-`
observed
max
]. Magnitudes are binned into 0.5 large
magnitude intervals and used only within their completeness period.
Due to the scarcity of data, seismic parameters can be estimated reliably in only 17 of the
oi
Zone Nom β +σ(β) λ +σ(λ) λ
norm
# events Depth
3 Mons-Aix la Chapelle 2.11 ±0.32 0.48 ±0.15 0.50 23 10
4 Fossé rhénan inférieur 2.01 ±0.23 0.74 ±0.15 0.36 35 10
6 Massif armoricain Nord 1.73 ±0.19 1.12 ±0.14 0.15 55 20
8 Fossé rhénan supérieur 1.33 ±0.22 0.37 ±0.13 0.19 22 10
10 Massif armoricain Sud 2.18 ±0.12 3.24 ±0.15 0.33 147 15
11 Limagnes 1.80 ±0.34 0.28 ±0.14 0.11 14 10
13 Jura 1.87 ±0.32 0.46 ±0.14 0.25 22 5
16 Pré-Alpes et pennique suisse 1.97 ±0.20 1.27 ±0.15 1.00 59 10
17 Région du Valais 1.66 ±0.18 0.87 ±0.14 1.48 45 10
18 MCE- Front pennique Nord 2.16 ±0.37 0.47 ±0.15 0.35 21 10
19 MCE- Front pennique Sud 1.58 ±0.26 0.53 ±0.14 1.34 27 10
20 Ivrea Sesia 1.84 ±0.20 1.13 ±0.14 1.44 54 15
23 Chaînes subalpines méridionales 1.98 ±0.16 1.39 ±0.15 0.98 66 10
27 Pyrénées Nord 3.09 ±0.33 1.51 ±0.16 0.95 61 10
30 Pyrénées Occidentales Nord 2.29 ±0.12 4.13 ±0.15 6.16 183 15
32 Pyrénées Orientales 2.21 ±0.36 0.40 ±0.15 0.36 18 10
37 Pyrénées Sud 2.35 ±0.33 0.69 ±0.15 0.67 30 10
TAB. 7.2 – Seismic parameters for the 17 selected source zones, estimated with Weichert’s method
(1980) ; β is the slope of the Gutenberg-Richter and λ is the cumulative annual rate above magnitude
3.5 ; λ
norm
is normalized to a 100 ×100 km
2
area with corresponding depths (km).
39 source zones of the AFPS-EPAS zoning (Figure 7.1 and Table 7.2). For these 17 zones, the
number of events used varies between 14 and 183. The standard deviation of β, as calculated by
Weichert, is between 0.12 and 0.4. In the remaining 22 source zones, 15 have less than 10 events
and 7 concentrate all the magnitudes in the magnitude bin [3.5-4.0]. The standard deviation of
β in these rejected source zones is larger than 0.4 and the seismic parameters are therefore
considered to be unreliable.
7.5 Probabilistic computations and quantification of impacts
The hazard and the uncertainties are estimated in this study only at the centres of the
17 source zones (coordinates of centres are simply calculated from maximum and minimum
latitude and longitude coordinates of the source zones apexes). As explained in the introduction,
neither alternative zoning schemes nor alternative attenuation relationships will be considered
here. Following Beauval & Scotti (2003a,b), computations of seismicity parameters are based
on the behaviour of M 3.5 and above (see Table 7.1). These results deal with PGA acceleration
(Peak Ground Motion) ; comparisons with results at 3 other frequencies (1, 2 and 5 Hz) are

♦7. QUANTIFYING UNCERTAINTIES IN FRENCH PSHA
discussed at the end.
For all individual impacts, the same reference set of "conservative" parameter values is
used : (i) seismic parameters are computed using the most conservative M-I correlation, (ii)
hazard computations are performed from minimum magnitude 3.5, (iii) with no truncation of
the lognormal distribution of ground motion, as done in the recent study for the revision of the
French seismic zoning (Martin et al., 2002b,a) ; and (iv) finally, maximum magnitude is fixed
at 7.0 for all source zones because it is the maximum magnitude computed in the historical ca-
talogues. Maximum magnitude is the unique parameter that should vary with the source zone.
However it is very difficult to assess and for these impact analyses the same maximum magni-
tude is attributed to all zones. The impact (or variability) is measured as the difference between
the reference hazard value and the newly computed one, changing one parameter at a time. Dif-
ferences are normalised by reference hazard values and expressed in percentage. The reference
set is always more conservative than the alternative ones. Impacts are thus positive normalised
differences.
7.5.1 Modelling uncertainties due to magnitude and location determina-
tion
All seismic catalogues are affected by uncertainties in both magnitude and location esti-
mates. On the one hand, the historical intensities rely on interpreted written descriptions of the
effects of earthquakes on people and buildings. On the other hand, the instrumental events often
are attributed different magnitudes and locations, depending on the institution. In order to take
these uncertainties into account, we first model catalogue uncertainties for each seismic event
and then use synthetic catalogues to study the impact of such uncertainties on hazard estimates.
Monte Carlo simulations
The errors on magnitude and location determinations are modelled by three probability
density functions (PDF). Synthetic catalogues are generated through a Monte Carlo process :
each event is assigned a new magnitude and new geographical coordinates picked in their PDF.
A uniform distribution is attributed to historical magnitudes (example on Figure 7.2b). For an
historical event, as explained in the data section, a magnitude is calculated for each intensity
class with an intensity-magnitude correlation : the minimum and the maximum magnitudes
obtained are used as minimum and maximum thresholds for the uniform PDF. The width distri-
bution for the uniform PDF shows that the average is around one magnitude unit (Figure 7.2d).
A gaussian distribution centred on the original magnitude, models the error on instrumental
magnitude (example on Figure 7.2a). The standard deviation is the error reported in the LDG

3 3.5 4 4.5 5
0
10
20
30
40
50
Instrumental Magnitude
0 0.2 0.4 0.6 0.8
0
100
200
300
400
σ
0 1 2 3 4
0
10
20
30
40
50
Width of uniform distribution
4 4.5 5 5.5 6
0
10
20
30
40
Historical Magnitude
a)
b)
c)
d)
FIG. 7.2 – a) and b) : Example of 200 magnitudes picked with Monte Carlo in the PDF (black curve),
a) Instrumental magnitude : PDF is centred on the original instrumental M = 4.0 and with σ =0.2,
b) Historical magnitude : PDF is a uniform distribution ; c) Distribution of the σ of the instrumental
magnitude used ; d) Distribution of the widths of the uniform PDF of the historical magnitude used.
instrumental catalogue. Standard deviations are around 0.2 on average (Figure 7.2b). The errors
on latitude and longitude coordinates are also modelled by gaussian distributions centred on the
original values. The instrumental coordinates and the historical ones referenced with a location
quality A in the SisFrance database (15% of historical events) are attributed a 5 km standard
deviation. Attributed standard deviation is 10 km for historical locations of quality B events
(25%), 20 km for quality C (22%) and 50 km for quality D (38%) events.
Generating N synthetic catalogues, the subcatalogs of the source zones are extracted N
times, N sets of seismic parameters are obtained for each source zone and N hazard values
are calculated at each site. Figure 7.3 displays, as an example, the resulting Gutenberg-Richter
curves for the Jura zone (grey curves) together with the corresponding distributions for both
seismic parameters. Although we used N=200, which is sufficiently large to obtain results with
a representative variability, variability is contained within one standard deviation of β, as calcu-
lated by Weichert’s method on the original catalogue (black lines). Additional variability may
have been obtained if completeness period could have been automatically computed for each
synthetic catalogue.
oj
♦7. QUANTIFYING UNCERTAINTIES IN FRENCH PSHA
3.5 4 4.5 5 5.5 6 6.5 7
10
−4
10
−3
10
−2
10
−1
10
0
A
n
n
u
a
l

r
a
t
e

m
+
Magnitude m
0.6 0.8 1 1.2
0
20
40
60
b−value
0.2 0.3 0.4 0.5 0.6 0.7
0
10
20
30
40
50
λ
FIG. 7.3 – Example of Monte Carlo results on seismic parameters for the Jura source zone (n

13).
Upper panel, plain circles : observed annual rates, lines : récurrence curves ; black colour refers to the
original catalogue (dashed lines take into account standard deviations of β and λ; grey colour refer to
the 200 synthetic catalogues. Lower panel, left : distribution of the 200 b-values (b = β/ ln 10), right :
distribution of the 200 seismic rates (M ≥ 3.5).
Results
At each site, a distribution of 200 accelerations is obtained for each return period. The
dispersion of the distribution, or the variability of hazard estimation due to catalogue uncertain-
ties, is quantified by calculating the coefficient of variation (COV=standard deviation/mean).
Results are displayed on Figure 7.4. COV vary between 2 and 17%, depending on the site and
the return period. The COV is directly linked to the number of events used (Table 7.2) ; the
higher the number of events, the lower the coefficient of variation (the more stable the hazard
results). Lowest COV are obtained for sites in source zones 10 and 30 (≤ 5%), which contain
the highest number of events. Furthermore, COV values increase with increasing return period
(the increase is however small). This is due to the fact that for the same change in the b-value,
the resulting difference in recurrence rates increases with magnitude. Uncertainties on magni-
o0
2
4
6
8
10
12
14
16
18
20
C
O
V

(
%
)
Site
3 4 6 8 10 11 13 16 17 18 19 20 23 27 30 32 37
100y
475y
1000y
10000y
100000y
FIG. 7.4 – Coefficients of variation (standard deviation divided by mean) of hazard estimations due to
uncertainties on magnitude and location determinations. Hazard has been computed at the centres of the
17 source zones for 5 return periods.
tude and location determination of past events can hardly be reduced. Thus the variability on
hazard results due to catalogue uncertainties (2% ≤ COV ≤ 17%) is the minimum variability
of any hazard calculation.
7.5.2 On the choice of a Magnitude-Intensity correlation
Figure 7.5 shows the variability on hazard results due to a change in the M-I correlation,
calculated for each site (magenta curves). Each curve corresponds to a different return period ;
the thicker the curve, the higher the return period. Accelerations are interpolated for return
periods 100, 475, 1000, 10000 and 100000 years. The impact of the choice of the magnitude-
intensity correlation ranges between 2 and 34% depending on the site but does not significantly
vary with the return period. Highest impacts are obtained for sites in zone 6, 11 and 19 (23%,
34%and 24%). The explanation for the different impacts between sites appears clearly on Figure
7.6. Impacts at 475 years are plotted as a function of the number of events in the instrumental
magnitude bin [3.5-4.5[ divided by the total number of events used. A high coefficient cor-
responds to a high proportion of small instrumental magnitudes. Seismic parameters of source
zones 6, 11 and 19, are computed on subcatalogues containing respectively 57, 59 and 66%

♦7. QUANTIFYING UNCERTAINTIES IN FRENCH PSHA
0
5
10
15
20
25
30
35
40
I
m
p
a
c
t

(
%
)
3 4 6 8 10 11 13 16 17 18 19 20 23 27 30 32 37
FIG. 7.5 – Impacts on hazard estimates of two parameters at the 17 sites. The thicker the line, the higher
the return period (100y, 475y, 1000y, 10000y, and 100000y). Magenta points : impacts of the choice of
the magnitude-intensity correlation. Blue points : impacts of the decision of truncating the predicted
ground motion distribution at +2σ.
magnitudes between 3.5 and 4.5, and show a higher impact compared with that of source zones
4, 16, and 27 (smallest impacts, ≤ 9%), which are computed on subcatalogs containing res-
pectively 80, 80 and 93% magnitudes between 3.5 and 4.5. This result is not surprising, since
the choice of the magnitude-intensity correlation only affects historical magnitudes and instru-
mental magnitudes higher than 4.5 are not numerous. Thus, in zones where seismicity models
are controlled by a high number of instrumental events, the impact of a magnitude-intensity
correlation choice will be less important.
7.5.3 On the choice of truncating the PDF distribution modelling ground
motion dispersion
A magnitude-distance couple may produce different ground motions : this dispersion is
real and must be considered. In the Cornell-McGuire probabilistic method, this dispersion is
taken into account when computing the probabilities of exceedance of target ground motions.
The coefficients of the attenuation relationship used in this study are calculated by regression
on the accelerograms of a database made of 83% records coming from Europe and 17% from
o8
40 50 60 70 80 90 100
0
5
10
15
20
25
30
03
04
06
08
10
11
13
16
17
18
19
20
23
27
30
32 37
# events in [3.5−4.4] / total # events
I
m
p
a
c
t

(
%
)
FIG. 7.6 – Impacts of the choice of the M-I correlation at 475y, at the 17 sites, versus proportion of
magnitudes [3.5-4.5[ in the subcatalogues of the source zones.
California (Berge-Thierry et al., 2003). Thus many sources, propagation paths and site effects
are mixed, leading to a great scatter. Sites effects classifications are indeed rather crude and
a precise description of the soil beneath the seismological stations is often not available. Fur-
thermore, in this attenuation relationship, the standard deviation is calculated as a function of
frequency (variation is small) but not as a function of magnitude.
The current way of taking into account in the hazard calculation the dispersion on ground
motion has strong drawbacks. Early at the beginning of the 90s, Reiter’s book on PSHA (1990)
was evoking the consequences of the use of the lognormal distribution to compute probabilities
of exceedance. Indeed, the very low likelihood accelerations in the tails of the distributions can
significantly contribute in the seismic hazard estimations, when corresponding to high likeli-
hood magnitudes. The choice of the minimum magnitude thus can be of outmost importance.
Some studies solve the problem by truncating the lognormal distribution, usually at a certain
number of standard deviations above the mean (Abrahamson, 2000). In such cases, the acce-
lerations with very small likelihood of occurrence can no longer contribute to the hazard. The
result is a reduction of seismic hazard at all return periods. However there is no physical reason
why ground motion upper bounds for all couples magnitude-distance should be at the same per-
centage above the median (Bommer, 2002). This way of truncating doesn’t rely on any physical
basis ; the consequence is that there is no consensus on how much the lognormal distribution
should be truncated. Reiter (1990) deals with truncations from 2.5σ to 4.5σ. Anderson & Brune
oo
♦7. QUANTIFYING UNCERTAINTIES IN FRENCH PSHA
(1999a) use a cut off at 3σ. Abrahamson (2000) proposes a cut off at 2 or 3σ showing with
statistical techniques that the data do not follow a lognormal distribution above 2σ. He clearly
rejects truncation at 1σ which would imply an underestimation of hazard. This problem of trun-
cating or not the attenuation relationship and how much is often not addressed in current PSHA
studies, even in sensitivity studies.
The impact of the decision to truncate the predictions of the attenuation relationship is
here quantified by calculating the difference between no truncation and cut off at +2σ. Results
are displayed on Figure 7.5 (blue curves). The higher the return period, the higher the impact
of the PDF truncation, for all sites. Deciding to reject ground motions above 2σ produces a
reduction in the hazard estimates of 10-20% for a 100y return period and of 23-37% for 100
000y. Impacts are quite stable from one site to the other. The contributions of the low likelihood
motions (the chance of exceeding 2σ is 2.28%) to hazard estimates are thus very important.
7.5.4 On the choice of minimum magnitude (`
min
)
Once the seismic parameters are calculated, one has to decide the minimum magnitude
that will contribute to the hazard. This magnitude is not linked to the magnitude range used
to compute the Gutenberg-Richter parameters. It should be the minimum magnitude producing
"significant" ground motions. Increasing `
min
narrows the magnitude range contributing to the
hazard, thus the hazard may be reduced. It is often thought to be of small significance because it
deals with events that are the least likely to produce significant ground motions. On the contrary,
its impact on hazard estimations may be important, due to the way of computing probabilities of
exceedance. Small magnitudes can contribute largely, counterbalancing their small probabilities
of exceedance by their high annual rates. Although this problem has been raised more than 10
years ago (Benjamin & Associates, 1989, Bender & Campbell, 1989, Reiter, 1990, Bender &
Perkins, 1993), most PSHA studies do not even precise the minimum magnitude used. However,
following Bender & Perkins (1993), Grünthal & Wahlström (2001) have shown on a site in
the lower Rhine embayment that minimum magnitude influences hazard results at small return
periods, superimposing hazard curves calculated with a minimum magnitude of 3.5, 4.0 and 4.5.
Here we quantify the impact of the choice of minimum magnitude at the 17 sites, comparing
minimum magnitude 3.5 and 4.5. A minimum magnitude of 4.5 is used in all USGS national
seismic hazard maps (Frankel, 1995) ; whereas [3.5-4.0] is the magnitude range of minimum
magnitudes used in the revision of the French zoning (Martin et al., 2002a).
Results are displayed on Figure 7.7 (black curves). Again, the thicker the curve, the hi-
gher is the return period. As expected, the impact of the minimum magnitude on hazard results
is decreasing with increasing return periods. Ground motion thresholds increase with increa-
sing return periods, and the contribution to the annual rates coming from small magnitudes
1oo
decreases. Furthermore, the influence of `
min
is highly site dependent. For 100y, the impact
can be very high, reaching 39 and 35% in zones 3 and 32. For the same return period, the lowest
impacts (≤ 10%) are found in the Alps zones 17, 19 and 20. Beyond return period 1000y, the
choice of a minimum magnitude between 3.5 and 4.5 doesn’t influence anymore the hazard :
for return periods 10000 and 100000 years, all impacts (except for zone 27) are between 0 and
5%.
The influence of `
min
is in fact linked to the slope of the Gutenberg-Richter. Plotting the
impacts versus the slopes of the Gutenberg-Richter reveals roughly a linear trend (Figure 7.8).
The sites with the higher β value (or steeper recurrence slopes) show the higher sensitivity to the
choice of a minimum magnitude. This trend is logical, as β represents the proportion of small
and large magnitudes : high β implies a relatively higher proportion of small earthquakes than
a low β. The Pyrenees zone 27 shows the highest impact at 10000 and 100000 years because
the β value of this zone is particularly high (3.1). The subcatalog of this zone indeed contains
93% of magnitudes in the interval [3.5-4.5[ (Figure 7.6). Moreover, the annual seismic rates
(normalised to a 100x100 /:
2
surface, Table 7.2) of each source zone are indicated by the
colour bar. For comparable slopes, the impact decreases with increasing seismic rate ; thus the
choice of the minimum magnitude is more crucial in moderate seismic regions than in high
seismic regions. The same tendency is obtained with the 100 year return period.
7.5.5 On the choice of maximum magnitude (`
max
)
Contrary to the minimum magnitude, all sensitivity studies in PSHA address hazard varia-
bility due to the choice of the maximum magnitude. In contrast to the lower bound magnitude,
maximum magnitude is zone specific and corresponds to the maximum magnitude that can oc-
cur inside a source zone. Estimating the maximum possible magnitude in the seismotectonic
source zones (using fault length or estimated slip and displacement of paleoseismic events) is
difficult, active faults are poorly known in an intraplate environment such as France. This maxi-
mum magnitude may not be linked to the magnitude range used to compute the Gutenberg-
Richter parameters. In the reference data set, `
max
is 7.0 for all zones, corresponding to the
maximum magnitudes of the historical catalogues. The impact of `
max
is estimated decreasing
`
max
from 7.0 to 6.5. As shown previously (Figure 7.2), uncertainties on historical magnitudes
are large (0.5 degree on average if considering half widths of uniform distributions). When
changing the upper bound magnitude, we keep the cumulative seismicity rate of the minimum
magnitude constant. Changing the upper bound magnitude has very little effect on the rates of
smaller earthquakes because they are much more numerous.
1o1
♦7. QUANTIFYING UNCERTAINTIES IN FRENCH PSHA
0
5
10
15
20
25
30
35
40
I
m
p
a
c
t

(
%
)
3 4 6 8 10 11 13 16 17 18 19 20 23 27 30 32 37
FIG. 7.7 – Impacts on hazard estimates of minimum and maximum magnitudes at the 17 sites.
The thicker the line, the higher the return period (100y, 475y, 1000y, 10000y, and 100000y).
Black points : impacts of the choice of `
min
(3.5/4.5). Yellow points : impacts of the choice of
`
max
(6.5/7.0).
0
0.5
1
1.5
1 1.5 2 2.5 3 3.5
0
5
10
15
20
25
30
3
4
6
8
10
11
13
16
17
18
19 20
23
27
30
32
37
slope of Gutenberg−Richter
λ
I
m
p
a
c
t

(
%
)
0
0.5
1
1.5
1 1.5 2 2.5 3 3.5
0
2
4
6
8
10
12
14
16
18
3
4
6
8
10
11
13
16
17
18
19
20
23
27
30
32
37
slope of Gutenberg−Richter
I
m
p
a
c
t

(
%
)
λ
FIG. 7.8 – Left, impacts of the choice of M
min
, at the 17 sites, versus GR slopes of the source zones,
hazards correspond to 475y. Right, impacts of the choice of M
max
, at the 17 sites, versus GR slopes of
the source zones, hazard correspond to 10000y. Note the scale difference.
1oi
The influence of maximum magnitude (Figure 7.7, yellow curves) shows a trend opposite
to that of the minimum magnitude : with increasing return period, the influence of the maximum
magnitude on hazard results increases. At small return periods (≤ 1000y), the variability due
to the choice of the maximum magnitude stays below 10%. Maximum influence is reached
for return period 100000y in zones 8, 17, and 19 with 16%. The graph of Figure 7.8 shows
the distribution of impacts versus the slopes of Gutenberg-Richter for the 10000 year return
period. The same tendency is obtained with the return period 100000y. The higher the slope, the
lower the impact of the choice of `
max
, therefore opposite to the trend observed for the `
min
impacts. When the slope of the Gutenberg-Richter increases, the proportion of high magnitudes
versus small magnitudes decreases. Therefore, the contribution to the seismic hazard of the
high magnitude range [5.0- `
max
] decreases. Furthermore, on the contrary to `
min
impacts,
for comparable slopes, impacts increase with increasing seismic rates. The choice of maximum
magnitude is therefore more crucial in high seismic regions than in moderate seismic ones.
These calculations show the small contribution of the high magnitude range to the estima-
tion of hazard, even at very large return periods, in a moderate seismicity region such as France.
Proper maximum magnitudes should be estimated for each zone on geological, seismological
and geophysical features ; however this test quantifies the impact of maximum magnitude and
shows that this parameter is not the controlling parameter in French PSHA, when considering
the PGA.
7.5.6 Radius of influence of hazard estimates
The clear tendencies obtained between parameter impacts computed at the centers of the
source zones and the seismic inputs of these zones indicates that hazard contributions come
mainly from magnitude-distance couples inside the source zones as shown on Figure 7.9 where
for each site the maximum distance 1
98%
necessary to accumulate 98% of the contributions is
computed at 475 and 10000 years return period.
7.5.7 Overall variability
A logic tree can be constructed to compute the overall variability at each site : inter-
mediate values in the parameter intervals explored in individual studies are selected and the
hazard computation is performed for all possible combinations of parameters. Thus, explored
minimum magnitudes are (3.5 ;3.7 ;3.9 ;4.1 ;4.3 ;4.5) ; explored number of standard deviations
for truncation are (2 ;2.3 ;2.7 ;3.0 ;∞) and explored maximum magnitudes are (6.5 ;6.75 ;7.0).
These intermediate values are necessary to get a smooth hazard distribution. Two M-I correla-
tions are used, therefore 180 hazard values are computed at each site. An example of such a
1o¸
♦7. QUANTIFYING UNCERTAINTIES IN FRENCH PSHA
−6 −4 −2 0 2 4 6 8 10
41
42
43
44
45
46
47
48
49
50
51
52
Longitude
L
a
t
i
t
u
d
e
475 ans
10000 ans
FIG. 7.9 – Maximum distance necessary at each site for reaching 98% of the hazard contri-
butions, for the PGA and at return periods 475 years (black circles) and 10000 years (grey
circles).
distribution is displayed on Figure 7.10 for the site in zone 16. Results may be represented with
mean, maximum, minimum and percentiles, as shown on Figure 7.11. Furthermore, to each ha-
zard value is associated a catalogue uncertainty (due to magnitude and location determination)
calculated previously. The standard deviation characterizing catalogue uncertainties is thus ad-
ded to the minimum and maximum hazard values, at each return period, in order to get the full
variability. Such a representation may be obtained at all sites and enables to estimate the range
of possible PGA values for any return period between 100 and 100000y. In order to quantify the
overall variability, the coefficient of variation (COV=standard deviation of distribution divided
my mean and expressed in percentage) is calculated for each site at the 5 return periods : values
vary mainly between 10 and 20%.
7.5.8 Impacts as a function of frequency
The results presented till now deal with the acceleration at frequency 34 Hz (PGA). We
have performed the same computations for frequencies 1, 2 and 5 Hz. At 5 Hz, the impacts
1o¡
80 90 100 110 120 130 140
0
5
10
15
20
25
30
PGA (gal)
FIG. 7.10 – Distribution of 180 acceleration values for 100y return period, resulting from the logic tree
and computed at the centre of source zone 16 ; square and triangles : mean and standard deviation of
distribution.
and their hierarchy are very similar to results at PGA. At 2 Hz however, important differences
appear that enlarge at 1 Hz : while minimum magnitude does not play a role anymore whate-
ver the period, impacts of correlation and truncation increase significantly. But above all, the
impact of maximum magnitude increases, reaching the level of both correlation and truncation
impacts at 10000y. Individual impacts of minimum and maximum magnitudes, at the 5 consi-
dered return periods, are displayed on Figure 7.12 for frequency 1 Hz. The understanding of
the changes in maximum magnitude impacts at 34 Hz and 1 Hz is straightforward when perfor-
ming magnitude deaggregation : Figure 7.13 shows distributions of contributions in magnitude
for both frequencies at one example site (left panels). At 34 Hz, contributions come from the
whole range of magnitude, while at 1 Hz, contributions mainly come from the upper range of
magnitude. Deaggregation in distance (right panels) indicates that contributions at 1 Hz come
from larger distances than at PGA. Furthermore, on the Figure 7.14 are displayed the logic tree
results for the return period 10000y at the four considered frequencies. Values corresponding
to frequencies 2, 5 and 34 Hz are multiplied by a coefficient so that the mean value of each
distribution equals the mean value of distribution at 1 Hz (see the legend). Percentages corres-
pond to differences between maximum and minimum values, normalized by maximum value.
As expected from individual impacts studies, variability increaseas with decreasing frequencies
(40% at PGA and 60% at 1 Hz).
7.6 Discussion and conclusions
The hierarchy of the impacts of the 4 parameters changes from one site to the next, but
global tendencies can be drawn (Figure 7.15). Results at 475y are representative of small return
1oj
♦7. QUANTIFYING UNCERTAINTIES IN FRENCH PSHA
10
2
10
3
10
4
10
5
0
200
400
600
800
1000
1200
Return period
A
c
c
e
l
e
r
a
t
i
o
n

(
g
a
l
)
mean
minimum
maximum
max+σ, min−σ
percentile 15/85%
FIG. 7.11 – Results of the logic tree, considering all possible combinations of the 4 parameters, at the
centre of source zone 16. Computations have been performed for the 5 return periods 10
2
, 475, 10
3
, 10
4
and 10
5
years. Results can be roughly approximated at intermediate return periods. Standard deviation
σ due to catalogue uncertainties, is added to both minimum and maximum hazard values.
periods (≤1000y), whereas results at 10
4
y are representative of large return periods (>1000y).
Catalogue uncertainties are also superimposed on the impacts of the other 4 parameters shown
in Figure 7.15. The variability of catalogue uncertainty is here quantified through the coeffi-
cient [2σ(j + σ)], with σ and j the standard deviation and mean of the gaussian distribution
respectively.
The following main conclusions can be drawn :
– Catalogue uncertainties that underlay all hazard results can engender variability as high
as the variability due to the controlling parameters.
– The minimum magnitude can greatly influence the estimation of hazard at small return
period ; however, hazard estimations at large return periods or at low frequencies are
not affected by this choice.
– The choices of an M-I correlation and of the truncation of the predicted ground mo-
tion distribution are key parameters in hazard estimation at all return periods and their
impact increases with decreasing frequency.
– The choice of the maximum magnitude has a relatively small impact on PGA hazard
1o0
estimations, even for very large return periods but becomes a key parameter at lower
frequencies (<5 Hz).
Given such a hierarchy of impacts, clearly, French PSHA studies should carefully select
values for these parameters in order to minimize biases in the calculations. Hazard should be
computed from a minimum magnitude of 4.0 (in the nuclear safety community a minimum
magnitude of 5.0 is usually used). The database from which the Berge-Thierry attenuation re-
lationship is derived, for example, does not contain events with magnitudes lower than 4.0.
Using this relationship to predict ground motions of magnitudes [3.5-4.0[ implies extrapolating
the relationship. No consensus exists on how much the probability functions predicted by the
attenuation relationship should be truncated. Hazard should therefore be estimated by testing
several truncation levels, until physical models are proposed that may allow to estimate upper
bounds to ground motions (see Restrepo-Velez & Bommer (2003) for example). Bakun and
Scotti (2003) are currently working on improving the M-I correlation by considering regional
intensity attenuation relationship for the French metropolitan territory. Results from this work
will hopefully reduce the M-I conversion uncertainty. Finally, results show that reductions of
maximum magnitudes from values of 7.0 to 6.5 produces reductions in the hazard estimates that
are less than half the reductions due to the decision of truncating the predicted ground motion
distribution at 2 standard deviation. This holds at all return periods and frequencies down to
5 Hz. However these results cannot be generalized for lower frequencies where the estimate
of maximum magnitudes becomes as important as the truncation of the attenuation relation-
ship. Geological considerations accompanied by statistical studies on seismic catalogues (for
example Pisarenko et al. (1996)) become important to specify the upper bound of the magni-
tude range. Although the overall variability in hazard estimates due to these four parameter
choices (COV between 10 and 20% at PGA) may be arbitrarily reduced by expert choices,
better physical models, may be needed before reliable PSHA estimates may be obtained. Seis-
motectonic zones are a very crude representation of "source" zones, attenuation models are all
weakly constrained in the near-site region and their predicted dispersions may be wrongly ove-
restimated (Anderson & Brune, 1999b). Furthermore, if quantifications of impacts at each site
can approximately be extrapolated to the whole zone, this study does not give any estimation of
uncertainties on hazard outside the source zones. In these weak seismicity regions where large
earthquakes have occurred in the past (Figure 7.1), the uncertainty on hazard estimates is very
large. A completely different study should be led for its quantification.
1o¬
♦7. QUANTIFYING UNCERTAINTIES IN FRENCH PSHA
0
5
10
15
20
25
30
35
40
I
m
p
a
c
t

(
%
)
3 4 6 8 10 11 13 16 17 18 19 20 23 27 30 32 37
FIG. 7.12 – Impacts on hazard estimates of M
min
and M
max
for frequency 1 Hz at the 17 sites. The
thicker the line, the higher the return period (100y, 475y, 1000y, 10000y, and 100000y). Black points :
impacts of the choice of M
min
(3.5/4.5). Yellow points : impacts of the choice of M
max
(6.5/7.0).
3 4 5 6 7
0
5
10
15
20
25
C
o
n
t
r
i
b
u
t
i
o
n

(
%
)
220 gal
20 40 60 80 100 120
0
20
40
60
80
3 4 5 6 7
0
10
20
30
40
50
Magnitude
C
o
n
t
r
i
b
u
t
i
o
n

(
%
)
121 gal
20 40 60 80 100 120
0
10
20
30
40
Distance (km)
Zone 20 − 475 y
34 Hz
1 Hz
34 Hz
1 Hz
FIG. 7.13 – Deaggregation for two different frequencies (PGA and 1 Hz), for 475y return period and
site 20 ; Left : magnitude distribution of contributions ; Right : distance distribution of contributions ;
red cross corresponds to D
98%
.
1o8
10
0
10
1
100
150
200
250
300
350
N
o
r
m
a
l
i
s
e
d

a
c
c
e
l
e
r
a
t
i
o
n
Frequency
40.5% 45.2% 53.7% 60.5%
FIG. 7.14 – Accelerations calculated at frequencies 1, 2, 5 and 34 Hz (PGA), for a 10000y return period,
exploring all parameters combinations of the logic tree, at the centre of zone 30. For each distribution at
frequencies 2, 5 and 34 Hz, values have been multiplied by the coefficient : m
i
/m
1
, with respectively m
i
and m
1
the means of distributions at frequencies i and 1 Hz. Percentages quantify variability (difference
between minimum and maximum values divided by maximum value).
0
5
10
15
20
25
30
35
40
I
m
p
a
c
t

(
%
)
3 4 6 8 10 11 13 16 17 18 19 20 23 27 30 32 37
0
5
10
15
20
25
30
35
40
I
m
p
a
c
t

(
%
)
3 4 6 8 10 11 13 16 17 18 19 20 23 27 30 32 37
FIG. 7.15 – Comparisons of individual parameters impacts at 475 year return period (left) and 10000
year (right). Magenta : correlation impact, blue : truncation, black : M
min
, yellow : M
max
. Variabilities
due to catalogue uncertainties are superimposed (green points).
1oo
♦7. QUANTIFYING UNCERTAINTIES IN FRENCH PSHA
11o
Chapitre 8.
Déagrégation
Le moyen le plus direct d’identifier l’origine de toutes les contributions au taux annuel de
dépassement d’une accélération est la déagrégation. Il ne s’agit pas d’un calcul supplémentaire
mais tout simplement du stockage des contributions au fur et à mesure de leur prise en compte
dans le calcul probabiliste. Les contributions sont ensuite rassemblées selon les magnitudes (m),
les distances (r) ou la localisation de la cible dans la gaussienne prédite par la loi d’atténuation
(ε). Les déagrégations permettent de comprendre les impacts des paramètres mis en évidence
au chapitre 7, elles sont effectuées sur des sites identiques (les centres des 17 zones sources) et
pour l’accélération au PGA.
8.1 Principe de la déagrégation
Dans un premier temps, l’accélération correspondant à la période de retour d’intérêt est
calculée. Cette accélération devient l’accélération cible et le programme de calcul stockant les
contributions est appliqué.
Les couples (m,r) sont passés en revue les uns après les autres, à chaque fois qu’un couple
(m,r) a une probabilité non nulle d’engendrer un dépassement, le taux annuel de dépassement
de la cible augmente. A chaque contribution est associée une magnitude, une distance et l’écart
à la moyenne ε :
ε =
|:¹

−|:¹
σ
lnA
(8.1)
Il suffit donc simplement de rajouter une ligne dans le programme : la magnitude, la
distance et la contribution (nombre annuel de dépassement) sont inscrits dans un fichier de
sortie.
111
♦8. DÉAGRÉGATION
8.2 Choix de la représentation
Il y a différentes techniques de représentation des résultats de déagrégation : en 1D, 2D,
3D (associations différentes de m, r et ε). Nous avons choisi de présenter la répartition des
contributions en 2D pour les distances et magnitudes, et en 1D pour les trois variables m, r et ε
(histogrammes).
Les paramètres du calcul probabiliste sont ceux du modèle de référence des études d’im-
pact (chapitre 7) : le catalogue Scotti est utilisé, les magnitudes minimales et maximales du
calcul probabiliste sont 3.5 et 7.0, la loi d’atténuation n’est pas tronquée.
Sur les figures 8.1 à 8.4, les déagrégations sont proposées pour les centres des zones 6,
18, 19 et 30 et pour les trois périodes de retour 100, 475 et 10000 ans (sur 3 colonnes). Les
contributions sont exprimées en pourcentage par rapport au taux annuel total. Les magnitudes
sont groupées dans des intervalles de largeur 0.5, la largeur est ainsi supérieure au pas en ma-
gnitude de 0.1 utilisé lors du calcul probabiliste. De plus, les intervalles en distances sont de
largeur 10 km, la borne minimale du premier intervalle est la distance minimale ayant contri-
buée à l’aléa (profondeur de la zone source). Les zones sources sont subdivisées en triangles
dans le programme de CRISIS (cf. chapitre 2). La dimension caractéristique 1c d’un triangle
est la racine carrée de l’aire du triangle ; la subdivision s’arrête si une des deux conditions sui-
vantes est atteinte : 1c est inférieure à 1:i: km et/ou la distance site-barycentre du triangle
est supérieur à 1:i: × 1c (condition pour que l’hypothèse de source ponctuelle soit valide).
Les paramètres choisis pour ces études de déagrégation sont 1:i: = 1 km et 1:i: = 5 km.
De plus, pour les histogrammes en ε, l’intervalle est de largeur 0.5, il n’y a pas de contrainte sur
le choix de cet intervalle.
En ce qui concerne les déagrégations en distance, il faut être prudent lors de l’interpréta-
tion des résultats : les distances séparent le site des barycentres des triangles et les contributions
se rapportent aux surfaces de ces triangles. Cependant, tant que la déagrégation n’est pas effec-
tuée en azimut, les biais sont limités.
8.3 Résultats des déagrégations
La déagrégation est détaillée pour quatre sites : les centres des zones 6, 18, 19 et 30
(figures 8.1 à 8.4). Ces quatres sites ont des particularités différentes et sont représentatifs des
déagrégations des 17 centres de zones sources. Les zones 6 et 18 ont un taux de sismicité faible
comparé au taux de sismicité des zones 19 et 30 (tableau 8.1).
11i
8.3.1 Déagrégation 1D en magnitude
Les déagrégations en magnitudes montrent que plus la période augmente (de gauche à
droite sur les graphiques), plus les contributions se reportent des faibles magnitudes vers les
fortes magnitudes. En effet, lorsque la période augmente, l’accélération correspondante aug-
mente, seules des magnitudes de plus en plus grandes peuvent contribuer. Pour toutes les zones,
de 100 à 10000 ans le pic des contributions se déplace vers la magnitude maximale 7.0. Ainsi,
l’impact du choix de la magnitude minimale va être d’autant plus fort que la période de retour
est faible, et inversement l’impact du choix de la magnitude maximale va croître lorsque la
période de retour s’allonge. C’est le comportement mis en évidence au chapitre 7. Les déagré-
gations en magnitude sont comparables pour les zones 6, 19 et 30. Dans le cas de la zone 18,
la répartition des contributions ne montre pas de pic marqué à 100 et 475 ans. Cette zone fai-
blement sismique est entourée de zones plus actives, une grande part des contributions provient
des zones voisines, donc de sources relativement éloignées comme le montre la déagrégation
en distance.
8.3.2 Déagrégation 1D en distance
Les déagrégations en distance montrent que les contributions à l’aléa de 100 à 10000 ans
proviennent essentiellement de sources situées à moins de 100 km du site, quelque soit le site.
Les contributions des zones 19 et 30 proviennent de distances plus courtes que celles des zones
6 et 18. Pour un même temps de retour, les accélérations dans les zones 19 et 30 sont plus
grandes que celles des zones 6 et 18.
Sur l’axe des abscisses, la croix indique la distance atteinte lorsque 98% des contributions
sont accumulées. Cette distance est appelée «rayon d’influence à 98%» dans la suite. Pour un
site donné, le rayon d’influence diminue lorsque la période de retour augmente : à nouveau,
plus l’accélération cible est grande et plus l’aire qui contribue se ressert autour du site. Ainsi le
rayon d’influence à 98% diminue de 60 km à 100 ans, à 50 km à 475 ans et 40 km à 10000 ans
dans la zone 19. Dans la zone plus faiblement sismique 18, il diminue de 110 km à 100 km puis
70 km.
La répartition des contributions en distance varie donc fortement d’un site à l’autre. Les
rayons d’influence à 98% sont alors calculés pour les 17 sites étudiés (tableau 8.1) pour les
deux périodes de retour 475 et 10000 ans. Les accélérations à 475 ans sont également reportées
dans le tableau. Les rayons diminuent systématiquement de 475 à 10000 ans ; pour un temps de
retour donné, plus l’accélération est grande et plus le rayon est petit.
11¸
♦8. DÉAGRÉGATION
0
5
Distance (km)
M
a
g
n
i
t
u
d
e
40 60 80 100
3.5
4
4.5
5
5.5
6
6.5
7
3 4 5 6 7
0
10
20
30
40
Magnitude
C
o
n
t
r
i
b
u
t
i
o
n

e
n

%
zone 6 56 gal 100y
40 60 80 100 120
0
10
20
30
40
50
60
Distance (km)
C
o
n
t
r
i
b
u
t
i
o
n

e
n

%
−2 0 2 4 6
0
5
10
15
20
25
Epsilon
C
o
n
t
r
i
b
u
t
i
o
n

e
n

%
0
5
Distance (km)
40 60 80 100
3.5
4
4.5
5
5.5
6
6.5
7
3 4 5 6 7
0
10
20
30
40
Magnitude
zone 6 104 gal 475y
40 60 80 100 120
0
10
20
30
40
50
60
Distance (km)
−2 0 2 4 6
0
5
10
15
20
25
Epsilon
0
5
10
Distance (km)
40 60 80 100
3.5
4
4.5
5
5.5
6
6.5
7
3 4 5 6 7
0
10
20
30
40
Magnitude
zone 6 282 gal 10000y
40 60 80 100 120
0
10
20
30
40
50
60
Distance (km)
−2 0 2 4 6
0
5
10
15
20
25
Epsilon
%
%
%
FIG. 8.1 – Zone 6, déagrégations en magnitude (m), distance (r) et ε, pour trois périodes de
retour (100, 475 et 10000 ans) ; 1
ere
ligne : déagrégation 1D m, 2
eme
ligne : 1D r, croix : 98%
des contributions sont comptabilisées à cette distance ; 3
eme
ligne : déagrégation 2D m et r,
croix : maximum de contributions en magnitude à distance constante ; 4
eme
ligne : 1D ε. Les
contributions sont exprimées en % par rapport au taux annuel total.
11¡
0
5
10
Distance (km)
M
a
g
n
i
t
u
d
e
20 40 60 80 100
3.5
4
4.5
5
5.5
6
6.5
7
3 4 5 6 7
0
5
10
15
20
25
30
Magnitude
C
o
n
t
r
i
b
u
t
i
o
n

e
n

%
zone 18 102.63gal 100y
20 40 60 80 100 120
0
20
40
60
80
Distance (km)
C
o
n
t
r
i
b
u
t
i
o
n

e
n

%
−2 0 2 4 6
0
5
10
15
20
25
Epsilon
C
o
n
t
r
i
b
u
t
i
o
n

e
n

%
0
5
Distance (km)
20 40 60 80 100
3.5
4
4.5
5
5.5
6
6.5
7
3 4 5 6 7
0
5
10
15
20
25
30
Magnitude
zone 18 175.63gal 475y
20 40 60 80 100 120
0
20
40
60
80
Distance (km)
−2 0 2 4 6
0
5
10
15
20
25
Epsilon
0
5
10
Distance (km)
20 40 60 80 100
3.5
4
4.5
5
5.5
6
6.5
7
3 4 5 6 7
0
5
10
15
20
25
30
Magnitude
zone 18 434.7gal 10000y
20 40 60 80 100 120
0
20
40
60
80
Distance (km)
−2 0 2 4 6
0
5
10
15
20
25
Epsilon
%
%
%
FIG. 8.2 – Zone 18, déagrégations en magnitude (m), distance (r) et ε, pour trois périodes de
retour (100, 475 et 10000 ans) ; 1
ere
ligne : déagrégation 1D m, 2
eme
ligne : 1D r, croix : 98%
des contributions sont comptabilisées à cette distance ; 3
eme
ligne : déagrégation 2D m et r,
croix : maximum de contributions en magnitude à distance constante ; 4
eme
ligne : 1D ε. Les
contributions sont exprimées en % par rapport au taux annuel total.
11j
♦8. DÉAGRÉGATION
0
5
10
Distance (km)
M
a
g
n
i
t
u
d
e
20 40 60 80 100
3.5
4
4.5
5
5.5
6
6.5
7
3 4 5 6 7
0
10
20
30
40
50
Magnitude
C
o
n
t
r
i
b
u
t
i
o
n

e
n

%
zone 19 165.11gal 100y
20 40 60 80 100 120
0
20
40
60
80
100
Distance (km)
C
o
n
t
r
i
b
u
t
i
o
n

e
n

%
−2 0 2 4 6
0
5
10
15
20
25
30
Epsilon
C
o
n
t
r
i
b
u
t
i
o
n

e
n

%
0
5
10
Distance (km)
20 40 60 80 100
3.5
4
4.5
5
5.5
6
6.5
7
3 4 5 6 7
0
10
20
30
40
50
Magnitude
zone 19 297.01gal 475y
20 40 60 80 100 120
0
20
40
60
80
100
Distance (km)
−2 0 2 4 6
0
5
10
15
20
25
30
Epsilon
0
20
Distance (km)
20 40 60 80 100
3.5
4
4.5
5
5.5
6
6.5
7
3 4 5 6 7
0
10
20
30
40
50
Magnitude
zone 19 772.66gal 10000y
20 40 60 80 100 120
0
20
40
60
80
100
Distance (km)
−2 0 2 4 6
0
5
10
15
20
25
30
Epsilon
%
%
%
FIG. 8.3 – Zone 19, déagrégations en magnitude (m), distance (r) et ε, pour trois périodes de
retour (100, 475 et 10000 ans) ; 1
ere
ligne : déagrégation 1D m, 2
eme
ligne : 1D r, croix : 98%
des contributions sont comptabilisées à cette distance ; 3
eme
ligne : déagrégation 2D m et r,
croix : maximum de contributions en magnitude à distance constante ; 4
eme
ligne : 1D ε. Les
contributions sont exprimées en % par rapport au taux annuel total.
110
0
10
Distance (km)
M
a
g
n
i
t
u
d
e
20 40 60 80 100
3.5
4
4.5
5
5.5
6
6.5
7
3 4 5 6 7
0
10
20
30
40
Magnitude
C
o
n
t
r
i
b
u
t
i
o
n

e
n

%
zone 30 171.05gal 100y
20 40 60 80 100 120
0
20
40
60
80
100
Distance (km)
C
o
n
t
r
i
b
u
t
i
o
n

e
n

%
−2 0 2 4 6
0
5
10
15
20
25
30
Epsilon
C
o
n
t
r
i
b
u
t
i
o
n

e
n

%
0
10
Distance (km)
20 40 60 80 100
3.5
4
4.5
5
5.5
6
6.5
7
3 4 5 6 7
0
10
20
30
40
Magnitude
zone 30 276.01gal 475y
20 40 60 80 100 120
0
20
40
60
80
100
Distance (km)
−2 0 2 4 6
0
5
10
15
20
25
30
Epsilon
0
10
20
Distance (km)
20 40 60 80 100
3.5
4
4.5
5
5.5
6
6.5
7
3 4 5 6 7
0
10
20
30
40
Magnitude
zone 30 627.34gal 10000y
20 40 60 80 100 120
0
20
40
60
80
100
Distance (km)
−2 0 2 4 6
0
5
10
15
20
25
30
Epsilon
% %
%
FIG. 8.4 – Zone 30, déagrégations en magnitude (m), distance (r) et ε, pour trois périodes de
retour (100, 475 et 10000 ans) ; 1
ere
ligne : déagrégation 1D m, 2
eme
ligne : 1D r, croix : 98%
des contributions sont comptabilisées à cette distance ; 3
eme
ligne : déagrégation 2D m et r,
croix : maximum de contributions en magnitude à distance constante ; 4
eme
ligne : 1D ε. Les
contributions sont exprimées en % par rapport au taux annuel total.
11¬
♦8. DÉAGRÉGATION
8.3.3 Déagrégation 2D en magnitude et distance
Une déagrégation 2D en magnitude et distance permet d’analyser l’évolution des répar-
titions des contributions en magnitude avec la distance. Sur les graphiques, les croix (en noir)
pointent, pour un intervalle en distance constant, l’intervalle de magnitude qui contribue le plus.
Ainsi, lorsque la distance augmente, la croix se déplace logiquement des magnitudes les plus
faibles vers les magnitudes les plus grandes. Cet effet apparait très clairement à 100 ans dans le
cas des zones 6 et 18, pour lesquelles les contributions sont largement réparties dans l’espace
(rayons d’influence maximales, tableau 8.1).
8.3.4 Rayons d’influence
Sur la figure 8.5, pour chaque site, un cercle centré sur le site est tracé, de rayon le rayon
d’influence à 98% (tableau 8.1). Les limites des zones sources sont superposées. Les cercles en
noir correspondent à la période de retour 475 ans et les cercles en gris à la période de retour
10000 ans. Le rayon d’influence à 98% est la distance maximale nécessaire pour atteindre 98%
des contributions à l’aléa. Cette distance maximale peut correspondre à une ou plusieurs sources
ponctuelles, la provenance exacte des contributions correspondantes n’est pas connue (une dé-
agrégation en azimut serait nécessaire pour identifier les latitudes et longitudes des barycentres
des triangles). Le tracé des cercles est une approximation qui permet tout de même d’évaluer
la distribution dans l’espace des contributions. De plus, les cercles ne sont pas tracés en dehors
des limites des zones sources puisque les contributions ne peuvent provenir que des sources.
Il apparait que pour une grande partie des sites, les contributions proviennent de sources
situées essentiellement à l’intérieur de la zone correspondante. Seule la zone 18 a ses contri-
butions qui proviennent largement des zones voisines, plus actives. Finalement, puisque les
contributions proviennent essentiellement de la zone source du site et comme la sismicité est
distribuée de manière uniforme dans une zone source, les surfaces circulaires sont une bonne
approximation de l’étendue des contributions en distance.
8.3.5 Déagrégation en ε
La déagrégation en ε analyse la provenance des contributions en terme d’écart à la moyenne
prédite par la loi d’atténuation du logarithme de l’accélération cible (équation 8.1). L’écart à la
moyenne est exprimé en multiples de l’écart-type σ
lnA
. Par exemple, lorsque le logarithme de
l’accélération cible (|:¹

) est située à 2 écart-types au-dessus de la moyenne |:¹, ε = 2. La
loi d’atténuation n’est pas tronquée dans ces calculs d’aléa et les histogrammes en ε (figures
8.1 à 8.4) montrent que les contributions provenant de probabilités au-delà de 5 écart-types sont
négligeables.
118
Zone 1
475y
(km) ¹
475y
(gal) 1
10000y
(km) λ
norm
Profondeur (km)
3 55 163 40 0.50 10
4 66 159 46 0.36 10
6 120 103 80 0.15 20
8 70 170 45 0.19 10
10 96 125 66 0.33 15
11 92 111 57 0.11 10
13 81 189 41 0.25 5
16 55 229 40 1.0 10
17 47 300 37 1.48 10
18 96 176 71 0.35 10
19 51 297 41 1.34 10
20 70 220 50 1.44 15
23 66 232 46 0.98 10
27 75 170 60 0.95 10
30 50 276 40 6.16 15
32 61 143 41 0.36 10
37 65 188 55 0.67 10
TAB. 8.1 – Rayons d’influence R aux 17 sites, pour les périodes de retour 475 et 10000 ans (cf. figure
8.5) ; pour indication, les accélérations correspondantes à 475 ans sont indiquées, ainsi que les taux de
sismicité surfaciques (m ≥ 3.5, 100×100 km
2
) et les profondeurs des zones sources.
Les contributions en ε suivent une distribution gaussienne. La majeure partie des contri-
butions est due à des ε supérieurs à 0 : pour la plupart des couples magnitudes-distances, l’ac-
célération médiane prédite est inférieure à l’accélération cible. De plus, pour un site donné, le
barycentre des contributions se déplace vers des ε plus élevés lorsque la période (donc l’accé-
lération) augmente. De 100 à 10000 ans, il se déplace approximativement de ε = 1 à ε = 2. Par
conséquence, l’impact du choix de tronquer les prédictions de la loi d’atténuation sera d’autant
plus grand que la période de retour s’allonge. Ces distributions permettent de comprendre les
impacts très forts du choix de tronquer les prédictions de la loi d’atténuation à 2σ et 3σ (chapitre
7).
8.4 Conclusions
Les déagrégations en magnitude, distance et ε éclairent considérablement le calcul proba-
biliste et le mécanisme d’addition des contributions. L’origine des contributions est analysée en
détail et les impacts des paramètres quantifiés au chapitre 7 se comprennent immédiatement.
11o
♦8. DÉAGRÉGATION
−6 −4 −2 0 2 4 6 8 10
41
42
43
44
45
46
47
48
49
50
51
52
Longitude
L
a
t
i
t
u
d
e
475 ans
10000 ans
FIG. 8.5 – Rayons d’influence à 475 (en noir) et 10000 ans (en gris) : distance maximale
nécessaire pour accumuler 98% des contributions à l’aléa, obtenue à partir de la déagrégation
en distance aux sites centres des zones sources (croix).
Si les déagrégation en magnitude ne surprennent pas, les déagrégations en distances et
ε sont quant à elles beaucoup moins attendues. L’accélération cible est principalement située
entre 0 et 4 écart-types au-dessus de la médiane prédite par la loi d’atténuation, ce qui explique
l’impact très fort du choix de tronquer les prédictions de la loi d’atténuation (chapitre 7). L’aléa
estimé en un site au centre d’une zone est principalement contrôlé par la zone elle-même. Ainsi,
pour l’ensemble des sites, 98% des contributions sont contenus dans rayon entre 50 et 120 km
à 475 ans et entre 40 et 80 km à 10000 ans. Le rayon d’influence diminue lorsque la période
de retour augmente. C’est une conséquence directe du calcul probabiliste : imaginons un cercle
centré autour du site dans lequel sont additionnées les contributions, si le rayon du cercle aug-
mente le nombre de contributions augmente, donc le taux annuel augmente et l’accélération
correspondante diminue.
1io
Troisième partie
MÉTHODES ALTERNATIVES
1i1
1ii
Chapitre 9.
Méthode de Woo
La méthode de Woo (1996) calcule un aléa probabiliste en s’affranchissant du zonage
sismotectonique. La sismicité n’est plus supposée uniforme dans des polygones. Une grille
est définie centrée sur le site, elle délimite la zone d’influence du site. Les taux de sismicité
annuels sont calculés aux noeuds de la grille en lissant les épicentres des séismes du catalogue
complet. La fonction kernel de lissage est supposée reproduire la distribution fractale spatiale
des épicentres. Le taux annuel de dépassement de l’accélération cible est obtenu de la même
manière que dans la méthode de Cornell-McGuire, à partir de la relation d’atténuation et en
sommant les contributions des points de la grille. La méthode de Woo apparaît comme une
alternative à la méthode de Cornell-McGuire dans les régions à sismicité modérée où l’approche
probabiliste par faille n’est pas envisageable. Après une présentation de la méthode, une étude
d’impact des choix de paramètres est menée. Les impacts quantifiés sont comparés aux résultats
basés sur la méthode de Cornell-McGuire. Toutes les estimations d’aléa de ce chapitre sont
effectuées au PGA.
9.1 Principe de la méthode
9.1.1 Un modèle de sismicité plus proche du catalogue
La méthode de Woo se distingue de la méthode de Cornell-McGuire par le modèle de
sismicité. Woo (comme d’autres, e.g. Molchan et al. (1997)) remet en cause le fait de délimiter
des zones sources larges et de supposer le taux de sismicité uniforme à l’intérieur de la zone
source. Il propose un modèle de sismicité plus proche du catalogue de sismicité, tenant compte
du caractère groupé de la répartition dans l’espace des séismes. Ce modèle s’obtient en lissant
les épicentres du catalogue de sismicité à l’aide de fonctions kernels. L’idée était déjà évoquée
par Bender & Perkins (1993) : calculer un aléa plus proche de la sismicité passée et s’affranchir
des limites rigides des zones (éviter que deux points limitrophes situés dans deux zones voisines
aient des estimations d’aléa très différentes).
1i¸
♦9. MÉTHODE DE WOO
De nombreuses études statistiques démontrent la répartition dans l’espace des séismes
selon une géométrie fractale (par exemple Kagan & Jackson (1991)). Les fonctions kernels de
lissage considérées sont des fonctions de densité spatiales, elles supposent une décroissance du
taux de sismicité en
1
r
α
, où α est lié à la dimension fractale 1. La probabilité d’occurrence de
chaque séisme est répartie dans l’espace autour de l’épicentre.
Les kernels sont utilisés pour lisser la sismicité dans des contextes différents. Dans un
contexte de PSHA, Cao et al. (1996) applique la méthode de Frankel (1995) et lisse les taux
de sismicité cumulés comptabilisés par cellules de 10×10km
2
au moyen de fonctions kernels
gaussiennes et en 1/r. Par ailleurs, Kagan & Jackson (1994, 2000) calculent des cartes de taux de
sismicité pour établir des cartes de prédictions. Ils travaillent sur un catalogue mondial, dans des
régions fortement sismiques (Japon par exemple) à partir de magnitudes 5.8. Les paramètres des
fonctions kernels sont calculés à partir de méthodes statistiques sur le catalogue de sismicité,
le critère de sélection des paramètres est fonction des résultats de prédictions. Ils utilisent deux
types de kernels indépendants de la magnitude, un kernel en 1: (Kagan & Jackson, 1994) et le
kernel de Vere-Jones (Kagan & Jackson, 2000).
La première est une fonction en 1: tronquée en-dessous d’une certaine distance minimale
1
min
et au-dessus d’une certaine distance maximale 1
max
:
1(:) =
1
1
min
0 ≤ : ≤ 1
min
(9.1)
1(:) =
1
:
i
1
min
≤ : ≤ 1
max
(9.2)
1(:) = 0 1
max
≤ : (9.3)
avec : la distance épicentrale. La seconde est la fonction kernel de Vere-Jones (1992), elle
propose une décroissance entre
1
r
3
et
1
r
4
selon le choix du paramètre λ (il contrôle le degré de
lissage spatial) :
1(:) =
λ −1
π
1
:
2
s
(1 +
:
2
:
2
s
)
−λ
c·cc λ ∈ [1.5 −2.0] (9.4)
avec :
s
le paramètre d’échelle. Dans le contexte PSHA, les magnitudes supérieures à 4.0 envi-
ron sont utilisées. Dans un contexte de sismicité intraplaque, les magnitudes sont modérées et la
quantité d’événements disponibles est bien inférieure aux catalogues étudiés par Kagan & Jack-
son (1994, 2000). Afin de rendre compte du caractère plus groupé des petites magnitudes par
rapport aux grandes, Woo propose d’utiliser la fonction kernel de Vere-Jones en faisant varier le
paramètre :
s
avec la magnitude. Woo (1996) propose que :
s
augmente de manière exponentielle
avec la magnitude :
1i¡
:
s
(:) = Hc
km
(9.5)
Selon lui, :
s
doit en effet correspondre à l’ordre de grandeur de la faille responsable d’un séisme
de magnitude :. Le paramètre :
s
est alors appelé la «bande-passante» du kernel ; plus :
s
aug-
mente et plus le lissage est fort.
9.1.2 Calcul probabiliste
Pour chaque intervalle de magnitude, une carte de taux de sismicité est calculée. La fonc-
tion kernel fournit pour chaque séisme une densité de probabilité en chaque point de la grille.
Cette densité de probabilité est pondérée par l’inverse de la période de complétude de la ma-
gnitude afin d’obtenir un taux annuel de sismicité. La grille de taux annuels est obtenue en
sommant sur tous les séismes de magnitude m du catalogue.
Soit λ(:. x) le taux annuel de sismicité en x dû aux N séismes de magnitudes m du
catalogue :
λ(:. x) =
N

i=1
1(:. x −x
i
)
1(:)
(9.6)
avec x la position du noeud de la grille, x
i
la position d’un épicentre et 1(:. x) une fonction
kernel de lissage.
Pour chaque magnitude :, une grille de taux annuel de sismicité λ(:. x) est calculée.
Soit ∆ le pas de la grille, chaque noeud de la grille représente une surface d’aire ∆
2
/:
2
et
est équivalent à un point source. Le calcul de la probabilité de dépassement du niveau cible ¹

s’effectue alors exactement comme dans la méthode de Cornell-McGuire (équation 1.8). Les
contributions de tous les points sources sont sommées sur la grille :
λ(¹ ≥ ¹

|:) =

x
1(¹ ≥ ¹

|:. x)λ(:. x)∆
2
(9.7)
Il est par conséquent nécessaire, comme dans la méthode de Cornell, de choisir une ma-
gnitude minimale `
MIN
. Les grilles de taux de sismicité sont calculées par intervalle de ma-
gnitude, de `
MIN
à la magnitude maximale du catalogue de sismicité (`
MAX
). Le taux annuel
de dépassement du niveau cible est obtenu en sommant les contributions de toutes les grilles :
λ(¹ ≥ ¹

) =
M
MAX

m=M
MIN
λ(¹ ≥ ¹

|:) (9.8)
1ij
♦9. MÉTHODE DE WOO
9.2 Application
9.2.1 Choix des fonctions kernels
Le choix de la fonction kernel adaptée aux données françaises et sa paramétrisation est
très délicat. Kagan & Jackson (2000) reconnaissent qu’il n’existe pas de modèle d’occurrence
complet des séismes à ce jour et que les kernels spatials et temporels utilisés dans leur pré-
diction reposent sur une série d’arguments statistiques, physiques mais aussi intuitifs (ad hoc).
Une étude exhaustive des fonctions kernels envisageables pour la France, et des domaines de
variation des paramètres les caractérisant est indispensable. Cependant, dans le cadre de cette
première étude, nous avons choisi de tester les kernels utilisés dans trois applications récentes
de la méthode de Woo en France, en Espagne et en Norvège.
Trois fonctions kernels sont donc appliquées au catalogue de sismicité français. La pre-
mière est la fonction en 1: indépendante de la magnitude (kernel F, équation 9.1). Elle est
utilisée lors de l’application de la méthode de Woo dans le cadre de la révision du zonage
français (Martin et al., 2002a), sur les conseils de G. Woo, expert scientifique du projet. Les
paramètres 1
min
et 1
max
sont fixés à 10 et 100 km. La fonction est représentée sur la figure 9.1
en 2D et sur la figure 9.2.1 en 3D. Les deux autres lissages utilisés sont des fonctions Vere-Jones
(équation 9.4), utilisées lors d’une application de la méthode de Woo en Norvège et en Espagne
(Molina et al., 2001) avec les bandes passantes suivantes :
:
s
(:) = 1.340c
0.6m
(Espagne. E) (9.9)
:
s
(:) = 0.048c
1.55m
(Norvege. N) (9.10)
Le paramètre λ a une influence sur la fonction kernel moindre par rapport au choix de la
bande passante :
s
(Woo, 1996, Molina et al., 2001), il est fixé à 1.5 dans cette étude. Le kernel E
est représenté pour quatre magnitudes (4.0 à 7.0) sur les figures 9.1 et 9.2.1. Plus la magnitude
augmente, plus la surface autour de l’épicentre sur laquelle est répartie la probabilité d’occur-
rence est large (les probabilités diminuent à proximité de l’épicentre et augmentent loin du site).
Le kernel N lisse beaucoup plus fortement que les kernels E et F les magnitudes supérieures ou
égales à 5.0. Le kernel F, indépendant de la magnitude, lisse plus fortement que le kernel E les
magnitudes 4.0 et 5.0, et inversement moins fortement les magnitudes 6.0 et 7.0.
1i0
0 20 40 60 80 100 120
10
−8
10
−7
10
−6
10
−5
10
−4
10
−3
D
e
n
s
i
t
é

d
e

p
r
o
b
a
b
i
l
i
t
é
Distance (km)
M=4;V−JE
M=5;V−JE
M=6;V−JE
M=7;V−JE
M=4;V−JN
M=5;V−JN
M=6;V−JN
M=7;V−JN
10−100
FIG. 9.1 – Superposition des trois fonctions kernels utilisées ; courbe continue avec cercles :
kernel F en 1: indépendant de la magnitude ; courbes continues : kernels Vere-Jones E pour 4
magnitudes ; tirets : kernels Vere-Jones N pour 4 magnitudes (cf. texte).
1i¬
♦9. MÉTHODE DE WOO
−100
−50
0
50
100
−100
−50
0
50
100
0
1
2
3
x 10
−4
Distance
indépendant de M−Rmin=10;Rmax=100
Distance
D
e
n
s
i
t
é

d
e

p
r
o
b
a
b
i
l
i
t
é
F
−100
−50
0
50
100
−100
−50
0
50
100
0
2
4
6
8
x 10
−4
Distance (km)
a=1.5;H=0.048;k=1.55
Distance (km)
D
e
n
s
i
t
é

d
e

p
r
o
b
a
b
i
l
i
t
é
N
M=4.0
−100
−50
0
50
100
−100
−50
0
50
100
0
2
4
6
8
x 10
−4
Distance (km)
a=1.5;H=1.34;k=0.6
Distance (km)
D
e
n
s
i
t
é

d
e

p
r
o
b
a
b
i
l
i
t
é E
M=4.0
−100
−50
0
50
100
−100
−50
0
50
100
0
0.5
1
1.5
2
2.5
3
x 10
−4
Distance (km)
a=1.5;H=1.34;k=0.6
Distance (km)
D
e
n
s
i
t
é

d
e

p
r
o
b
a
b
i
l
i
t
é
E
M=5.0
−100
−50
0
50
100
−100
−50
0
50
100
0
2
4
6
8
x 10
−5
Distance (km)
a=1.5;H=1.34;k=0.6
Distance (km)
D
e
n
s
i
t
é

d
e

p
r
o
b
a
b
i
l
i
t
é
E
M=6.0
−100
−50
0
50
100
−100
−50
0
50
100
0
2
4
6
8
x 10
−5
Distance (km)
a=1.5;H=1.34;k=0.6
Distance (km)
D
e
n
s
i
t
é

d
e

p
r
o
b
a
b
i
l
i
t
é
M=7.0
E
FIG. 9.2 – Fonctions kernels utilisées : F, N (pour `=4.0) et E (pour `=4.0,5.0,6.0,7.0),
(bandes passantes : équations 9.9 et 9.10).
1i8
9.2.2 Choix des sites et des paramètres du calcul probabiliste
L’aléa est calculé aux centres des zones sources du zonage sismotectonique, comme dans
les études précédentes traitant de la méthode de Cornell-McGuire (chapitres 7 et 8), pour com-
parer les résultats des deux méthodes. Ces sites sont reportés sur la carte 9.3, ainsi que les
épicentres des séismes inclus dans les périodes complètes (` ≥ 4.0). La localisation de chaque
site par rapport à la distribution des épicentres peut ainsi être appréciée ; différents cas de figure
se présentent : site localisé dans un nuage d’épicentres (par exemple, sites 19 ou 30) et site
éloigné des épicentres (par exemple sites 10 ou 18).
−6 −4 −2 0 2 4 6 8 10
41
42
43
44
45
46
47
48
49
50
51
52
3
4
6
8
10
11
13
16
17
18
19
20
23
27
30
32
37
Longitude
L
a
t
i
t
u
d
e
FIG. 9.3 – Localisation des sites par rapport à la répartition des épicentres (` ≥ 4.0, séismes
inclus dans les périodes complètes, catalogue Scotti).
La grille des taux de sismicité centrée sur le site est un carré de 200 km de côté, avec un
pas de 5 km. Les contributions à l’aléa au-delà de 100-120 km du site ne sont donc pas prises
en compte. Les séismes situés à moins de 400 km du site sont pris en compte pour le calcul des
1io
♦9. MÉTHODE DE WOO
taux de sismicité aux noeuds de la grille. Par ailleurs, la profondeur de chaque séisme est celle
de la zone source du zonage sismotectonique (utilisé dans la méthode de Cornell-McGuire)
à laquelle il appartient. Le pas en magnitude est fixé à 0.1, le nombre de grilles de taux de
sismicité générées est donc 10 ×(`
MAX
−`
MIN
).
9.2.3 Exemples de grilles de taux de sismicité
Sur la figure 9.4 sont représentées des grilles de taux de sismicité lissés, utilisées pour le
calcul de l’aléa au site de coordonnées (43.0 ;-0.29), centre de la zone source sismotectonique
n

30. Elles correspondent à quatre magnitudes (4.0 ;4.5 ;5.0 ;5.5) et deux fonctions de lissage
E et F. Les séismes utilisés sont également reportés sur les cartes. Les taux de sismicité cor-
respondent aux probabilités d’occurrence pondérées par l’inverse des périodes complètes de
chaque séisme (cf. Tableau 5.1, catalogue Scotti). Pour une magnitude donnée, l’échelle du gra-
phique est identique pour les deux kernels E et F. Le kernel F indépendant de la magnitude lisse
plus fortement que le kernel E les magnitudes 4.0, 4.5 et 5.0 ; et moins fortement la magnitude
5.5.
9.2.4 Etudes d’impacts des choix de paramètres
Afin de mettre en évidence les paramètres qui contrôlent les estimations d’aléa dans la
méthode de Woo, des études d’impacts des choix des paramètres peuvent être menées exacte-
ment comme pour la méthode de Cornell-McGuire (notée C-M dans la suite). Les paramètres
analysés dans le cas de la méthode de Woo sont les suivants : la corrélation intensité-magnitude,
la fonction de lissage, la magnitude minimale `
MIN
contribuant à l’aléa et la troncature des
prédictions de la relation d’atténuation. Par rapport aux études d’impact avec Cornell-McGuire,
la fonction de lissage est donc le paramètre supplémentaire. A l’inverse, le choix de la magni-
tude maximale ne se pose plus. Dans la méthode de Woo, `
MAX
est en effet la magnitude
maximale du catalogue de sismicité.
Dans le modèle de référence, la corrélation M-I Scotti est utilisée, la sismicité est lissée
avec la fonction de kernel F, les magnitudes sont prises en compte à partir de 3.5 et les prédic-
tions de la relation d’atténuation ne sont pas tronquées. Le choix des paramètres de référence
et alternatifs sont identiques aux études d’impact avec Cornell-McGuire, pour les trois para-
mètres en commun (tableau 9.1). L’impact correspond à la différence entre l’accélération de
référence et l’accélération alternative, divisée par l’accélération de référence (et exprimée en
pourcentages, cf. chapitre 7). Lorsque la corrélation utilisée est modifiée, les périodes de com-
plétude du catalogue changent et par suite les magnitudes et les épicentres lissés diffèrent. Par
ailleurs, deux lissages alternatifs (E et F) sont considérés. Le modèle de référence n’est pas le
1¸o
Paramètre Corrélation M-I Lissage M
min
Troncature
Référence Scotti F 3.5 non
Alternative(s) Levret E et N 4.5 +2σ
TAB. 9.1 – Paramètres des études d’impact : modèle de référence et valeurs alternatives.
plus conservatif et les impacts peuvent être négatifs.
Les impacts des choix de paramètres sont calculés à 475 et 10000 ans (figure 9.5, page
136). La hiérarchie exacte des impacts de paramètres varie selon le site, comme dans l’étude
basée sur la méthode de C-M, cependant les paramètres clefs peuvent être globalement mis en
évidence. Ainsi, à 475 ans :
– Le lissage Nproduit des accélérations beaucoup plus faibles que le lissage F de re
´
férence,
l’impact du choix du lissage atteint 45% pour les sites des zones 4, 8 et 17. Le choix du
lissage E a un impact moins fort : les impacts varient entre -2% et 22%.
– Le choix de la magnitude minimale a un impact significatif pour cinq sites (entre 12
et 17%, sites 3, 10, 11, 13 et 32) ; pour les autres sites, la magnitude minimale est le
paramètre le moins influent (impact inférieur à 8%).
– Le choix de la corrélation est comparable à celui de la troncature, les impacts sont
compris entre 10 et 30%.
A 10000 ans, la hiérarchie des impacts de choix de paramètres est globalement conservée :
– L’impact du choix de la fonction de lissage N augmente (jusqu’à 60%), l’impact du
choix de lisser avec le kernel E reste globalement stable.
– Le choix de la magnitude minimale n’a aucun impact sur les estimations d’accéléra-
tions.
– Les impacts des choix de tronquer et de la corrélation augmentent légèrement (impacts
entre 20 et 30%) et sont très comparables.
Le choix de la fonction kernel E engendre une baisse des accélérations pour 15 sites sur
17 à 475 ans et 14 sites à 10000 ans. L’explication des influences différentes des lissages E et
F (référence) n’est pas immédiate, pour les petites magnitudes le lissage F lisse moins que le
lissage E, pour les grandes magnitudes c’est l’inverse. La fonction kernel N lisse beaucoup plus
fortement que les kernels E et F, et engendre une baisse des accélérations extrêmement forte.
Ce kernel n’est plus envisagé dans la suite de l’étude.
Les résultats d’impacts de paramètres liés à la méthode de Woo sont comparés aux résul-
tats d’impacts de paramètres liés à la méthode de Cornell-McGuire sur la figure 9.6. A 475 ans,
les sites pour lesquels la magnitude minimale joue un rôle clef sont les mêmes (sites 3, 10, 11,
13 et 32), à l’exception du site 27 (impact faible avec Woo). Les impacts du choix de la cor-
1¸1
♦9. MÉTHODE DE WOO
rélation sont moins corrélés, l’impact maximal est cependant retrouvé au site 11. En revanche,
le choix de la troncature (courbes bleues) produit des impacts sur les estimations quasiment
identiques pour les deux méthodes.
A 10000 ans, l’impact du choix de la corrélation est plus fort et plus stable d’un site à
l’autre dans la méthode de Woo que dans celle de C-M. Les impacts de la troncature sont en
revanche à nouveau similaires. Le choix de la magnitude minimale n’a plus aucun effet dans les
deux méthodes.
9.2.5 Variabilité totale
Un arbre logique est finalement construit, les calculs sont effectués pour toutes les com-
binaisons possibles des quatres paramètres : 24 valeurs d’aléa sont obtenues pour chaque site.
Les distributions des accélérations à 475 et 10000 ans sont reportées sur la figure 9.7. Les va-
leurs minimales et maximales, ainsi que les moyennes sont indiquées. Sur le même graphique
sont superposés les résultats de l’arbre logique sur la méthode de Cornell-McGuire combinant
quatre paramètres (corrélation, magnitudes minimales et maximales, troncature, cf. chapitre 7).
Les variabilités totales issues des arbres logiques sur Woo et Cornell sont par ailleurs calculées
(tableau 9.2) : la variabilité totale est la différence entre valeur maximale et valeur minimale,
divisée par la valeur maximale et exprimée en pourcentages.
Pour les deux méthodes, la variabilité totale est globalement du même ordre de grandeur
à 475 et 10000 ans. Les variabilités issues de la méthode de Woo sont légèrement plus élevées
que celles issues de la méthode Cornell-McGuire. Les niveaux d’accélérations peuvent être
comparés sur la figure 9.7. Les distributions d’accélérations obtenues par les deux méthodes
sont très similaires. Ce résultat est inattendu, les modèles de sismicité (scénarios magnitude-
distance) des méthodes de Woo et Cornell-McGuire sont très différents. Pour certains sites les
accélérations moyennes calculées par Woo sont plus élevées que celles calculées par Cornell,
pour d’autres sites l’inverse est observé : il n’y a pas de systématisme.
9.3 Conclusions et analyses futures
Les choix de quatre paramètres sont explorés pour chacune des méthodes de Woo et Cor-
nell. Trois de ces paramètres sont communs (corrélation, magnitude minimale et troncature),
le quatrième diffère : magnitude maximale dans Cornell, lissage kernel dans Woo. Les impacts
individuels des choix de troncature et de magnitude minimale sont très proches dans les deux
méthodes. Le calcul de la probabilité de dépassement des niveaux cibles est identique dans
les deux méthodes, mais les modèles de sismicité sont différents. Le choix de la corrélation a
1¸i
Zone \
Woo
475 \
Woo
10000 \
Cornell
475 \
Cornell
10000
3 43 42 67 57
4 49 48 27 30
6 50 50 42 45
8 40 43 38 42
10 51 47 42 42
11 64 56 57 50
13 48 41 44 38
16 42 43 31 37
17 45 48 32 43
18 49 48 40 41
19 42 48 41 48
20 39 47 36 44
23 50 52 39 44
27 47 48 44 38
30 45 51 37 45
32 42 41 44 38
37 51 50 38 38
TAB. 9.2 – Variabilités totales (en %) des estimations d’aléa aux 17 sites, calculées à partir des
arbres logiques sur les méthodes de Woo et de Cornell-McGuire, pour les périodes de retour
475 et 10000 ans (la variabilité est la différence entre les accélérations maximale et minimale
des distributions, divisée par l’accélération maximale).
1¸¸
♦9. MÉTHODE DE WOO
par ailleurs un impact plus fort lorsque la méthode de Woo est appliquée. Les études de dé-
agrégation permettront de comprendre l’origine des contributions et les impacts des choix de
paramètres.
La méthode de Woo résout le problème de l’estimation de l’aléa des points en bordure de
zones, le passage d’une zone dans l’autre n’est pas brutal comme dans Cornell-McGuire mais
progressif. Néanmoins, du point de vue de la variabilité des résultats due au choix des para-
mètres, les incertitudes sur les estimations d’aléa sont aussi grandes dans la méthode de Woo
que dans celle de Cornell. Il est d’ailleurs étonnant que les distributions d’accélérations issues
des arbres logiques sur Woo et C-M coincident autant. L’étude de Molina et al. (2001) conclut
au contraire que la méthode de Woo sous-estime l’aléa par rapport à Cornell-McGuire et qu’un
taux de sismicité de «background» doit être ajouté. Ils expliquent cette sous-estimation par un
catalogue de sismicité couvrant une période temporelle trop courte et non représentative de la
sismicité des régions étudiées. Les modèles de récurrence calculés dans la méthode de Cornell-
McGuire pallierait à ce «manque» de séismes. Ces observations ne sont pas du tout retrouvées
dans nos estimations d’aléa en France, les résultats issus des deux méthodes probabilistes sont
au contraire cohérents. Des analyses de déagrégation devront permettre de comprendre l’origine
des contributions à l’aléa dans la méthode de Woo et d’éclairer les différences ou les ressem-
blances entre les deux modèles de sismicité.
Il sera également important dans le futur de quantifier l’impact des incertitudes de cata-
logues (détermination des localisations et magnitudes) sur les estimations de Woo. Les tech-
niques mises en place dans le cadre de la méthode de Cornell peuvent être appliquées direc-
tement à la méthode de Woo. Dans les études de Molina et al. (2001), les incertitudes sur les
magnitudes et sur les localisations sont prises en compte à l’intérieur du calcul probabiliste. Ces
deux techniques pourront être comparées. De plus, les paramètres de la grille (pas et extension)
sont fixes dans toute cette étude. L’impact du choix de ces paramètres sur les estimations d’aléa
devra également être analysé.
Une analyse du catalogue de sismicité français sera indispensable pour déterminer des
paramètres de fonctions kernels adaptées à la répartition des séismes. L’utilisation des kernels
de Martin et al. (2002a) et Molina et al. (2001) permet cependant une première analyse de la
méthode de Woo et la mise en évidence de paramètres contrôlant les estimations. D’autre part,
la méthode de Woo pourrait être utilisée dans les zones où la méthode de Cornell-McGuire
ne peut s’appliquer (impossibilité de modéliser une courbe de récurrence en raison du faible
nombre de séismes).
1¸¡
0
1
−2 −1 0 1
42
42.5
43
43.5
44
L
a
t
i
t
u
d
e
M=4 ; 0.0001246
0
1
−2 −1 0 1
42
42.5
43
43.5
44
L
a
t
i
t
u
d
e
M=4 ; 3.956e−05
0
1
−2 −1 0 1
42
42.5
43
43.5
44
L
a
t
i
t
u
d
e
M=4.5 ; 1.834e−05
0
1
−2 −1 0 1
42
42.5
43
43.5
44
Longitude
L
a
t
i
t
u
d
e
M=4.5 ; 1.093e−05
0
2
−2 −1 0 1
42
42.5
43
43.5
44
M=5 ; 3.256e−06
0
2
−2 −1 0 1
42
42.5
43
43.5
44
M=5 ; 2.708e−06
0
0.5
1
−2 −1 0 1
42
42.5
43
43.5
44
M=5.5 ; 9.266e−07
0
0.5
1
−2 −1 0 1
42
42.5
43
43.5
44
M=5.5 ; 1.289e−06
Longitude
E
E
E
E
F
F
F
F
FIG. 9.4 – Grilles de taux annuels de sismicité par magnitude M, lissage E : Vere-Jones
(H=1.34 ;k=0.6) et lissage F : indépendant de M, en 1:, le taux annuel maximal est indiqué,
la grille de 200×200 /:
2
est centrée sur le site (point magenta).
1¸j
♦9. MÉTHODE DE WOO
−10
0
10
20
30
40
50
60
70
Site
I
m
p
a
c
t

(
%
)
3 4 6 8 10 11 13 16 17 18 19 20 23 27 30 32 37
475 ans
Mmin 3.5/4.5
lissage F/N
lissage F/E
catalogue S/L
troncature ∞/+2σ
−10
0
10
20
30
40
50
60
70
Site
I
m
p
a
c
t

(
%
)
3 4 6 8 10 11 13 16 17 18 19 20 23 27 30 32 37
10000 ans
FIG. 9.5 – Impacts à 475 ans et à 10000 ans dus au choix de 4 paramètres dans la méthode de Woo :
magnitude minimale, fonction kernel de lissage, catalogue de sismicité et troncature de la relation
d’atténuation.
0
5
10
15
20
25
30
35
40
Site
I
m
p
a
c
t

(
%
)
3 4 6 8 10 11 13 16 17 18 19 20 23 27 30 32 37
475 ans
corrélation S/L
Mmin 3.5/4.5
troncature ∞/+2σ
lissage F/E
0
5
10
15
20
25
30
35
40
I
m
p
a
c
t

(
%
)
Site
3 4 6 8 10 11 13 16 17 18 19 20 23 27 30 32 37
correlation S/L
Mmin 3.5/4.5
troncature ∞/+2σ
Mmax 6.5/7.0
475 ans
0
5
10
15
20
25
30
35
40
Site
I
m
p
a
c
t

(
%
)
3 4 6 8 10 11 13 16 17 18 19 20 23 27 30 32 37
10000 ans
0
5
10
15
20
25
30
35
40
I
m
p
a
c
t

(
%
)
Site
3 4 6 8 10 11 13 16 17 18 19 20 23 27 30 32 37
10000 ans
FIG. 9.6 – Comparaison des impacts individuels des choix de paramètres dans les méthodes de Woo (à
gauche) et Cornell-McGuire (à droite) à 475 et 10000 ans.
1¸0
0
50
100
150
200
250
300
350
3 4 6 8 10 11 13 16 17 18 19 20 23 27 30 32 37
A
c
c
é
l
é
r
a
t
i
o
n

(
g
a
l
)
475 ans
Moyenne Woo
Min/Max Woo
Moyenne Cornell
Min/Max Cornell
0
100
200
300
400
500
600
700
800
3 4 6 8 10 11 13 16 17 18 19 20 23 27 30 32 37
A
c
c
é
l
é
r
a
t
i
o
n

(
g
a
l
)
10000 ans
Moyenne Woo
Min/Max Woo
Moyenne Cornell
Min/Max Cornell
FIG. 9.7 – Distributions des accélérations calculées à partir de l’arbre logique sur la méthode
de Woo (en vert), et de l’arbre logique sur la méthode de Cornell-McGuire (en noir), aux centres
des 17 zones sources.
1¸¬
♦9. MÉTHODE DE WOO
1¸8
Chapitre 10.
Complémentarité des méthodes
probabilistes et déterministes
L’estimation de l’aléa sismique en un site au moyen de méthodes déterministes conduit
à identifier un ou plusieurs scénario(s) magnitude-distance et à calculer l’accélération corres-
pondante au site. Les méthodes déterministes n’apportent pas d’information sur le temps de
retour associé à ce mouvement du sol. Les méthodes probabilistes peuvent alors être associées
aux estimations déterministes, en calculant les temps de retour des accélérations déterministes.
Ce chapitre illustre la complémentarité possible des deux approches, la méthode déterministe
employée est simple, cette estimation de périodes de retour est uniquement un exercice.
10.1 Accélération maximale observée dans l’histoire
La méthode déterministe utilisée est la suivante : pour un site donné sont calculées les
accélérations engendrées au site par l’ensemble des séismes du catalogue ; l’accélération maxi-
male est ensuite sélectionnée : c’est l’accélération maximale observée dans l’histoire. Le cata-
logue de sismicité total est considéré (de 1356 à 1999, périodes non complètes comprises, cata-
logue Levret). Les accélérations A sont calculées avec la relation d’atténuation Berge-Thierry
et al. (2003) en prenant en compte un écart-type (log
10
¹ = log
10
¹+1σ, cf. éq. 4.1) et avec une
profondeur de 10 km. Ces accélérations déterministes sont calculées aux 17 sites étudiés dans
les chapitres précédents (centres des 17 zones sources sismotectoniques). Elles sont reportées
dans le tableau 10.1 et sur la carte de la figure 10.1. Les séismes de magnitude supérieure ou
égale à 6.0 sont par ailleurs indiqués.
Les accélérations déterministes ainsi déterminées sont comprises entre 70 et 579 gal. Un
niveau d’accélération de 579 gal est obtenu pour le site 32 dans l’Est des Pyrénées, il est en-
gendré par un séisme localisé juste sous le site (cf. carte 10.1). Ces valeurs correspondent aux
hypothèses choisies : une profondeur des séismes à 10 km et une accélération à un écart-type
au-dessus de la valeur moyenne. Les valeurs les plus faibles (< 150 gal) sont obtenues pour les
1¸o
♦10. COMPLÉMENTARITÉ DES MÉTHODES PROBABILISTES ET DÉTERMINISTES
sites 3 (Belgique), 6 (Bretagne Nord), 11 (Limagne), 16, 18, 23 (Alpes) et 27 (Pyrénées Nord).
Les accélérations les plus fortes (> 200 gal, sans compter le site 32) sont obtenues pour les sites
4 (Fossé Rhénan Supérieur), 17 (Valais), 20 (Ivrea Sesia) et 30 (Pyrénées Occidentales Nord).
Cette méthode déterministe est très simple, les localisations et magnitudes des scéna-
rios considérés sont directement celles des séismes du catalogue. Les incertitudes sur les lo-
calisations épicentrales et les déterminations de magnitude des séismes ne sont pas prises en
compte. La méthode déterministe à la base des estimations d’aléa dans le domaine du nucléaire
en France est plus complexe. Un zonage sismotectonique est utilisé. Les séismes les plus péna-
lisants s’étant produits dans la zone du site sont déplacés et positionnés directement sous le site ;
tandis que les séismes les plus pénalisants s’étant produits dans une zone voisine sont déplacés
sur la limite de zone, au point le plus proche du site.
−6 −4 −2 0 2 4 6 8 10
41
42
43
44
45
46
47
48
49
50
51
52
Longitude
L
a
t
i
t
u
d
e
3
4
6
8
10
11
13
16
17
18
19
20
23
27
30
32
37
50
100
150
200
250
300
FIG. 10.1 – Accélérations calculées avec une méthode déterministe simple : accélération maxi-
male observée dans l’histoire (catalogue Levret, profondeur de 10 km, +1σ sur la valeur prédite
par la loi d’atténuation) ; astérisques : séismes de magnitude ≥ 6.0 du catalogue [1356-1999].
1¡o
zone A (gal) 1
inf
(années) 1
sup
(années)
3 70 57 133
4 250 1596 4243
6 124 708 3758
8 175 475 1450
10 152 770 3758
11 71 153 625
13 180 388 1106
16 132 97 220
17 264 305 1075
18 80 47 146
19 164 90 325
20 256 689 3873
23 111 58 173
27 130 175 664
30 264 368 2446
32 579 37037 520833
37 157 242 879
TAB. 10.1 – Accélérations (A) calculées avec une méthode déterministe simple (cf. carte 10.1)
et estimation des périodes de retour correspondantes minimale et maximale fournies par la
méthode probabiliste de Cornell-McGuire (paramètres dans le tableau 10.2).
10.2 Estimation des périodes de retour des accélérations dé-
terministes
A partir de la méthode probabiliste de Cornell-McGuire, un intervalle est estimé pour
la période de retour de chaque accélération déterministe, aux 17 sites. Au chapitre 7, quatre
paramètres clefs du calcul probabiliste ont été identifiés : corrélation magnitude-intensité, ma-
gnitudes minimales et maximales et troncature des prédictions de la relation d’atténuation. Le
domaine de variation de ces paramètres a par ailleurs été déterminé afin de quantifier les im-
pacts des choix de paramètres sur les estimations d’aléa et la variabilité totale engendrée. La
combinaison des paramètres du modèle de référence (le plus conservatif) est réutilisée ici pour
estimer la borne supérieure de l’intervalle (tableau 10.2, combinaison 1). La combinaison de
paramètres alternatifs la moins conservative est utilisée pour estimer la borne inférieure de
l’intervalle (combinaison 2, tableau 10.2). Le tableau 10.1 présente les périodes de retour cor-
respondant aux accélérations déterministes des 17 sites.
Le catalogue de sismicité, utilisé pour le calcul des accélérations maximales détermi-
1¡1
♦10. COMPLÉMENTARITÉ DES MÉTHODES PROBABILISTES ET DÉTERMINISTES
Paramètre Corrélation M-I `
min
`
max
Troncature
Combinaison 1 (1
inf
) Scotti 3.5 7.0 non
Combinaison 2 (1
sup
) Levret 4.5 6.5 +2σ
TAB. 10.2 – Paramètres utilisés pour le calcul de 1
inf
et 1
sup
.
nistes, couvre 650 ans (1356-1999). Il n’est cependant pas complet sur toute cette période tem-
porelle, même pour les magnitudes les plus élevées (cf. tableau 6.1, chapitre 7). L’accélération
déterministe est ici l’accélération maximale ressentie au site, en prenant en compte tous les
séismes du catalogue de sismicité. Les périodes de retour de l’accélération 579 gal (site 32)
sont extrêmement grandes : entre 37000 et 520000 ans. Ce cas de figure illustre la difficulté
d’une estimation de l’aléa sismique dans une zone peu active (cf. tableau 7.2, chapitre 7) mais
qui a connu un ou plusieurs séismes historiques forts. Les bornes inférieures des intervalles
indiquent une période de retour de l’accélération déterministe supérieure à la longueur du cata-
logue pour les sites 4, 6, 10, 20 et 32. L’incertitude sur l’estimation de la période de retour est
très large, la période maximale est 2 à 14 fois plus grande que la période minimale.
10.3 Conclusions
Cet exemple illustre la complémentarité entre les approches probabiliste et déterministe.
Le calcul probabiliste fournit une estimation de la période de retour de l’accélération déter-
ministe, un intervalle de valeurs possibles est calculé tenant compte des incertitudes liées à
l’estimation probabiliste. L’estimation de l’accélération déterministe comporte également des
incertitudes, le choix d’ajouter un écart-type à la valeur moyenne de la relation d’atténuation
est purement arbitraire. Une autre manière de combiner les deux approches consisterait à tenir
compte également des incertitudes sur l’accélération déterministe et fournir, pour chaque accé-
lération possible, l’intervalle des périodes de retour probabilistes. Ces estimations sont un outil
d’aide à la décision pour l’expert en charge de l’estimation de l’aléa sismique en un site.
1¡i
Conclusions et perspectives
Différents types d’incertitudes inhérentes au calcul de l’aléa probabiliste sont analysés
dans cette thèse. Certaines sont liées au contexte de sismicité modérée français (peu de données
disponibles) : la dépendance de la b-value, pente de la courbe de récurrence, avec l’intervalle
de magnitude utilisé ; l’existence de deux catalogues de sismicité basés sur deux corrélations
intensité-magnitude ; l’attribution de magnitudes maximales dans des zones où les failles actives
sont très mal connues. D’autres incertitudes sont propres aux données sismologiques historiques
et instrumentales : les incertitudes dues aux déterminations de magnitude et de localisation des
séismes. D’autres enfin sont directement liées aux modèles utilisés dans le calcul de l’aléa
probabiliste : magnitude minimale et troncature des prédictions de la relation d’atténuation.
La modélisation de la courbe de Gutenberg-Richter sur deux intervalles différents met
en évidence, dans le Sud des Alpes, une rupture de la loi puissance. Dans cette zone, inclure
des magnitudes inférieures à 3.5 pour modéliser la récurrence entraîne une forte augmentation
des valeurs de b (soit une diminution des taux de récurrence). Cette étude conduit à ne pas
prendre en compte les magnitudes inférieures à 3.5 pour le calcul des paramètres de sismicité
dans l’estimation probabiliste de l’aléa.
La génération de catalogues synthétiques permet de quantifier entre 5 et 25% la varia-
bilité des estimations d’aléa due aux incertitudes sur les données de base (déterminations de
magnitude et de localisation des séismes). Cette variabilité ne pourra pas être réduite, elle est
sous-jacente à toute estimation de l’aléa. Les impacts individuels des choix de quatre paramètres
requis par la méthode de Cornell-McGuire sont ensuite quantifiés et comparés. Au PGA, ces
études démontrent l’importance du choix de la magnitude minimale pour les faibles périodes de
retour (<1000 ans) dans les zones de faible sismicité caractérisées par une b-value forte (varia-
bilité de 20% sur les estimations). A l’inverse, le choix de la magnitude maximale n’a que peu
d’impact sur les estimations, même aux très grandes périodes de retour (variabilité inférieure à
8% à 475 ans et 14% à 10000 ans). Globalement, les choix de la corrélation et de la troncature
de la relation d’atténuation (+2σ) engendrent les impacts les plus forts sur l’aléa, à toutes les
périodes de retour. L’impact de la troncature augmente lorsque la période de retour s’allonge
(de l’ordre de 20% à 475 ans et 25% à 10000 ans). La variabilité totale correspondant aux com-
binaisons multiples de ces quatre paramètres est de l’ordre de 40%, à 475 et 10000 ans. Les
recherches en cours, à la fois sur l’établissement de corrélations intensité-magnitude régionales
1¡¸
♦ CONCLUSIONS ET PERSPECTIVES
(Bakun & Scotti, 2003) et sur la détermination d’une borne maximale au mouvement sismique
engendré par un séisme (Restrepo-Velez & Bommer, 2003), devraient permettre de réduire la
variabilité des estimations d’aléa. Les troncatures en multiple(s) d’écart-type au-dessus de la
moyenne des logarithmes des accélérations sont arbitraires, des bornes supérieures établies sur
des raisonnements physiques sont nécessaires.
D’autre part, les coefficients de la relation d’atténuation utilisée (Berge-Thierry et al.,
2003) sont dépendants de la fréquence. Les études d’impact, menées sur trois autres fréquences
(1, 2 et 5 Hz), montrent que les résultats au PGA ne peuvent se généraliser. Si la hiérachie des
influences de paramètres établie au PGA est valide à 5 Hz, elle est complètement bouleversée à
1 et 2 Hz : le choix de la magnitude minimale n’a plus d’impact, la magnitude maximale devient
un paramètre clef du calcul de l’aléa, pour toutes les périodes de retour. Globalement la varia-
bilité totale des estimations, due aux choix de corrélation, troncature et magnitude maximale,
augmente vers les basses fréquences (60% à 1 Hz).
Les analyses de déagrégation éclairent les études d’impacts : les répartitions des contribu-
tions en distance, magnitude et écart à la valeur moyenne prédite par la relation d’atténuation,
expliquent directement les rôles, selon les périodes de retour, des paramètres étudiés. L’associa-
tion d’études d’impacts individuels des choix de paramètres et d’études de déagrégation rend
totalement transparent le calcul probabiliste. Ces déagrégations fournissent par ailleurs une in-
formation majeure : l’estimation de l’aléa sismique en France est contrôlée par des sources
localisées à moins de 70-80 km à 475 ans et 50-60 km à 10000 ans (pour des estimations sans
troncature de la relation d’atténuation). La déagrégation met ainsi en évidence un effet systé-
matique : plus la période de retour augmente, plus l’accélération considérée est élevée et plus
la distribution des sources responsables se resserre autour du site.
Les études de déagrégation sont en général utilisées pour déterminer un scénario particu-
lier magnitude-distance responsable de la contribution la plus forte (Bazzurro & Cornell, 1999).
Ce scénario est extrait des résultats de déagrégation quel que soit le cas de figure (au moyen de
valeurs moyennes, médianes ou modales). Le scénario obtenu peut alors associer une distance
et une magnitude qui n’ont pas participé au calcul. Au vu des résultats obtenus pour la France,
il semble cependant difficile, lorsque les contributions se répartissent sur une large gamme de
magnitudes et de distances, de déduire un scénario particulier. Cette recherche d’un scénario
magnitude-distance n’est pas abordée dans le cadre de cette étude.
Par ailleurs, de nombreuses études construisent des arbres logiques intégrant un certain
nombre de choix et d’hypothèse différentes. Connaître la variabilité totale des estimations d’aléa
issue d’un arbre logique particulier n’apporte cependant qu’une information très partielle. Les
impacts individuels des paramètres variant dans l’arbre logique doivent être estimés au pré-
ablable ; seules les branches qui «parlent» doivent être introduites dans l’arbre logique. La va-
riabilité finale dépend complètement des branches introduites et reflète les choix pris. L’arbre
1¡¡
logique est un outil majeur pour l’estimation de l’aléa sismique, il doit cependant être construit
et interprété avec prudence. En ce qui concerne la France, les six paramètres étudiés dans cette
thèse doivent être pris en compte dans toute estimation de l’aléa.
De plus, la complémentarité entre les approches probabiliste et déterministe est illustrée
sur un exemple : l’estimation probabiliste des périodes de retour d’accélérations calculées avec
une méthode déterministe. Les experts en charge de l’estimation de l’aléa sismique ont ainsi
deux outils à disposition. En étant conscient des incertitudes associées aux deux types d’ap-
proches et des modèles sur lesquels elles reposent, le mouvement sismique à considérer pourra
être choisi, selon la nature et la durée de vie de l’installation à dimensionner.
Les estimations d’aléa tout au long de cette étude sont basées sur un seul zonage (Au-
tran et al., 1998) et une seule relation d’atténuation (Berge-Thierry et al., 2003). La plupart des
études de sensibilité dans les estimations d’aléa considèrent plusieurs zonages et relations d’at-
ténuation. Ces études montrent clairement leurs rôles déterminants. Nous avons admis zonage et
relation d’atténuation, conscients de leurs impacts, afin d’analyser d’autres paramètres du calcul
probabiliste, délaissés à tort par nombre d’études. Cependant, au vu de l’impact de la troncature
des prédictions de la relation d’atténuation, les études d’impact devront être reproduites avec
une autre relation. Un écart-type plus petit réduierait l’impact du choix de la troncature.
Par ailleurs, un autre paramètre porteur d’une incertitude forte n’a pas été considéré :
la profondeur des zones sources est fixe tout au long de l’étude. Les profondeurs sont mal
contraintes et les incertitudes sont fortes (au minimum 5 km, pour des profondeurs de zones
sources fixées à 10 et 15 km dans l’étude). Ces incertitudes n’ont pas été quantifiées car la rela-
tion d’atténuation utilisée (Berge-Thierry et al., 2003) ne prend pas en compte la saturation du
mouvement sismique à proximité de la source. A faible profondeur (de l’ordre de 5 km), les ni-
veaux d’accélération calculés sont probablement surestimés, les études d’impacts seraient alors
biaisées. La loi d’atténuation récemment publiée (Fukushima et al., 2003), adaptée au contexte
intraplaque européen, devrait permettre de prendre en compte l’incertitude sur les profondeurs.
Les estimations d’aléa, basée sur la méthode probabiliste de Woo (1996), sont surpre-
nants : alors que le modèle de sismicité (les scénarios magnitude-distance qui contribuent) est
très différent de celui proposé par la méthode de Cornell-McGuire, les estimations sont compa-
rables. Des études de déagrégations doivent être menées pour comprendre l’origine des contri-
butions dans la méthode de Woo. De plus, l’impact du choix de tronquer les prédictions de la
relation d’atténuation est identique : il est lié au mode de calcul de la probabilité de dépasse-
ment, étape commune aux deux méthodes. La prise en compte de la dispersion du mouvement
sismique est un élément déterminant dans toute méthode probabiliste d’estimation de l’aléa.
Ces analyses sont effectuées sur 17 sites, les centres des zones sources sismotectoniques
sélectionnées. Les cartes d’aléa probabilistes montrent à quel point les contours suivent les
limites des zones sources, l’aléa à l’intérieur d’une zone source est essentiellement contrôlé par
1¡j
♦ CONCLUSIONS ET PERSPECTIVES
la zone source elle-même. Ces résultats peuvent donc être généralisés à l’ensemble des sites
géographiques contenus dans les limites des zones sources. Pour les sites localisés dans des
zones où la méthode de Cornell-McGuire ne peut s’appliquer, le calcul de l’aléa pourrait être
effectué avec la méthode de Woo (en déterminant les paramètres des fonctions de lissage sur le
catalogue de sismicité français).
1¡0
ANNEXES
1¡¬
1¡8
FIG. 10.2 – Zonage sismotectonique extrait de la publication Autran et al. (1998).
1¡o
FIG. 10.3 – Extrait de Autran et al. (1998) : identification des limites de zones (1).
1jo
FIG. 10.4 – Extrait de Autran et al. (1998) : identification des limites de zones (2).
1j1
1ji
Références bibliographiques
N.A. Abrahamson, 2000. State of the practice of seismic hazard evaluation, GeoEng 2000
conference, Australia, 19-24 November.
K. Aki, 1965. Maximum likelihood estimate of b in the formula logN=a-bM and its confidence
limits, Bulletin of the Earthquake Research Institute, 43 :237–239.
D. Albarello, R. Camassi, & A. Rebez, 2001. Detection of space and time heterogeneity in the
completeness of a seismic catalog by a statistical approach : an application to the Italian area,
Bull. Seism. Soc. Am., 91(6) :1694–1703.
S. T. Algermissen & D. M. Perkins, 1976. A probabilistic estimate of maximum acceleration
in rock in the contiguous United States, U.S. Geological Survey Open-File Report, pages
76–416.
N.N. Ambraseys, 1995. The prediction of peak ground acceleration in Europe, Earthquake
Engineering and Structural Dynamics, 24 :467–490.
N.N. Ambraseys, K.A. Simpson, & J.J. Bommer, 1996. Prediction of horizontal response spec-
tra in europe, Earthquake Engineering and Structural Dynamics, 25 :371–400.
F. Amelung & G. King, 1997. Earthquake scaling laws for creeping and non-creeping faults,
Geophys. Res. Lett., 24 :507–510.
J.G. Anderson & J.N. Brune, 1999a. Methodology for using rocks in Nevada to test seismic
hazard models, Bull. Seism. Soc. Am., 89(2) :456–467.
J.G. Anderson & J.N. Brune, 1999b. Probabilistic seismic hazard analysis without the ergodic
assumption, Seis. Res. Lett., 70(1) :19–28.
E. André, 1999. Evaluation probabiliste de l’aléa sismique sur le territoire national, Rapport
de stage au BRGM de Marseille, pour l’obtention du Diplôme d’ingenieur de l’Ecole de
Physique du Globe de l’université Strasbourg I.
153
BIBLIOGRAPHIE
A. Ang & W. Tang, 1975. Probability concepts in engineering planning and design, Volume
I-Basic principles. John Wiley & Sons.
A. Autran, J.L. Blès, Ph. Combes, M. Cushing, P. Dominique, C. Durouchoux, J.C. Gariel,
X. Goula, B. Mohammadioun, & M. Terrier, 1998. Probabilistic seismic hazard assessment in
France. Part One : seismotectonic zonation, Proceedings of the 11th ECEE, 6-11 Septembre,
Paris, France.
W.H. Bakun &O. Scotti, 2003. Regional intensity attenuation models for France and the estima-
tion of magnitude and location of historical earthquakes, Journal of Seismology (submitted).
E. Baroux, N.A. Pino, G. Valensise, O. Scotti, & M.E. Cushing, 2003. Source parameters of
the 11 June 1909, Lambesc (Provence, southeastern France) earthquake : A reappraisal based
on macroseismic, seismological, and geodetic observations, J. Geophys. Res., 108(9), 2454,
doi :10.1029/2002JB002348.
P. Bazzurro & C. A. Cornell, 1999. Disaggregation of seismic hazard, Bull. Seism. Soc. Am., 89
(2) :501–520.
C. Beauval & O. Scotti, 2003a. Mapping b-values in France using two different ma-
gnitude ranges : possible non power-law behavior, Geophys. Res. Lett., 30(17), 1892,
doi :10.1029/2003GL017576.
C. Beauval & O. Scotti, 2003b. Variabilité dans la modélisation de la récurrence des séismes
et impact sur l’évaluation de l’aléa sismique en France, 6ème colloque national AFPS, 1-3
juillet, Ecole Polytechnique, Palaiseau.
B. Bender, 1983. Maximum likelihood estimation of b values for magnitude-grouped data, Bull.
Seism. Soc. Am., 73 :831–851.
B. Bender & K.W. Campbell, 1989. A note on the selection of minimum magnitude for use in
seismic hazard analysis, Bull. Seism. Soc. Am., 79 :199–204.
B.K. Bender & D.M. Perkins, 1987. SEISRISK III : A computer program for seismic hazard
estimation, U.S. Geological Survey Bulletin 1772.
B.K. Bender & D.M. Perkins, 1993. Treatment of parameter uncertainty and variability for a
single seismic hazard map, Earthquake Spectra, 9(2) :165–194.
J.R. Benjamin & Associates, 1989. Proceedings : Engineering characterization of small-
magnitude earthquakes. EPRI NP-6389. Electric Power Research Institute.
1j¡
C. Berge-Thierry, F. Cotton, M. Cushing, D.A. Griot-Pommera, J. Joly., A. Levret, & O. Scotti,
2000. Méthode de détermination des spectres horizontaux et verticaux adaptés au site dans
le cadre de RFS 1.2.c, Rapport IPSN/DPRE/SERGD/00-53 (CD-ROM, Annexe A).
C. Berge-Thierry, F. Cotton, O. Scotti, D.A. Griot-Pommera, & Y. Fukushima, 2003. New
empirical response spectral attenuation laws for moderate European earthquakes, Journal of
Earthquake Engineering, 7(2) :193–222.
D.L. Bernreuter, J.B. Savy, R.W. Mensing, & J.C. Chen, 1989. Seismic hazard characteriza-
tion of 69 nuclear power plant sites East of the Rocky Mountains, U.S. Nuclear Regulatory
Commission. NUREG/CR-5250.
J.J. Bommer, 2002. Deterministic vs. probabilistic seismic hazard assessment : an exaggerated
and obstructive dichotomy, Journal of Earthquake Engineering, 6 :43–73.
S. Bottard, 1995. Gestion du risque sismique : Développement d’une méthodologie probabiliste
pour l’estimation de l’aléa sismique en France. Application aux données de sismicité histo-
rique et instrumentale. Thèse de Doctorat, Spécialité Mathématiques, Université Paris IX -
Dauphine.
K.W. Campbell, 1997. Empirical near-source attenuation relationships for horizontal and ver-
tical components of peak ground acceleration, peak ground velocity, and pseudo-absolute
acceleration response spectra, Seis. Res. Lett., 68 :154–179.
T. Cao, M.D. Petersen, & M.S. Reichle, 1996. Seismic hazard estimate from background seis-
micity in Southern California, Bull. Seism. Soc. Am., 86(5) :1372–1381.
M. Cara & D. Rouland, 1987. Historical instruments and seismograms in Strasbourg, ISSN, 96 :
374–384.
C. Clément, O. Scotti, L.F. Bonilla, S. Baize, & C. Beauval, 2004. Zoning versus faulting mo-
dels in PSHA for moderate seismicity regions : preliminary results for the Tricastin nuclear
site, France, Bollettino di Geofisica, 28th ESC, Genova, in press.
C. A. Cornell, 1968. Engineering seismic risk analysis, Bull. Seism. Soc. Am., 58(1) :1583–
1606.
C.H. Cramer, M.D. Petersen, T. Cao, T.R. Toppozada, & M. Reichle, 2000. A time-dependent
probabilistic seismic-hazard model for California, Bull. Seism. Soc. Am., 90(1) :1–21.
J. Desperoux & P. Godefroy, 1986. Nouveau zonage sismique de la France. La documentation
française, Paris.
1jj
BIBLIOGRAPHIE
P. Dominique, E. André, & J. Charléty, 2001. Synthèse des travaux réalisés dans le cadre de la
Convention 37/99, BRGM/RP-50740-FR.
P. Dominique, A. Autran, J.L. Blès, D. Fitzenz, F. Samarcq, M. Terrier, M. Cushing, J.C. Gariel,
B. Mohammadioun, Ph. Combes C. Durouchoux, & X. Goula, 1998. Part Two : Probabilistic
approach, Seismic hazard map on the national territory (France)., Proceedings of the 11th
ECEE, 6-11 Septembre, Paris, France.
J. Douglas, 2003. A comprehensive worldwide summary of strong-motion attenuation relation-
ships for peak ground acceleration and spectral ordinates (1969 to 2000), Reissue of ESEE
Report 01-1, Imperial College of Science, Technology and Medicine.
H. Dufumier. Synthesis of magnitude and focal mechanism computations for the m >= 4.5
earthquakes in France for the period 1995-2000, Journal of Seismology (in press).
J.F. Van Dyck, 1985. Statistical analysis of earthquake catalog. Thèse de Doctorat, Dept. of
Civil Engineering, MIT.
EPRI, 1986. Seismic hazard methodology for the central and eastern United States, EPRI report
NP-4726, Electric Power Research Institute, Palo Alto.
A. Frankel, 1995. Mapping seismic hazard in the Central and Eastern United States, Seis. Res.
Lett., 66(4) :8–21.
Y. Fukushima, C. Berge-Thierry, P. Volant, D.A. Griot-Pommera, & F. Cotton, 2003. Atte-
nuation relation for West Eurasia determined with recent near-fault records from California,
Japan and Turkey, Journal of Earthquake Engineering, 7(3) :1–26.
J.J. Giner, S. Molina, & P. Jauregui, 2002. Advantages of using sensitivity analysis in seismic
hazard assessment : a case study of sites in southern and eastern Spain, Bull. Seism. Soc. Am.,
92(2) :543–554.
X. Goula, 1980. Etude de faisabilité d’une approche probabiliste de l’évaluation de l’aléa sis-
mique : application au sud-est de la France, OCDE Specialist meeting on probabilistic me-
thods in seismic risk assessment for nuclear power plants, Lisbonne.
D.A. Griot-Pommera & O. Scotti, 2001. Estimating earthquake location and magnitude from
French seismic intensity observations, European Geophysical Society, XXVI General Assem-
bly, Nice, France, 25-30 March 2001.
G. Grünthal & R. Wahlström, 2001. Sensitivity of parameters for probabilistic seismic hazard
analysis using a logic tree approach, Journal of Earthquake Engineering, 5(3) :309–328.
1j0
B. Gutenberg & C. F. Richter, 1944. Frequency of earthquakes in California, Bull. Seism. Soc.
Am., 34 :185–188.
Y.Y. Kagan & D.D. Jackson, 1991. Long-term earthquake clustering, Geophys. J. Int., 104 :
117–133.
Y.Y. Kagan & D.D. Jackson, 1994. Long-term probabilistic forecasting of earthquakes, J. Geo-
phys. Res., 99(B7) :13685–13700.
Y.Y. Kagan & D.D. Jackson, 2000. Probabilistic forecasting of earthquakes, Geophys. J. Int.,
143 :438–453.
H. Kanamori, 1981. The nature of seismicity patterns before large earthquakes, in Earthquake
Prediction : An International Review (eds. Simpson, D.W., and Richards, P.G.) (Maurice
Ewing Series, vol. 4, AGU, Washington D.C. 1981), pages 1–19.
S.L. Kramer, 1996. Geotechnical Earthquake Engineering. Civil Engineering and Engineering
Mechanics. Prentice Hall, Upper Saddle River, New Jersey 07458.
A. Levret, J. C. Backe, & M. Cushing, 1994. Atlas of macroseismic maps for French earth-
quakes with their principal characteristics, Natural Hazards, 10 :19–46.
A. Levret, M. Cushing, & G. Peyridieu, 1996. Recherche des caractéristiques de séismes histo-
riques en France, atlas de 140 cartes macrosismiques, Publication de l’Institut de Protection
et de Sûreté Nucléaire, volumes I et II.
Ph. Lussou, P.Y. Bard, F. Cotton, & Y. Fukushima, 2000. Seismic design regulation codes :
contribution of K-Net data to site effect evaluation, Journal of Earthquake Engineering, 5
(1) :13–33.
Ch. Martin, Ph. Combes, R. Secanell, G. Lignon, D. Carbon, A. Fioravanti, & B. Grellet,
2002a. Révision du zonage sismique de la France. Etude probabiliste, Rapport GEOTER
GTR/MATE/0701-150.
Ch. Martin, R. Secanell, Ph. Combes, &G. Lignon, 2002b. Preliminary probabilistic seismic ha-
zard assessment of France, Proceedings of the 12th ECEE, Paper Reference 870, Septembre,
London, England.
R.K. McGuire, 1976. Fortran computer programfor seismic risk analysis, US Geological Survey
open-File Report 76-67.
1j¬
BIBLIOGRAPHIE
R.K. McGuire & W.J. Arabasz, 1990. An introduction to probabilistic seismic hazard analysis,
Geotechnical and Environmental Geophysics, Society of Exploration Geophysicists, 1 :333–
353.
S.V. Medvedev, W. Sponheuer, & V. Karnik, 1967. Seismic intensity scale version 1964, Publ.
Inst. Geody., 48, Jena.
K. Mogi, 1962. Magnitude-frequency relations for elastic shocks accompanying fractures of
various materials and some related problems in earthquakes, Bulletin of the Earthquake Re-
search Institute, 40 :831–853.
B. Mohammadioun & A. Pecker, 1993. Prévision du mouvement sismique au rocher à partir des
données de mouvements forts actuellement disponibles, Proceedings 3e Colloque National
AFPS "Génie parasismique et aspects vibratoires dans le génie civil".
G. Molchan, T. Kronrod, & G.F. Panza, 1997. Multi-scale seismicity model for seismic risk,
Bull. Seism. Soc. Am., 87(5) :1220–1229.
S. Molina, C.D. Lindholm, & H. Bungum, 2001. Probabilistic seismic hazard analysis : zoning
free versus zoning methodology, Bollettino di Geofisica (selected papers from the 27th ESC,
Lisbon, 2000), 42 :19–39.
J. Mori & R.E. Abercrombie, 1997. Depth dependence of earthquake frequency-magnitude
distributions in California : Implications for rupture initiation, J. Geophys. Res., 102 :15081–
15090.
M. Nicolas, N. Bethoux, & B. Madeddu, 1998. Instrumental seismicity of the Western Alps :
A revised catalogue, Pageoph, 152 :707–731.
E.A. Okal & B.A. Romanowicz, 1994. On the variation of b-values with earthquake size, Phys.
of the Earth and Planet. Int., 87 :55–76.
M. Ordaz, 2001a. Fortran computer program for seismic hazard assessment, program crisis99,
ver. 1.0.18.
M. Ordaz, 2001b. Some modifications to program crisis99 ver. 1.0.17 which give rise to ver.
1.0.18, Notes.
R. Page, 1968. Aftershocks and microaftershocks, Bull. Seism. Soc. Am., 58 :1131–1168.
A. Paul, M. Cattaneo, F. Thouvenot, D. Spallarossa, N. Bethoux, & J. Fréchet, 2001. A three-
dimensional crustal velocity model of the southern Alps from local earthquake tomography,
J. Geophys. Res., 106 :19367–19389.
1j8
V. F. Pisarenko, A. A. Lyubushin, V. B. Lysenko, & T. V. Golubeva, 1996. Statistical estimation
of seismic hazard parameters : maximum possible magnitude and related parameters, Bull.
Seism. Soc. Am., 86(3) :691–700.
P.A. Reasenberg, 1985. Second-order moment of central California seismicity, J. Geophys. Res.,
90 :5479–5495.
A. Rebez &D. Slejko, 2000. Sensitivity analysis on the input parameters in probabilistic seismic
hazard assessment, Soil Dynamics and Earthquake Engineering, 20 :341–351.
L. Reiter, 1990. Earthquake Hazard Analysis : Issues and Insights. Columbia University Press,
New York.
L.F. Restrepo-Velez & J.J. Bommer, 2003. An exploration of the nature of the scatter in ground-
motion prediction equations and the implications for seismic hazard assessement, Journal of
Earthquake Engineering, 7 :171–199.
C.H. Sholz, 1968. The frequency-magnitude relation of microfracturing in rock and its relation
to earthquakes, Bull. Seism. Soc. Am., 58 :399–415.
P.G. Somerville, N.F. Smith, R.W. Graves, & N.A. Abrahamson, 1997. Modification of empiri-
cal strong ground motion attenuation relations to include the amplitude and duration effects
of rupture directivity, Seis. Res. Lett., 68 :199–222.
J.C. Stepp, 1972. Analysis of completeness of the earthquake sample in the Puget Sound area
and its effect on statistical estimates of earthquake hazard, Proc. Microzonation Conf., Seattle,
WA, pages 897–909.
A. Tento, L. Franceschina, & A. Marcellini, 1992. Expected ground motion evaluation for
Italian sites, Proceedings 10th World Conf. on Earthquake Engineering, Spain, 1 :489–494.
T.I. Urbancic, C.I. Trifu, J.M. Long, & R.P. Young, 1992. Space-time correlations of b-values
with stress release, Pageoph, 139 :449–462.
T. Utsu, 1965. A method for determining the value of b in a formula |oo: = c − /: showing
the magnitude-frequency relation for earthquakes (with English summary), Geophys. Bull.
Hokkaido Univ., 13 :99–103.
T. Utsu, 1966. A statistical significance test of the difference in b-value between two earthquake
groups, J. Phys. Earth, 14 :37–40.
1jo
BIBLIOGRAPHIE
T. Utsu, 1992. On seismicity, in : Report of Cooperative Research of the Institute of Statistical
Mathematics 34, Mathematical Seismology vii, Annals of the Institute of Statistical Mathe-
matics, Tokyo, pages 139–157.
D. Vere-Jones, 1992. Statistical methods for the description of and display of earthquake cata-
logues. in Statistics in the Environmental and Earth Sciences. A. T. Walden and P. Guttorp,
London. 220-244.
D. H. Weichert, 1980. Estimation of the earthquake recurrence parameters for unequal obser-
vation periods for different magnitudes, Bull. Seism. Soc. Am., 70(4) :1337–1346.
S. Wiemer, S.R. McNutt, & M. Wyss, 1998. Temporal and three-dimensional spatial analyses
of the frequency-magnitude distribution near Long Valley Caldera, California, Geophys. J.
Int., 134 :409–421.
S. Wiemer & M. Wyss, 1997. Mapping the frequency-magnitude distribution in asperities : an
improved technique to calculate recurrence times ?, J. Geophys. Res., 102 :15115–15128.
G. Woo, 1996. Kernel estimation method for seismic hazard area source modeling, Bull. Seism.
Soc. Am., 86(2) :353–362.
M. Wyss, 1973. Towards a physical understanding of the earthquake frequency distribution, J.
R. Astron. Soc., 31 :341–359.
10o
Analyse des incertitudes dans une estimation probabiliste de l’aléa sismique, exemple de
la France
Cette thèse propose une nouvelle méthodologie permettant d’une part d’identifier les paramètres clefs
qui contrôlent l’estimation de l’aléa sismique probabiliste, et d’autre part de quantifier l’impact des in-
certitudes de ces paramètres sur les estimations d’aléa. La méthode de Cornell-McGuire est utilisée dans
cette étude. Tout d’abord, les incertitudes sur les déterminations de magnitude et de localisation sont
modélisées et quantifiées : la variabilité résultante sur les estimations d’aléa est comprise entre 5 et 25%
(=COV), selon le site et la période de retour considérés. Une étude est ensuite menée afin de hiérarchiser
les impacts sur l’aléa liés aux choix de quatre paramètres : corrélation intensité-magnitude, magnitudes
minimales et maximales, troncature de la relation d’atténuation du mouvement du sol. Les résultats à
34 Hz (PGA) indiquent que la magnitude maximale est le paramètre le moins influent (de 100 à 10000
ans) ; tandis que la corrélation I-M et la troncature des prédictions du mouvement du sol (>2σ) jouent un
rôle clef quelle que soit la période de retour considérée (diminution de l’aléa jusqu’à 30% à 10000 ans).
Une augmentation de la magnitude minimale contribuant à l’aléa, de 3.5 à 4.5, peut également produire
des impacts non négligeables à courtes périodes de retour (diminution des valeurs d’aléa jusqu’à 20%
à 475 ans). Enfin, la variabilité totale des estimations d’aléa, due aux choix combinés des quatre para-
mètres, peut atteindre 30% (COV, à 34 Hz). Pour des fréquences plus faibles (<5Hz), la variabilité totale
augmente et la magnitude maximale devient un paramètre important. Ainsi, la variabilité des estimations
due aux incertitudes de catalogue et aux choix de ces quatre paramètres doit être prise en compte dans
toute étude d’estimation de l’aléa sismique probabiliste en France. Cette variabilité pourra être réduite
en élaborant une corrélation intensité-magnitude plus appropriée, et en recherchant une manière plus
réaliste de prendre en compte la dispersion du mouvement du sol. Mots-clés : catalogues de sismicité,
b-value, aléa sismique, méthode probabiliste de Cornell-McGuire, France.
Analysis of uncertainties in a probabilistic seismic hazard estimation, example for France
This thesis proposes a new methodology that allows to pinpoint the key parameters that control probabi-
listic seismic hazard assessment (PSHA) and at the same time to quantify the impact of these parameters
uncertainties on hazard estimates. Cornell-McGuire’s method is used here. First, uncertainties on magni-
tude and location determinations are modeled and quantified : resulting variability on hazard estimates
ranges between 5% and 25% (=COV), depending on the site and the return period. An impact study is
then performed, in order to determine the hierarchy between the impacts on hazard of the choices of four
other parameters : intensity-magnitude correlation, minimum and maximum magnitudes, the truncation
of the attenuation relationship. The results at 34 Hz (PGA) indicate that the maximum magnitude is the
less influent parameter (from 100 to 10000 years) ; whereas the intensity-magnitude correlation and the
truncation of ground motion predictions (>2σ) are the controlling parameters at all return periods (up to
30% decrease each at 10000 years). An increase in the minimum magnitude contributing to the hazard,
from 3.5 to 4.5, can also produce non-negligible impacts at small return periods (up to 20% decrease
of hazard results at 475 years). Finally, the overall variability on hazard estimates due to the combined
choices of the four parameters can reach up to 30% (COV, at 34Hz). For lower frequencies (<5Hz), the
overall variability increases and maximum magnitude becomes a controlling parameter. Therefore, va-
riability of estimates due to catalog uncertainties and to the choices of these four parameters must be
taken into account in all probabilistic seismic hazard studies in France. To reduce variability in hazard
estimates, future research should concentrate on the elaboration of an appropriate intensity- magnitude
correlation, as well as on a more realistic way of taking into account ground motion dispersion. Key-
words : seismic catalogs, b-value, seismic hazard, Cornell-McGuire probabilistic method, France.
101

Unités

Dans cette thèse, l’unité utilisée pour les accélérations du mouvement du sol est le gal. Le gal n’est cependant pas une unité du système international : en U.S.I. les accélérations s’expriment en m.s−2 . Pour rappel, voici les correspondances entre unités : 1 g = 9.80 m.s−2 = 980 gal, 1 gal = 1 cm.s−2 .

iii

iv .

au tout début de ma thèse. Grâce à M. elles m’ont montré que pour cerner le Risque Sismique. d’avoir participé au jury de thèse. de l’Université UNAM de Mexico. v . Cette thèse a ainsi fortement bénéficié d’interactions avec Fabian Bonilla. directeur de ma thèse à l’Université Joseph Fourier de Grenoble. J’ai également eu l’occasion. J’adresse de vifs remerciements à ma directrice de thèse Oona Scotti et à l’IRSN pour m’avoir donné cette liberté et cette ouverture.Remerciements Mes remerciements vont d’abord à Oona Scotti. de rencontrer les chercheurs du SCEC de Los Angeles et d’avoir ainsi une image précise de l’état des lieux des estimations probabilistes pour la Californie. base essentielle que nous avons ensuite adaptée à nos besoins. j’ai eu la chance de participer à la collecte des données macrosismiques dans la région de Rambervillers. grâce à qui j’ai découvert la sismologie au cours d’un stage de DEA au laboratoire de Géophysique Interne et Tectonophysique. Un des thèmes de recherche du laboratoire du BERSSIN étant d’expérimenter l’approche probabiliste dans le cadre du nucléaire. Pour mener à bien cette thèse. Cette étude sur les effets de site m’a donné le goût de la recherche et l’envie d’entamer une thèse sur l’aléa sismique. Sira du BCSF de Strasbourg. de l’INGV de Naples. Julian Bommer. Je remercie également Pierre-Yves Bard. à la suite du séisme du 22 février 2003. il convenait de disposer d’un code de calcul probabiliste. congrès rassemblant l’ensemble des Sciences de la Terre. Les multiples discussions que nous avons eues m’ont toujours donné envie d’aller plus loin. Je lui suis très reconnaissante de m’avoir transmis son énergie et son enthousiasme pour la Sismologie durant les trois années de thèse. du Royal Observatory de Belgique. de sismologues et d’historiens. Je suis également très reconnaissante envers Fabrice Cotton. respectivement en tant que Président du Jury et Examinateurs. En 2002. nous a apporté son code fortran CRISIS. de l’Institut de Physique du Globe de Paris et Thierry Camelbeeck. colloque pluridisciplinaire sur les Risques Naturels. plusieurs membres de l’équipe se sont investis pour l’estimation probabiliste de l’aléa sismique. à la recherche de traces anciennes de séismes sur les habitations de Manosque. Ces expériences ont été très enrichissantes . Au printemps 2001. Mario Ordaz. Cara et C. Dans le cadre de mon doctorat. j’ai suivi le travail de terrain d’une équipe du Groupe APS constituée d’architectes. Didier Bertil et Christophe Clément. ma directrice de thèse à l’Institut de Radioprotection et de Sûreté Nucléaire. Pascal Bernard. j’ai eu l’opportunité de participer à de nombreuses rencontres scientifiques : workshops de sismologie. de l’Université Joseph Fourier. de l’Imperial College de Londres et André Herrero. ont accepté d’être rapporteurs de cette thèse et je les en remercie sincèrement. il est indispensable que se rencontrent des disciplines variées.

vi . C’est un laboratoire où il fait bon travailler .Je souhaite également remercier D. au renfort spécialement venu de Suisse et aux deux vacanciers grenoblois qui m’ont laissé les clefs de leur logis. je remercie les amis étudiants de m’avoir toujours trouvé une place où m’installer.. Marsan du LGIT de Chambéry. Et j’attends avec impatience le Kashmir et l’Himalaya ! Ultime merci à Seb&A. J’oublie surtout les multiples escales à Strasbourg. le travail est réellement «d’équipe» et la motivation est bien présente. Grenoble. aux balades dans la plaine du Ried et sur les côtes du Cotentin. aux descentes à vélo dans la vallée de Chevreuse et sur les bords du lac Atitlán. aux errances joyeuses dans la Vieille Ville de San Juan. J’ai la chance d’y avoir passé huit mois en 2000 et j’y suis revenue régulièrement. Bayeux.. aux bordées animées à Fort Cigogne et Arz. J’ai passé ces trois ans principalement au Bureau d’Evaluation des Risques Sismiques pour la Sûreté des INstallations (BERSSIN). Aberdeen.. aux falaises d’Etretat et à la plage des Petites Dalles. Il est difficile de remercier en rafales ! Merci à tous ceux avec qui j’ai partagé des petits et des grands instants de vie. aux dîners de Châtillon indispensables pour le moral mais aussi à l’équipe efficace qui a confectionné le pôt de thèse. Le LGIT de Grenoble était mon laboratoire universitaire «d’accueil». J’en omets beaucoup. c’est aussi la vie «à côté» qui m’a largement portée. pour le support technique des dernières semaines.. Londres. l’ambiance y est chaleureuse. à la vue aérienne en haut des Aiguilles de Bavella et sur la crête enneigée du Mont Joly. malgré les effectifs ! Bien sûr. Zurich et Berlin. Merci aux randonnées mystiques autour du lac de Pierre-Percée. pour avoir porté un intérêt et un oeil extérieur sur certains de nos questionnements et pour avoir toujours été ouvert à la discussion.

Ainsi. et d’autre part de quantifier l’impact des incertitudes de ces paramètres sur les estimations d’aléa. Estimer l’aléa sismique probabiliste consiste à déterminer les périodes de retour de dépassements du mouvement du sol. due aux choix combinés des quatre paramètres.5 à 4. entrainant une diminution des valeurs d’aléa jusqu’à 20% à 475 ans. Pour des fréquences plus faibles (<5Hz). les magnitudes minimales et maximales contribuant à l’aléa et la troncature de la relation d’atténuation du mouvement du sol.5. les incertitudes sur les déterminations de magnitude et de localisation sont modélisées et quantifiées : la variabilité résultante sur les estimations d’aléa est comprise entre 5 et 25% (=COV. Enfin. Une étude d’impact est ensuite menée afin de hiérarchiser les impacts sur l’aléa liés aux choix de quatre paramètres : la corrélation intensité-magnitude. coefficient de variation).5. la variabilité totale augmente et la magnitude maximale devient un paramètre important. la variabilité des estimations due aux incertitudes de catalogue et aux choix de ces quatre paramètres doit être prise en compte dans toute étude d’estimation de l’aléa sismique probabiliste en France. Dans un premier temps. selon le site et la période de retour considérés. vii . La méthode de Cornell-McGuire est utilisée dans cette étude. Par ailleurs. Cette variabilité pourra être réduite en élaborant une corrélation intensité-magnitude plus appropriée.Résumé Cette thèse propose une nouvelle méthodologie permettant d’une part d’identifier les paramètres clefs qui contrôlent l’estimation de l’aléa sismique probabiliste. la dépendance de la b-value (pente de la courbe de récurrence) avec l’intervalle de magnitude utilisé est mise en évidence. et en recherchant une manière plus réaliste de prendre en compte la dispersion du mouvement du sol. peut également produire des impacts non négligeables à courtes périodes de retour. de 3. Une augmentation de la magnitude minimale contribuant à l’aléa. dans une optique conservatrice. La forte dépendance obtenue dans le Sud-Est de la France conduit à modéliser la récurrence des séismes à partir des magnitudes supérieures à 3. à 34 Hz). tandis que la corrélation intensité-magnitude et la troncature des prédictions du mouvement du sol (>2σ) jouent un rôle clef quelle que soit la période de retour considérée (produisant chacun une diminution de l’aléa jusqu’à 30% à 10000 ans). peut atteindre 30% (COV. Les résultats à 34 Hz (PGA) indiquent que la magnitude maximale est le paramètre le moins influent (de 100 à 10000 ans) . la variabilité totale des estimations d’aléa.

Probabilistic seismic hazard assessment consists in computing return periods of ground motion exceedances. Secondly. future research should concentrate on the elaboration of an appropriate intensity. can also produce non-negligible impacts at small return periods. depending on the site and the return period. First. the overall variability on hazard estimates due to the combined choices of the four parameters can reach up to 30% (COV. uncertainties on magnitude and location determinations are modeled and quantified : resulting variability on hazard estimates ranges between 5% and 25% (=COV. An increase in the minimum magnitude contributing to the hazard. the overall variability increases and maximum magnitude becomes a controlling parameter. the dependence of the b-value (slope of the recurrence curve) with the magnitude range used is highlighted. To reduce variability in hazard estimates. An impact study is then performed. as well as on a more realistic way of taking into account ground motion dispersion. earthquakes recurrence should be established only on magnitudes above 3. viii . minimum and maximum magnitudes contributing to the hazard and the truncation of the attenuation relationship. at 34Hz). Therefore. The high dependence found in the southeastern part of France implies that. For lower frequencies (<5Hz). in order to determine the hierarchy between the impacts on hazard of the choices of four other parameters : intensity-magnitude correlation.5 to 4. from 3. whereas the intensity-magnitude correlation and the truncation of ground motion predictions (>2σ) are the controlling parameters at all return periods (producing up to 30% decrease each at 10000 years). variability of estimates due to catalog uncertainties and to the choices of these four parameters must be taken into account in all probabilistic seismic hazard studies in France.magnitude correlation.5. The Cornell-McGuire’s method is used here. The results at 34 Hz (PGA) indicate that the maximum magnitude is the less influent parameter (from 100 to 10000 years) .Abstract This thesis proposes a new methodology that allows to pinpoint the key parameters that control probabilistic seismic hazard assessment (PSHA) and at the same time to quantify the impact of these parameters uncertainties on hazard estimates. with up to 20% decrease of hazard results at 475 years. coefficient of variation). Finally.5. for conservative modeling.

. . . . . . . . . . . . . . . . . .2. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 Constitution du catalogue de sismicité 3. . . 3. . . .4 Troncature et renormalisation de la distribution des accélérations 2. . . . . . . . . . . . . . .1 Mode de calcul . . . . . . . . . . . . . . . .1 Le catalogue de sismicité instrumental . . . . . . . . 1. . 3. . .1 Calcul des taux de dépassement . . . . . . . . . . . . . . . . . 1. . . . . . . . . . .Table des matières Introduction 1 PARTIE I. . . . . . . . . . .2. . . . . . . .3 Intégration en magnitude . . . .1. . . . . ix . . . . . . . . . 2 Le code de calcul CRISIS 2. 2. . . .4 Estimation de la probabilité de dépassement . . . . . . . . . . . . . . . . 1. . 1. . . .2 Modification de paramètres du calcul . . . . . . . . . . . . . . . . . . . . . . . .1. . . . . . . . . . . . . . . . . . . . . . . . . . . . .2 Identification des lieux d’occurrence des séismes . . . . . . . . . . . . 1. . . . . . . . . . . . . .1. . .1. . . . 1. . .1.2. . . . . . . . . . . . . . . . . . . . .1 Principe . . . . . . . . . . 3. . . .2 Subdivision des zones sources . . . . .5 Obtention des accélérations . . . . . . . 1. . . . . . . . . . . . . . . . . . .1 L’estimation de l’aléa sismique probabiliste selon Cornell-McGuire 1. . . . . . . . . . . . . . . 1.3 Conclusions .3 Modélisation de la récurrence . . .1. . . . . . . . . . . . . . . . .1. . . . . . . . . . . . . . . . 2. . . .1 Choix du catalogue du LDG . . 2. . .1. . . . .2 Application sur une source ponctuelle . Méthode de Cornell-McGuire et application en France 1 La méthode de Cornell-McGuire 1. .3 La courbe de Gutenberg-Richter 5 7 7 7 9 9 11 13 14 15 16 19 25 25 26 27 28 29 33 33 33 34 36 . .5 Set d’accélérations cibles et interpolation . . .2 Traitement des répliques . . . . . . . . . . . . . . . . . .

. .2 Les conséquences de l’utilisation d’un zonage . .2. . . . . . .3 Caractéristiques du catalogue historique .1.1 Le zonage sismotectonique . . . . .2 Application en France : sélection des zones sources . . . . . . . . .1 Le zonage AFPS-EPAS (Autran et al. . . . . . .1. . . . . . . . . . . . . . . . . . . . . . 5 Calcul des paramètres de sismicité 5. . .1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .3. 3. . . . . . . Constitution du catalogue combiné instrumental et historique . 5.3 Conclusions et récurrences sur le catalogue [1500-1999] 5. . . . . 6. . . . . . . . . . . . .2. . . . . . . .1 Introduction . . . . . .4 Results . . . . . . . . . . . . . . . . .2 Méthode de Stepp . . . . . . . . . . . . .1 La relation d’atténuation Berge-Thierry (2003) 4. . . . . . . .1. . . . 4. . 6. . . 75 77 77 78 80 81 82 87 87 7 Quantifying uncertainties in French PSHA 7. .2 Calcul des paramètres de sismicité et sélection des zones sources 5. . . . . . . . .3 Estimations des temps de retour des magnitudes . . . . .. Quantification et compréhension des incertitudes 6 Mapping b-values in France using power-law behavior 6. . . . . . . . . . . . . . . .2. . . . . . . . . . . . . . . . . . . . . . . . . . . 4. . . . . . . . . . . . . . . . two different magnitude ranges : possible non . . . . . . . . . 4. . . . . . . . . . 1998) . . 3. . . . . . .2 Extraction de la base de données SisFrance . . .2 Data . . . . . .2. . . . . . .1 Extraction des parties complètes du catalogue .2 La relation d’atténuation . 6. . . . . . .2 3. . . . . . . . . . 5. . . . . . . . . . . . . . . . . . . . . .1 Calcul de la magnitude historique . . . . . . . . . . . . . . . . . 3. . . . . . . . . . . . . .2.3 Mapping the b-values . . . . . . . . . . . . x . . . . . . . . . . . . . . . . . .1 Estimation à partir du nombre cumulé de séismes . . . . . . . . . 5. . . . . . . . .2. . . .1. . . . . . . . . . . . . . . . . . . . 38 39 41 42 43 45 45 45 46 48 48 49 55 55 56 57 58 62 62 64 72 Zonage et relation d’atténuation 4. . . 5. .1. . . . . . .3 4 Le catalogue de sismicité historique . . . . . . . . . 6. . . . . . . . . . . . . . .2. . . . . . . .1 La méthode de Weichert (1980) . . . 4. . . . .5 Discussion and Conclusion . . . . . . . PARTIE II. . . . . . .2 Base de données et domaine de représentativité . . 5. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1. .2 Calcul probabiliste .2. . . . . .3 Exemples de grilles de taux de sismicité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .8 Impacts as a function of frequency .4 Conclusions . . . . . . . . PARTIE III. . 9. .3. . . .5 7. . .2. . . . 8. . . . . . . . . . . . . . . . . . . . . . . . .1.3. . . . . . . . . . . Constructing the catalogue . . . . . . . . . . . . . . . . . . . . . . . .2 Choix de la représentation . . . . . 7. . . . . . . . . . . . . . . . . . . . . . . 9. . . . . . . . .2 Déagrégation 1D en distance . . . . . . . . . . .1 Déagrégation 1D en magnitude . . . . . . . . . . . . . . . . . . . . . .1 Modelling uncertainties due to magnitude and location determination . . . . . . .1 Choix des fonctions kernels . . . . . .5. . . . . . . . . . .3 7. . . . . . . . . . . . . . . . .5 Déagrégation en ε . . . . . . . . . . . . . . . . . . . . .3. . . . . . . . . .3. .5. . . . . . . . . . . . . .1 Principe de la méthode .5. . . . . . . . . .6 Radius of influence of hazard estimates . . . . . . . . 8. . . . . . . . . . . . . . . . . . .5. . . . . . . . . . . . . . . . . . . . . . . . . . . 8. . . . . . . . . Discussion and conclusions . . . . . . . .3. . . . . . 8. . . . . . . . . . . . . . . . . .5. . . . . . . . . . . . . . . .5. 8. . . . . . . Méthodes alternatives 9 Méthode de Woo 9. 7. . . . . . . . . . . . . . . . . . . . .7 Overall variability . . . . . . . . . . 8. . . . . . . . .3 Résultats des déagrégations . . . . . . . . . . .2 Application . . .3 On the choice of truncating the PDF distribution modelling ground motion dispersion . 7. . . 89 90 92 93 94 97 98 100 101 103 103 104 105 111 111 112 112 113 113 118 118 118 119 8 Déagrégation 8. 9. . .5. . . . . . . . . . . . .5. . . 7. . . . . . . . . . . 121 123 123 123 125 126 126 129 130 xi . . . . .6 Choice of probabilistic methodology . . . .2 On the choice of a Magnitude-Intensity correlation . . .4 7. . . . . .7. . 7. . . . . . . . . . . 7. . 9. Selecting the seismic source zones and computing seismicity models . . . . . . . . . . . . . . . . . . . . . . . . . . .4 On the choice of minimum magnitude (Mmin ) .5 On the choice of maximum magnitude (Mmax ) . . . .3 Déagrégation 2D en magnitude et distance 8. . Probabilistic computations and quantification of impacts . . . . . 9. . . . 7. . . . 7. . .1 Principe de la déagrégation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8. .2 7. . . . . . . . . . . . . .2. . . . . . . . . .4 Rayons d’influence . . . . . . . . . .1 Un modèle de sismicité plus proche du catalogue . . . . . . . .2 Choix des sites et des paramètres du calcul probabiliste 9. . . . . .

. . . . .3 Conclusions . . . . . . . . 130 9. . . . . .1 Accélération maximale observée dans l’histoire . . . . . . . . . . . .2 Estimation des périodes de retour des accélérations déterministes . . . . . . . . .4 Etudes d’impacts des choix de paramètres .9. . . . . . .5 Variabilité totale .2.2. . . . . . . . . . 142 Conclusions et perspectives 143 A NNEXES B IBLIOGRAPHIE 147 153 xii . . . . 132 Conclusions et analyses futures . . . . . . . . . . . . . . . . 139 10. . . . . . . . . 132 10 Complémentarité des méthodes probabilistes et déterministes 139 10. . . . . . . . . . . . . . . .3 9. . 141 10. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . Exemple de subdivision des zones sources en triangles (zoom) PDF normale et CDF tronquée renormalisée . . . . . . . . . . . . . . . . . . . . . . . . Courbes de Gutenberg-Richter. . . . . . . . . . . . .9 1. . . . . . . . . . .3 2.3 4. . . . . La courbe de récurrence . . . . Exemple d’une source ponctuelle . . . . . . .3 1. . . . . . .2 3. Variabilité des estimations de magnitudes historiques . . . . . . .1 2. . . . . . . . . . . . . . . . . . . . . . Distribution lognormale des accélérations . . . . . . . catalogue instrumental [1962-1999 Superpositions des GR sur 9 ans . . . . . . . .4 3. . . . . . . . . . . . . .4 3. . . . . Zonage sismotectonique . Données à l’origine des corrélations Levret et Scotti . . Source ponctuelle. . . . . . . . . . . . . . . . . . .1 3. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Distribution en temps et magnitude du catalogue historique . . . . . . . . .5 3. . . . . . . modification de Mmax . . . . . . . . . . . . . . . . . . . . . .9 4. . . Atténuation du mouvement prédite et données réelles Distribution des données en distance et magnitude. . PDF normale et CDF tronquée renormalisée .8 3.6 3. . . . . . . Identification des répliques . . . . . . . . . . . . .8 1. . . . Deux types de zones sources . . . . . . . . . . . . . . . . .7 1. . Source ponctuelle. . . . Carte de sismicité historique [1356-1961] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . modification de Mmin . .2 4. . . . . . . . . . . . . . Exemple d’interpolation de l’accélération . . . . .4 Courbe d’aléa . . .5 1. . . . . . . . Calcul de la probabilité de dépassement . .7 3. . . . . . . . . . . . Calcul de l’aléa pour une source ponctuelle . . . . . . . . . . . . . . . . . troncature des prédictions de la relation d’atténuation Exemple de subdivision des zones sources en triangles . . . . . . . 8 9 10 12 15 20 21 22 23 24 28 30 31 31 35 36 37 38 40 41 42 43 44 47 50 51 52 Carte de sismicité instrumentale . . . . . . . . . . . . . . . . . . . .2 2. . . . .2 1. . . . .1 1. . . . .10 2. . . .Liste des figures 1. . . . . . . .1 4. . . . . . xiii . . . . . . . . . . . .6 1. . Différences entre les deux estimations de magnitudes historiques . . . . . . . . . . . . . . . Source ponctuelle. . . . . .4 1. . . . . . . . . . . . .3 3. . . . . . . . . . . . .

. . . . . . . . 114 Déagrégations m. . . .2 8. . . . . . . . . . . . .12 7. . . . . . . . . . . . . .3 Distribution des résidus en distance . . COV due to uncertainties on magnitude and location determinations . . . . . . . . . . .2 6. . . . . . . . . . . Generating synthetic catalogs with Monte Carlo . . r et ε. . .9 6. . . . . . . . . . . . . . . . . . . .1 7. . . . . . . b-value map estimated on the historical catalogue . . . . . . . . . . .5 5.4 6. Estimation des périodes complètes (1) .14 7. . . . . . . . . . .0 pour chaque zone source . . . .6 5. . . . . . . . . . . . . . . . . Impacts of Mmin and Mmax . . . . . . . . . . . . . . . . . . . . .5 7. . . . . .9 7. . . . . . . . . . . . . . . . . . . . . .11 7. .10 7. . . .15 8. . .8 5. . . . . . .7 5. . .1 6. . . . . . . Méthode de Stepp . . . . 115 Déagrégations m. . . . . . . . . . . . . . . . . . . Impacts of the M-I correlation and of the truncation .6 5. . Déagrégations m. . . . . . . . . . . . . . .3 7. . . . . . . . . . . . . . . . . . . Cumulative Gutenberg-Richter plots at three locations . . . . . Overall variability calculated from the logic tree . . . . . . . . . . . . . . . . . . . . . . . Example of the logic tree results . . . . Courbe de Gutenberg-Richter du catalogue entier . . . . . . . . . . . . . . . . Estimation des périodes complètes (2) . . . . . . . . Radius of influence . . . . . . . . . . . . . . . . . . . . . . . . .4 5. . . . . . . .1 8. . . . . .7 7. . . . . . . . . . . . . . . . . . . .13 7. . French seismic catalogue in the period [1356-1999] . . Calcul des paramètres de sismicité dans la zone 10 . . 116 xiv . . . .5 7. . . . . . . . . . . . . . . . Temps de retour d’un M ≥ 6. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . zone 19 . . . . . . . . . . . . . . . . . . . . . . . . .3 6. . . . . . . . . . . . .4 7. . . . . . . r et ε. . . . Utsu’s test . . Calcul des paramètres de sismicité dans la zone 19 . . . . . . . . . . . . .1 5. . . .2 7. . . . . . . . . . . . . . . . zone 18 . . . . . Calcul des paramètres de sismicité dans la zone 32 . . . . . . . . . . r et ε. . . Sélection des zones sources . . . Understanding M-I correlation impacts . . . . . . . . . . . . zone 6 . . . . . . . . . . .5 4. . . . . . . . . . . . . . . . . .8 7. . . .3 5. . 52 53 59 60 61 62 68 69 70 71 74 79 84 84 85 85 91 95 96 97 98 99 102 102 104 105 106 108 108 109 109 Instrumental and historical seismicity in France [1500-1999] b-value map estimated on the instrumental catalogue . . . . . . . . . Example of deaggregation in magnitude and distance at PGA and 1 Hz Comparing variabilities of results at different frequencies . Monte Carlo results . . . . . . . .LISTE DES FIGURES 4.2 5. . . . . . . . . . . . . . . Distribution des résidus en magnitude . . . . . . . . . . . . . Impacts of Mmin and Mmax at 1 Hz . . . . . . .6 7. . . . . . . . . . . . Hierarchy of impacts at fixed return period . . . . . Understanding impacts of Mmin and Mmax .

4 Déagrégations m. . . . . . . . . . . Grilles de taux de sismicité lissés . . . . . (1998) Identification des limites de zones (Autran et al. . . . . . . . . . 117 Rayons d’influence à 475 et 10000 ans . . . . . . . . . . Impacts des choix de paramètres .1 9. . . .4 8.5 9. 1998) Identification des limites de zones (Autran et al. . . . Localisation des sites par rapport à la répartition des épicentres . . . . . . . . . . . . . . . .2 9. . . . . . 127 128 129 135 136 136 137 140 149 150 151 xv . . zone 30 . . . .8. . . . . . . . . . .méthode de Woo . . . . . Comparaison des impacts des choix de paramètres Woo/Cornell . . . . . . .2 10. .5 9.6 9. . .7 10. . . . . . . Fonctions kernels utilisées (3D) . . . . . . . . . . . Distributions d’accélérations issues des arbres logiques sur Woo et Cornell Accélérations déterministes . . . . . . . . 1998) . . . . . . . . . . .. .1 10. . . . r et ε. . . . . . . . . . . . . . . . . . . . . . . 120 Fonctions kernels utilisées (2D) . . . . . . . . . . . . . . . . . . . . .4 9. . . . . . . .. . . . . Zonage sismotectonique extrait de Autran et al. . . . . .3 10. . . . . . . . . . . . . . . . . .3 9.

LISTE DES FIGURES xvi .

. . . . . . . . . . .2 7. . .4 5. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .2 8. . . . . . . . . . . . . . . . . . . . . . . . . .5 6. . . . . . . . . . . . . . . . . . . . . . . . . . . . 51 57 66 67 67 73 80 81 92 93 Completeness periods . . . . . . . . 133 Périodes de retour d’accélérations déterministes . . . . . . . . b-values computations at three locations . . . . . . . . . . . . Seismic parameters for the 17 selected source zones . . . . . . . . Nombre de séismes utilisés . . . . . . . . . . . Périodes complètes . . . . . . . . . . . 141 Paramètres utilisés pour le calcul des périodes de retour . . .1 10. .3 5. Rayons d’influence à 475 et 10000 ans . . . . . Completeness periods . . . . . . .2 10. . . . . .1 9. . . . .2 Ordre de grandeur de la dispersion de la relation d’atténuation . . .1 7. . . . . . . . . . . . .1 5. . . . . .Liste des tableaux 4. . . . . .2 5. . . . 119 Paramètres des études d’impact (méthode de Woo) . . . . . . . . . . . . . . 131 Variabilités totales issues des arbres logiques sur Woo et Cornell-McGuire . . . . . . . . . . . . . . . .1 5. . . . .1 6. . . . . . . . . . . . . . .1 9. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142 xvii . . Zones sources sélectionnées Temps de retour . . . . . . . . . . . Paramètres de sismicité . . .

LISTE DES TABLEAUX xviii .

1995) . 1976). une description de la sismicité des zones sources et un modèle d’atténuation des mouvements du sol. modèle d’atténuation du mouvement du sol et zonage sismotectonique) mais leurs principes de base sont très différents. 2003) . c’est déterminer le mouvement du sol contre lequel se prémunir. Le séisme le plus fort du siècle dernier a atteint une magnitude de 6. L’estimation de l’aléa sismique est ainsi un premier pas vers l’estimation du risque sismique qui intègre également la vulnérabilité des bâtiments. En probabiliste. La même année. 1989). l’USGS (U. McGuire (1976) introduit la dispersion du mouvement sismique dans le calcul. Le calcul requiert un découpage de la région étudiée en zones sources sismiques. les lieux d’occurrence et les fréquences des magnitudes sont modélisés et l’ensemble des scénarios participent au  . En déterministe.S. les archives historiques recensent par ailleurs plusieurs séismes destructeurs sur les dix derniers siècles. En 1976. 1909 . Baroux et al. deux méthodes probabilistes d’évaluation de cet aléa. La méthode d’estimation probabiliste de l’aléa sismique est née à la fin des années 60 aux Etats-Unis.g. Elles reposent sur des données identiques (catalogues de sismicité.Introduction La France est un pays à sismicité modérée. les séismes destructeurs sont rares mais leur probabilité d’occurrence n’est pas nulle. L’estimation de l’aléa sismique en France est par conséquent indispensable.0 (séisme de Lambesc. dans le contexte français. L’alternative à la méthode probabiliste est l’estimation déterministe de l’aléa. le cœur de la méthode. Frankel.. Les deux méthodes sont fréquemment opposées. les estimations d’aléa sismique des installations nucléaires se sont également orientées vers les méthodes probabilistes (EPRI. Cornell (1968) propose de calculer des taux annuels de dépassement de niveaux du mouvement du sol et d’introduire ces taux dans un processus temporel d’occurrence de Poisson : l’aléa sismique probabiliste est un niveau du mouvement du sol ayant une certaine probabilité d’être dépassé sur une certaine période de temps. Peu après. Les avancées résident dans la prise en compte des incertitudes. Bernreuter et al. le calcul d’une probabilité de dépassement d’un mouvement du sol à partir d’un modèle d’atténuation reste inchangé. Les modifications de la méthode concernent ensuite essentiellement la modélisation des zones sources et la récurrence des séismes (e. Geological Survey) publie les premières cartes d’aléa sismique probabiliste pour les Etats-Unis (Algermissen & Perkins. le mouvement du sol considéré provient d’un scénario magnitude-distance clairement identifié. 1986. Cette thèse analyse.. Estimer l’aléa sismique en un site.

un groupe de travail est constitué dans le cadre de l’Association Française du Génie Parasismique (AFPS. Le choix du mouvement à considérer est laissé aux experts.♦ INTRODUCTION calcul.. en 2001. 1986). de sa durée de vie. se prête mieux que la méthode déterministe à la propagation des incertitudes en entrée sur les estimations d’aléa. elle fournit non pas un unique niveau du mouvement du sol mais une série de mouvements possibles associés à leur période de retour. Les méthodes probabilistes sont arrivées plus tardivement en France : le zonage sismique réglementaire actuel (en cours de révision) repose sur une méthode déterministe de l’aléa (Desperoux & Godefroy. la méthode de Cornell-McGuire est expérimentée dans le Sud-Est de la France (Goula. Basées sur ce zonage. Les incertitudes portent d’une part sur les données de base. sans quantification cependant. des cartes d’aléa en terme d’accélérations sont établies en appliquant la méthode de Cornell-McGuire sur un catalogue de sismicité également construit dans le cadre de cette étude (Dominique et al. des choix doivent être faits. Martin et al. Une thèse se consacre ensuite au sujet en 1995. L’étude de la sensibilité des estimations aux choix de paramètres d’entrée est amorcée (André. groupe d’Estimation Probabiliste de l’Aléa Sismique).. Enfin. Dans le domaine de la sûreté nucléaire. (2002a) créent  . 1980). Martin et al. l’estimation de l’aléa au moyen de méthodes probabilistes en est au stade expérimental. La méthode probabiliste constitue en cela un outil d’aide à la décision majeur pour l’estimation de l’aléa sismique. en déterministe comme en probabiliste. Cette étude est commandée par le ministère de l’environnement afin de remplir les nouvelles normes européennes (Eurocode 8). 1995). en fonction de la nature de l’installation à dimensionner. toujours à l’IPSN (Bottard. A toutes les étapes d’une estimation de l’aléa sismique. (2002a) produisent de nouvelles cartes d’aléa probabiliste pour la France et les Antilles. axant ses recherches sur les déterminations des magnitudes maximales au moyen de méthodes statistiques et sur la difficulté d’appliquer des modèles d’occurrence non poissoniens en France. L’estimation probabiliste est plus complexe. sur l’initiative de l’IPSN (Institut de Protection et Sûreté Nucléaire). basée sur des modèles. dès 1980. L’estimation de l’aléa sismique est indissociable de la notion d’incertitude. elle servira de base à l’établissement du nouveau zonage sismique de la France métropolitaine et des Antilles (bâtiment conventionnel). La contribution est majeure. La méthode probabiliste. établissant les premières cartes pour l’ensemble de la France en terme d’intensité. Suivant le modèle américain. du risque associé. la prise en compte des incertitudes est amorcée par l’introduction de la notion d’arbre logique (prise en compte des différents modèles et avis d’experts et calcul d’une distribution de valeurs d’aléa). d’autre part sur les modèles choisis et leurs paramétrisations. Toutes les estimations d’aléa sont effectuées pour une période de retour de 475 ans. classiquement considérée pour l’aléa sismique du bâti conventionnel. Pourtant. Peu après. par l’établissement d’un zonage sismotectonique pour le territoire français (Autran et al. 1998). le traitement des incertitudes est en effet identique d’un site à l’autre. 1998). en 1996. 1999).

Ils identifient un certain nombre d’incertitudes et. l’impact du choix des paramètres est finalement quantifié pour six d’entre eux : (1) incertitudes sur les déterminations de magnitude et localisation des séismes. Globalement. Les influences des paramètres (4) et (6) n’ont jamais été discutées. calculent la variabilité totale des estimations. la méthode utilisée principalement depuis le début des années 80 pour l’estimation de l’aléa sismique probabiliste en France est la méthode de Cornell-McGuire. 2003). une loi d’atténuation a été récemment publiée (Berge-Thierry et al. Afin de contrôler exactement les incertitudes liées au catalogue de sismicité. De même. Elle est intégrée dans l’arbre logique mais avec un poids faible. Etudes Probabilistes de Sûreté. Les périodes de retour concernées sont plus longues que celles du bâtiment conventionnel : de l’ordre de 104 -107 ans. 1990). Ils appliquent pour la première fois en France une méthode probabiliste qui diffère de la méthode de Cornell-McGuire par son modèle de sismicité : la méthode de Woo (1996).leur propre catalogue et utilisent les dernières données disponibles (zonage sismotectonique et modèles d’atténuation du sol). Dans le cadre des EPS. (2) choix de la corrélation intensité-magnitude. elle est retenue pour cette étude. alors que des études aux Etats-Unis en font état depuis plus de 10 ans (Reiter. et enfin (6) choix de tronquer les prédictions de la relation d’atténuation du mouvement du sol. L’objectif de la thèse est d’identifier et de quantifier l’ensemble des incertitudes apparaissant dans l’estimation probabiliste. tous les risques pris en compte dans la sûreté des installations nucléaires sont calculés de manière probabiliste. Plusieurs années de travail ont abouti en 1997 à un zonage (Autran et al. La méthode de Cornell-McGuire continue d’être largement appliquée en Europe et dans le monde entier. Les catalogues de sismicité historiques s’améliorent . notre ob . Ces paramètres sont conservés fixes dans cette étude. De ces six paramètres. les données instrumentales sont de plus en plus nombreuses avec l’allongement de la durée des catalogues de sismicité et l’installation de nouvelles stations sismologiques. liée aux choix des différentes options. de nombreuses études ont montré l’influence déterminante du zonage et du modèle d’atténuation du sol. Les évolutions concernent d’une part le traitement des incertitudes et d’autre part les données. nous nous appuyons donc sur ces travaux. 1998). ainsi que la méthode plus récemment proposée par Woo (1996). Les paramètres requis par les modèles et les techniques de calcul de l’aléa probabiliste sont recensés. (3) choix de l’intervalle de magnitude utilisé dans le calcul des modèles de récurrence. Des études de faisabilité doivent par conséquent être menées dans le domaine particulier du risque sismique sur le territoire métropolitain français . De plus. un nouveau catalogue est construit. sa participation aux résultats reste marginale.. intégrant des magnitudes historiques converties avec les corrélations intensité-magnitude actuellement disponibles pour la France. c’est dans cette problématique que cette thèse s’insère.. Les périodes de retour considérées vont jusqu’à 2000 ans. seul le choix de la magnitude maximale a été considéré dans les études probabilistes précédentes en France. à partir d’un arbre logique. (4) choix des magnitudes minimales et (5) maximales contribuant à l’aléa. elle repose sur les dernières données disponibles.

elle s’affranchit du zonage sismotectonique et propose un lissage spatial du catalogue de sismicité. La seconde partie de la thèse explore et quantifie les incertitudes liées à six paramètres du calcul probabiliste.  . Notre objectif. Les données françaises sont ensuite préparées : le choix du zonage et de la loi d’atténuation est argumenté. est d’identifier les paramètres qui contrôlent les estimations. 2 et 5 Hz sont également abordées. une analyse d’impact est menée à partir des domaines de variation possibles de cinq paramètres : les incertitudes de catalogue (déterminations des magnitudes et localisations des séismes). nécessaires pour modéliser la récurrence. les choix de la corrélation intensité-magnitude. une étude comparable est amorcée pour une méthode proposant un modèle de sismicité alternatif. de comprendre l’origine des contributions à l’aléa et ainsi de rendre la méthode plus transparente. Les impacts sont quantifiés pour différents sites géographiques et différentes périodes de retour. Dans un premier temps. La troisième partie aborde une méthode alternative (Woo. de la décision de tronquer ou non les prédictions de la loi d’atténuation et des magnitudes minimales et maximales qui définissent l’intervalle de magnitudes contribuant au calcul probabiliste.♦ INTRODUCTION jectif étant d’identifier les autres paramètres clefs de la méthode probabiliste. 1996) . Enfin. Le calcul des paramètres de sismicité. La première partie de cette thèse expose tout d’abord les principes de la méthode de Cornell-McGuire et leur application numérique. mais les fréquences 1. Tous les éléments nécessaires à un calcul de l’aléa probabiliste pour la France sont ainsi définis. Dans un second temps. la dépendance avec la gamme de magnitude utilisée du coefficient de décroissance exponentielle du modèle de récurrence est étudiée. tout au long de cette étude. le catalogue de sismicité est construit à partir des catalogues historique et instrumental et les périodes représentatives de chaque magnitude sont déterminées. est finalement effectué dans les zones du zonage sismotectonique. L’aléa est calculé principalement au PGA (34 Hz). Une méthode déterministe simple est également introduite au travers d’un exercice qui permet de montrer la complémentarité possible des approches probabiliste et déterministe. la méthode de Woo (1996).

Première partie M ÉTHODE DE C ORNELL -M C G UIRE ET APPLICATION EN F RANCE  .

 .

cette courbe de récurrence décrit les magnitudes possibles et leurs taux annuels d’occurrence. mais la vitesse. pour un scénario donné (magnitude et distance) elle fournit une fonction de densité de  . le déplacement ou l’intensité d’Arias peuvent également caractériser le mouvement. modéliser une courbe de récurrence à partir du catalogue de sismicité. Dans ce chapitre. 1968. 1.Chapitre 1. Le paramètre du mouvement du sol le plus utilisé dans les études probabilistes est le pic d’accélération . La méthode de Cornell-McGuire La méthode d’estimation de l’aléa probabiliste utilisée dans cette étude est celle de CornellMcGuire (Cornell.1 L’estimation de l’aléa sismique probabiliste selon CornellMcGuire 1. McGuire. Les ouvrages de Kramer (1996) ou Reiter (1990) proposent une bonne introduction à l’estimation de l’aléa selon Cornell-McGuire. c’est déterminer les taux annuels d’occurrence de paramètres du mouvement du sol.1 Principe Estimer l’aléa sismique probabiliste en un site. Puis. leurs tailles et leurs taux annuels de récurrence. après une présentation de la théorie et des hypothèses sous-jacentes. les étapes du calcul de l’aléa sont détaillées sur un cas de figure simple : une source ponctuelle. tandis qu’Abrahamson (2000) fait le point sur les pratiques actuelles en matière d’estimation probabiliste. Cette méthode est largement utilisée dans le monde entier. en un site donné. La méthode de Cornell-McGuire modélise les lieux d’occurrence des séismes.1. – dans chaque zone source. 1976). l’aléa est calculé en sommant les contributions de tous les scénarios possibles (toutes les combinaisons de magnitudes et de distances). Trois étapes préliminaires sont nécessaires : – identifier les zones sources dans la région d’étude. – choisir une relation d’atténuation du mouvement du sol adaptée à la région d’étude .

1000 ans.1) où – λi est le taux annuel de séismes de magnitude supérieure ou égale à la magnitude minimale choisie Mmin . 1. – fMi (m) et fRi (r) sont les fonctions de densité de probabilité en magnitude et distance de la source i. r] est la probabilité qu’un séisme de magnitude m à la distance r du site engendre une accélération supérieure à A∗ . ces accélérations s’obtiennent par interpolation à partir de la courbe d’aléa.♦1. Les taux annuels de dépassement d’une série d’accélérations cibles sont calculés et une courbe d’aléa est obtenue au site (Figure 1. Les résultats des estimations probabilistes se présentent en général en terme d’accélérations correspondant à des périodes de retour précises (100. LA MÉTHODE DE CORNELL-MCGUIRE probabilité de l’accélération engendrée au site..0001). – P [A > A∗ |m. – N est le nombre de zones sources. Periode de retour Acceleration F IG . r]fMi (m)fRi (r)dmdr (1.. Pour une accélération cible donnée A∗ . le taux annuel de dépassement de cette accélération cible (λA∗ ) est calculé comme suit : N M maxi λA∗ = i=1 λi m=Mmin r P [A > A∗ |m.1).) . elles sont supposées indépendantes.1 – Courbe d’aléa : périodes de retour des accélérations. en pratique on se réfère souvent à la période de retour plutôt qu’au taux annuel (il est plus facile de parler d’une période de retour de 10000 ans plutôt que d’un taux annuel de 0. cette probabilité est calculée à partir de la relation d’atténuation. 500. pour la zone source i. La période de retour est l’inverse du taux annuel .  .

1.1.2 Identification des lieux d’occurrence des séismes
Selon la connaissance de la tectonique active de la région étudiée, les zones sources peuvent être de deux types (Figure 1.2). Dans les régions à forte sismicité, les séismes se produisent fréquemment, leur distribution en surface et en profondeur délimite les failles qui les génèrent. Les zones sources sont alors des bandes étroites délimitant ces failles. Dans les régions à sismicité modérée comme la France, la sismicité est diffuse et les failles responsables des séismes sont très mal identifiées. Les zones sources sont alors des aires larges, homogènes du point de vue de différents critères (épaisseur de croûte, mécanismes au foyer, champ de contrainte, distribution de la sismicité...). En pratique, les zones sources sont des polygones, il n’y a pas de formulation analytique pour les fonctions de densité de probabilité en distance (fRi (r)), équation 1.1). Les zones sources sont par la suite subdivisées en sous-zones pour lesquelles l’hypothèse de source ponctuelle est possible (distance source-site suffisamment grande par rapport à la taille de la sous-zone). Les courbes de récurrence sont modélisées à l’intérieur de chaque zone source. Les scénarios magnitude-distance sont assimilés à des points sources et les hypocentres sont supposés uniformément distribués dans chaque zone, à la profondeur moyenne déterminée pour la zone.

Faille Aire

F IG . 1.2 – Deux types de zones sources, les failles dans les régions caractérisées par une activité sismique importante, les aires géographiques larges dans les régions de sismicité modérée.

1.1.3 Modélisation de la récurrence
Dans chaque zone source, une loi de récurrence est modélisée à partir du catalogue de sismicité de la zone. Cette loi de récurrence fournit pour une magnitude M le nombre annuel de séismes de magnitude supérieure ou égale à M , λM . Le modèle de l’exponentielle tronquée 

♦1. LA MÉTHODE DE CORNELL-MCGUIRE

est le plus fréquemment utilisé (représentation graphique sur la figure 1.3) : λM = λMmin e−β(M −Mmin ) − e−β(Mmax −Mmin ) 1 − e−β(Mmax −Mmin ) (1.2)

Il est basé sur l’observation de la décroissance exponentielle du nombre de séismes en fonction de la magnitude (Gutenberg & Richter, 1944). Il est caractérisé par trois paramètres : la magnitude minimale Mmin , le coefficient de la décroissance exponentielle β et la magnitude maximale Mmax . Les taux des magnitudes supérieures à Mmax sont nuls. Les fonctions de densité cumulée et de densité de probabilité correspondantes sont ainsi : FM (m) = P [M < m|Mmin ≤ m ≤ Mmax ] = et fM (m) = 1 − e−β(m−Mmin ) 1 − e−β(Mmax −Mmin ) (1.3)

βe−β(m−Mmin ) 1 − e−β(Mmax −Mmin )

(1.4)

Taux annuel cumule
Mmin

Mmax

Magnitude

F IG . 1.3 – Courbe de récurrence, modèle de l’exponentielle tronquée. La formulation initiale de Gutenberg & Richter (1944) comporte deux paramètres : log10 N = a − bM où N est le nombre de séismes, M la magnitude, a est le logarithme du nombre de séismes de magnitude 0 et b est la pente de la droite (appelée «b-value»). N peut être le nombre de séismes, le nombre cumulé de séismes ou encore le nombre annuel cumulé. L’équation peut se formuler comme suit : λM = eα−βM avec α = a ln 10 et β = b ln 10. En pratique, un catalogue de sismicité est complet à partir 

d’une magnitude dite magnitude de coupure MC : tous les séismes de magnitude supérieure ou égale à MC sont reportés de manière exhaustive dans le catalogue. Au final, les magnitudes sont utilisées à partir d’une magnitude minimale M0 , supérieure ou égale à la magnitude de coupure ; par conséquent il est plus pratique d’exprimer le taux annuel sous la forme : λM = λM0 e−β(M −M0 ) (1.5)

avec λM0 = eα−βM0 . Les deux paramètres de sismicité λM0 et β sont calculés à partir du catalogue de sismicité de chaque zone source. Un troisième paramètre est finalement introduit afin de fournir une borne maximale aux magnitudes pouvant se produire dans la zone source, la magnitude maximale Mmax , l’équation 1.2 est retrouvée pour M0 = Mmin . Il importe de bien distinguer les magnitudes M0 et Mmin : M0 est la magnitude minimale utilisée pour calculer les paramètres de sismicité λM0 et β, Mmin est la magnitude minimale prise en compte dans le calcul probabiliste. L’intervalle de magnitude qui va contribuer à l’aléa est déterminé par les choix de Mmin et Mmax .

1.1.4 Estimation de la probabilité de dépassement
La probabilité pour un couple magnitude-distance (m,r) d’engendrer au site une accélération supérieure à l’accélération cible A∗ est calculée à partir de la relation d’atténuation. Celle-ci prédit, pour une magnitude m à la distance r du site, le logarithme de l’accélération engendrée au site. Elle peut être formulée ainsi (Bazzurro & Cornell, 1999) : ln A = g(m, r, θ) + εσln A , ε ∈ [−∞; +∞] (1.6)

La variable θ correspond par exemple au type de sol (rocher, sol sédimentaire). A chaque triplet (m,r,θ) correspond une distribution de probabilité normale du logarithme de l’accélération ln A, de moyenne ln A = g(m, r, θ) et d’écart-type σln A . La fonction g(m, r, θ) peut par exemple être de la forme : g(m, r, θ) = C1 m + C2 r − C3 lnr + C4 (θ) (1.7)

Les paramètres Ci sont calculés par régression à partir d’enregistrements réels. Les accélérations étant dispersées, les logarithmes des accélérations sont supposés distribués selon une loi normale ; l’écart-type de cette distribution σln A est calculé à partir des résidus entre valeurs observées et valeurs calculées (après détermination des coefficients). Les paramètres Ci et l’écart-type σln A varient avec la fréquence ; dans certaines relations d’atténuation, l’écart-type varie également en fonction de la magnitude (Campbell, 1997). Le coefficient C4 est fonction 

LA MÉTHODE DE CORNELL-MCGUIRE de la nature du sol. Cette probabilité correspond à  .r] > P[A>A*|m.r) et le couple (m+1.. La probabilité que le couple (m. 1.g. un séisme de magnitude m+1 a une probabilité plus grande d’engendrer un dépassement de A∗ qu’un séisme de magnitude m. r) = 1 − φ ln A∗ − ln A σln A (1.r] lnA* lnAm M=m r lnR lnA P[A>A*|m+1. distinguent les types de failles ou des phénomènes plus complexes liés à la source (les effets de directivité par exemple. e. 2000).r) engendre une accélération A supérieure à A∗ se calcule alors ainsi : P (A > A∗ |m. les classifications les plus simples séparent les sites rocheux des sites sur sol sédimentaire. Certaines relations récentes établies à partir de larges bases de données proposent une classification des sols plus détaillée (Lussou et al. 1997)).r) : à distance fixe r.8) avec φ la distribution de probabilité normale standard cumulée.♦1.4 – Calcul de la probabilité de dépassement du niveau A∗ pour le couple (m.r] lnAm lnA* M=m+1 M=m r lnR F IG . (Somerville et al.. lnA P[A>A*|m.

supposer que les logarithmes des accélérations suivent une loi normale revient à supposer que les accélérations suivent une loi log-normale . La distribution n’est tronquée qu’aux valeurs supérieures . c’est une accélération qui est en général recherchée. la probabilité P que le phénomène se produise au moins une fois pendant le temps t est (Ang & Tang. certaines études (Reiter. Par ailleurs. le calcul de l’aléa est effectué pour une série d’accélérations. Abrahamson. En pratique. Cependant. le taux annuel de l’occurrence d’une accélération supérieure à cette cible.. correspondant à un taux annuel donné (ou une période de retour). les accélérations très peu probables situées à deux ou trois écart-types au-dessus de la moyenne ln Am peuvent contribuer fortement à l’aléa. Les valeurs minimale et maximale de la série d’accélérations cibles doivent être choisies de manière à ce que leurs taux annuels encadrent le taux annuel d’intérêt pour lequel l’accélération est interpolée.2. l’accélération correspondant au taux annuel d’intérêt est ensuite obtenue par interpolation.3. par suite l’occurrence des accélérations (ou l’occurrence d’une accélération supérieure à un niveau cible) suit également un processus  .5 Obtention des accélérations Interpolation Le calcul de l’aléa fournit.10) L’occurrence des séismes suit un processus de Poisson. pour une accélération cible. (1. 1990.r).9) Toute valeur d’accélération entre −∞ et +∞ a donc une probabilité non nulle d’être engendrée par le couple (m. Anderson & Brune. 1999a. ainsi.1.4. si Am est la médiane des accélérations : ln A = ln Amedian (1. N=1. Afin de remédier à cela..l’aire sous la courbe de la figure 1. Modèle de Poisson Les séismes sont supposés se produire dans le temps selon un processus de Poisson : la probabilité d’occurrence d’un séisme ne dépend pas du temps écoulé depuis le dernier séisme. 1975) : P = 1 − e−τ t. Par conséquent. 1. Pour un phénomène poissonien se produisant avec un taux annuel moyen τ .). le problème de la participation des accélérations très peu probables ne se pose pas pour les niveaux cibles localisés à -N σ endessous de la moyenne. 2000) tronquent la distribution de probabilité à une certaine valeur au-delà de la moyenne : en général la moyenne ajoutée d’un multiple entier de l’écart-type (ln Am + N σln A .

Ce cas simplifié est très proche des cas réels. Le pas d’intégration en magnitude est choisi égal à 0. c’est dimensionner le bâtiment afin qu’il soit capable de supporter une accélération qui a 10% de chance d’être dépassée sur les 50 prochaines années (ou 90% de chances de ne pas être dépassée). alors la probabilité P qu’il se produise au site au moins une accélération supérieure à A∗ pendant le temps t est : P = 1 − e−λt = 1 − e− T Ainsi.0021). La période de retour de 475 ans résulte du choix d’une probabilité P de 10% sur une période de temps de 50 ans (le taux annuel correspondant est 0.2 Application sur une source ponctuelle La méthode de Cornell-McGuire est ici appliquée sur un exemple simple : un site est situé à la distance épicentrale R=25 km d’une source ponctuelle située à 10 km de profondeur (Figure 1.  . pour une durée t constante.0). les études de déagrégation (cf. Dans cet exemple.5) (le coefficient β calculé sur des données réelles varie en moyenne entre 1. Toutes les étapes de la méthode ont été présentées.024 pour le taux de sismicité annuel λ0 = λ(M ≥ 3. l’impact du choix de trois paramètres du calcul (magnitudes minimale et maximale. Dans le cadre du nucléaire. les périodes de retour considérées sont de l’ordre de 104 -107 ans. à un taux annuel plus faible.1 de manière à ce que les scénarios (couples magnitude-distance) soient clairement identifiés. chapitre 8) montrent en effet que la majeure partie des contributions à l’aléa provient de sources à moins de 60-70 km du site.♦1.5). Dimensionner un bâtiment pour qu’il résiste à l’accélération correspondant à une période de retour de 475 ans. Le fait de ne considérer qu’une seule distance simplifie considérablement le calcul de l’aléa. Si λA∗ correspond au taux annuel de dépassement de A∗ . Dans un premier temps. les paramètres de sismicité sont arbitrairement fixés à 2. les étapes du calcul du taux annuel de dépassement sont détaillées pour les niveaux cibles 150 et 250 gal. Une probabilité P plus faible conduira. 1. Dans un second temps. troncature des prédictions de la relation d’atténuation) est abordé. Les 50 ans correspondent à la durée de vie moyenne des bâtiments conventionnels.11 pour le coefficient β et 0. fixer P et t revient à fixer le taux annuel λ : λ=− ln(1 − P ) t t avec T = 1 λ (1. LA MÉTHODE DE CORNELL-MCGUIRE de Poisson. le calcul de l’aléa peut maintenant être illustré sur un cas de figure simplifié : un site à proximité d’une unique source ponctuelle.5 et 3.11) Le choix de P et t est un choix économique.

3).0 et la distribution des accélérations prédite par la relation d’atténuation n’est pas tronquée.  .0. la magnitude minimale Mmin est fixée à 4. 1. elles correspondent à l’occurrence d’un séisme de magnitude m sachant qu’un séisme de magnitude supérieure à Mmin = 4 se produit. Niveau cible de 150 gal L’accélération cible est ici de 150 gal. Pour ce niveau cible de 150 gal.0 à 7.0083 (cf.58e-4 est reporté sur la courbe d’aléa du site (cercle plein). Pour chaque magnitude m.5). Plus la magnitude augmente.0 à 5.3-5. La probabilité d’occurrence diminue de manière exponentielle avec la magnitude.0 sont calculées avec la fonction de probabilité cumulée de la loi de récurrence (équation 1. équation 1.4 puis diminue jusqu’à la magnitude maximale 7. les probabilités de dépassement de c) correspondent aux contributions relatives de chaque magnitude au taux final.1 Calcul des taux de dépassement Pour les deux exemples d’application de la méthode probabiliste suivants.5 – Exemple d’une source ponctuelle à la distance hypocentrale de 27 km.0 se produit. la magnitude maximale Mmax est fixée à 7. la probabilité qu’un séisme de magnitude m à la distance hypocentrale de 27 km occasionne au site une accélération supérieure au niveau A∗ =150 gal s’obtient à partir de la relation d’atténuation (équation 1. c) Les probabilités d’occurrence d’une accélération supérieure à 150 gal. multipliée par le taux annuel λ(M ≥ 4.2.0) = 0.0. sont obtenues en multipliant membre à membre a) et b). Le taux annuel λ150gal = 1. sachant qu’un séisme de magnitude m ≥ 4.0.8). b) Les probabilités de dépassement sont calculées pour les magnitudes de 4. d) Le taux annuel de dépassement de 150 gal est la somme des probabilités de dépassement de c).0 et 7. Sur la Figure 1. Par conséquent.SITE R SOURCE F IG . Ces probabilités sont conditionnelles. la contribution des magnitudes augmente de 4. 1. plus la probabilité d’engendrer une accélération supérieure à 150 gal augmente.6 sont représentées les étapes du calcul : a) Les probabilités d’occurrence des magnitudes entre 4.

Le taux annuel total λ250gal s’obtient à nouveau en sommant les contributions de c) et en multipliant la somme par le taux annuel λ(M ≥ 4. alors qu’elle peut avoir une influence forte sur le résultat. Les paramètres de sismicité du point source sont les mêmes que dans l’exemple précédent. attribuant une probabilité nulle d’occurrence aux accélérations très peu probables.7 page 21.2. Par contre.6]. elle est augmentée à 4.♦1. Pour une magnitude m est calculée la probabilité que.5[ ne sont plus prises en compte. est reporté sur la courbe d’aléa du site (cercle plein).0-5.0-4. les probabilités de dépassement de A∗ =250 gal ont diminué par rapport au cas précédent (A∗ =150 gal). Le niveau cible est de 150 gal . La distribution des probabilités d’occurrence des magnitudes de 4. quadrants du bas).0. sur la figure 1.0).5. Niveau cible de 250 gal Le calcul est effectué cette fois pour un niveau d’accélération cible A∗ plus élevé : 250 gal (Figure 1. Augmenter Mmin revient en effet à réduire la gamme de magnitudes qui contribuent à l’aléa. les magnitudes qui contribuent le plus au calcul du taux annuel de dépassement sont dans l’intervalle [5. quelle que soit la magnitude.6. L’accélération cible a augmenté et par conséquent la probabilité d’engendrer une accélération supérieure à la cible a diminué.2 Modification de paramètres du calcul Modifier certains paramètres requis par les modèles utilisés permet d’éclairer le processus de cumul des contributions et l’origine de ces contributions. si un séisme  . Le taux λ250gal = 3.3]. inférieur à λ150gal . les résultats obtenus avec Mmin =4. Cette fois. Les deux premiers paramètres modifiés conditionnent la gamme de magnitudes qui va participer au calcul de l’aléa : la magnitude minimale et la magnitude maximale. ainsi que la gamme de magnitude [Mmin -Mmax ] contribuant à l’aléa.37e-5. les magnitudes [4.0 (en noir) afin de les comparer facilement. Les contributions relatives des magnitudes (c) sont par suite également modifiées. Le troisième paramètre est la troncature des prédictions de la relation d’atténuation. LA MÉTHODE DE CORNELL-MCGUIRE Les magnitudes qui contribuent le plus sont dans l’intervalle [5. La magnitude minimale était jusqu’à présent fixée à 4.5 (en rouge) sont superposés aux résultats obtenus avec Mmin =4.0 est inchangée. 1.7-6. a) La distribution de probabilité en magnitude est modifiée.0 à 7. Augmentation de la magnitude minimale La magnitude minimale utilisée dans les estimations d’aléa n’est pas toujours mentionnée.

5 à 7. les faibles magnitudes contribuent de moins en moins et la proportion de contributions apportées par les  . l’accélération cible est la même dans les deux cas. c’est la somme des probabilités de 4.0 à 7.0.0 est égale à 1.0] (reportées sur [4.5].8 page 22 les résultats obtenus avec Mmax = 6.0).0-4. c) Les probabilités de dépassement sachant qu’il se produit un séisme de magnitude supérieure à la magnitude Mmin sont très légèrement augmentées dans l’intervalle [4. lorsque le niveau d’accélération augmente. le taux (cercle plein rouge) a diminué.0-6.5 qui ont cette fois la plus grande probabilité d’occurrence. d) Finalement.5-7.5]) étaient très faibles. ce qui est logique puisque les magnitudes sont moins nombreuses à contribuer. Les probabilités des magnitudes [4. L’accélération cible est A∗ = 350 gal : a) La distribution de probabilité en magnitude est modifiée.5.0.de magnitude supérieure ou égale à 4. Les magnitudes ]6. En effet. b) Les probabilités de dépassement sont identiques sur l’intervalle [4.0 à 6. lorsque Mmin =4.0] ne contribuent plus au calcul. l’accélération cible est la même dans les deux cas.5 se produit. Lorsque Mmin =4.5].5 (en rouge) sont superposés aux résultats correspondants à Mmax = 7. la gamme de magnitude est moins large. d) Le taux annuel obtenu (cercle plein rouge) a logiquement diminué.0-6.0 . la magnitude de ce séisme soit égale à m.5] ne sont cependant que très légèrement augmentées car les probabilités des magnitudes ]6. Les courbes d’aléa montrent que l’augmentation de Mmin a un impact qui augmente lorsque l’accélération diminue.0 qui est égale à 1.0] ne participent plus au calcul. la somme des probabilités de 4. Diminution de la magnitude maximale La magnitude maximale diminue de 7. les magnitudes ]6. Sur la figure 1.0-6.5).5-7.0 (en noir).5[ ne contribuent plus. l’augmentation de Mmin n’a plus d’impact sur les taux annuels (cercles rouges superposés aux cercles noirs).0-6. La somme des probabilités de c) est multipliée par le taux annuel λ(m ≥ 4. Au-delà d’une accélération suffisamment grande (250 gal environ pour cet exemple).5-7. Les courbes d’aléa montrent que le fait de diminuer la magnitude maximale a un impact très faible sur les faibles niveaux d’accélération (≤ 100gal) et un impact plus fort sur les accélérations supérieures à 200 gal. inférieur à λ(m ≥ 4.5. Ce sont les magnitudes 4. b) Les probabilités de dépassement sont identiques. c) Les probabilités de dépassement sachant qu’il se produit un séisme de magnitude supérieure à la magnitude Mmin sont modifiées : les contributions relatives sont conservées mais les magnitudes [4.

Cette fonction est une gaussienne d’écart-type σlog10 A et de moyenne log10 Amediane (utilisation de la relation d’atténuation Berge-Thierry et al. b) Les probabilités de dépassement de chaque magnitude sont légèrement diminuées. Cet exemple démontre le rôle prépondérant des accélérations très peu probables (situées à plus de 2 écart-types au-dessus de la médiane). (2003). courbe grise).0 à 27 km est représentée sur la figure 1. Deux calculs sont comparés : dans le premier les probabilités de dépassement sont calculées à partir de la fonction normale sans troncature. Ces résultats montrent que les contributions des magnitudes [4. graphique gauche.10 page 24.1. La fonction de densité de probabilité tronquée est renormalisée. les résultats avec troncature à 2σ (en rouge) sont représentés superposés aux résultats sans troncature (en noir). Sur la figure 1.  . Il est plus faible que le taux calculé sans troncature. la relation d’atténuation fournit une fonction de densité de probabilité du logarithme de l’accélération (cf.9 (page 23. La fonction de densité de probabilité de log10 A pour une magnitude 6. pour une troncature à +2σ. leurs très faibles probabilités sont en effet compensées par les très fortes probabilités d’occurrence des magnitudes. la fonction de densité de probabilité cumulée tronquée et renormalisée (tirets noirs). chapitre 4). cf.♦1. section 1. elles sont d’autant plus affectées que la magnitude est faible. celles des magnitudes inférieures à 5. le calcul est effectué pour une accélération cible de 200 gal : a) La distribution de probabilité en magnitude est inchangée. dans le second elles sont calculées à partir de la fonction normale tronquée à 2σ au-dessus de la moyenne log10 Amediane . La fonction cumulée correspondante est tracée sur le graphique de droite. Sur la Figure 1.9 est tracée. de 50 à 500 gal. d) Le taux final est reporté sur la courbe d’aléa. Troncature des prédictions de la relation d’atténuation Le paramètre qui est cette fois modifié est la fonction de densité de probabilité de l’accélération fournie par la relation d’atténuation.3] dans le cas non tronqué correspondent à des accélérations situées à plus de 2σ au-dessus de la médiane.3 sont réduites à zéro. LA MÉTHODE DE CORNELL-MCGUIRE magnitudes élevées augmente. Les courbes d’aléa montrent que la troncature a un impact sur toutes les accélérations cibles. c) Les probabilités de dépassement sachant qu’il se produit un séisme de magnitude M ≥ Mmin sont fortement diminuées. Pour chaque séisme de magnitude m et distance hypocentrale r.4).0-5. Ces accélérations peuvent contribuer très fortement.

Enfin. D’autre part.3 Conclusions Le calcul détaillé de l’aléa sur cet exemple simple éclaire les natures différentes des probabilités qui interviennent et leur mode d’addition. Mmax et la troncature à +N σ) et leurs effets sur les différentes étapes du calcul permettent de comprendre le rôle de chacun de ces paramètres. A l’inverse. une modification de la magnitude maximale a un impact d’autant plus fort que l’accélération cible est grande. Une modification de la magnitude minimale a un impact sur le taux annuel estimé d’autant plus fort que le niveau d’accélération cible est faible. Ces effets. les modifications des paramètres d’entrée (Mmin .2. la troncature de la distribution gaussienne fournie par la relation d’atténuation influence les résultats quelle que soit l’accélération cible considérée.  . vont se retrouver dans les situations réelles (études d’impact du chapitre 7).1. mis en évidence sur un exemple simple.

6 – Calcul de l’aléa pour une source ponctuelle.2 1 a) b) 0.  .2 0 x 10 10 −2 5 6 Magnitude m 7 c) P(A>A*| 1 M>=4) 10 −3 d) COURBE D’ALEA Taux annuels 10 −4 10 −5 4 5 6 Magnitude m 7 10 −6 0 100 200 300 400 500 Acceleration (gal) F IG .15 P(A>A*|m) 4 5 −3 0. c) P (A > A∗ |m ≥ 4. multiplication membre à membre) .6 0.6 0. 1. cercle plein : λA∗ . LA MÉTHODE DE CORNELL-MCGUIRE 150 gal 0. d) Courbe d’aléa.6 0.2 0 0.4 0.05 0 6 7 4 Magnitude m 1 x 10 10 −2 5 6 Magnitude m 7 c) P(A>A*| 1 M>=4. (soit c)=a)×b). a) Probabilités d’occurrence des magnitudes (condition : il se produit une M ≥ 4. A∗ = 150gal et A∗ = 250gal .4 0.2 1 a) b) 0.0) . b) P (A > A∗ |m) .♦1.1 0.15 P(A>A*|m) 4 5 −3 0.6 0.8 0.0) 0.2 0 10 −3 d) COURBE D’ALEA Taux annuels 10 −4 10 −5 4 5 6 Magnitude m 7 10 −6 0 100 200 300 400 500 Acceleration (gal) 250 gal 0.05 0 6 7 4 Magnitude m 1 0.0).4 0.2 0 0.8 P(m=M | 1 M>=4) 0.1 0.8 0.8 P(m=M | 1 M>=4) 0.4 0.

1.5 P(A>A*| 1 M>=4.5 .1 6.5 7 Magnitude m 5 5.2 1 a) 0.5) 0 4. Mmin = 4.5 2 10 −4 Taux annuels 1.5 5 5.5 7 10 −6 F IG .6 0. effet d’une augmentation de Mmin : en noir.15 0.2 0 4 4.7 – Cas d’une source ponctuelle. Mmin = 3.5 7 4 P(A>A*|m) 0.0.8 0. en rouge.05 P(m=M | 1 M>=4) et P(m=M | 1 M>=4.5 6 6.5 6 Magnitude m 4 10 x 10 −2 −3 3.4 0.5 .0) 1 10 −5 0.5 6.5 6 Magnitude m Acceleration (gal) . niveau cible : A∗ = 150 gal.5 b) 0.5 c) 10 −3 d) COURBE D’ALEA 3 2.5 4.  0 4 0 100 200 300 400 500 5 5.

P(m=M | 1 M>=4)

0.05

P(A>A*|m)

♦1. LA MÉTHODE DE CORNELL-MCGUIRE

0.5

Taux annuels

P(A>A*| 1 M>=4.0)

F IG . 1.8 – Cas d’une source ponctuelle, effet d’une diminution de Mmax : en noir, Mmax = 7.0 ; en rouge, Mmax = 6.5 ; niveau cible : A∗ = 350 gal.


1 a) 0.8 0.6 0.4 0.2 0 4 4.5 b)
4.5 5 5.5 6 6.5 7

0.2

0.15

0.1

0

4

6.5

7

Magnitude m

5 5.5 6 Magnitude m

1.5
10

x 10
−2

−4

d) COURBE D’ALEA
10
−3

1

10

−4

10

−5

0 4.5

4

6.5

7

10

−6

0

100

200

300

400

500

5 5.5 6 Magnitude m

Acceleration (gal)

PDF
0.015

CDF

+2σ
0.01

1 0.8 0.6

0.005

0.4 0.2

0 0.5

1

1.5

log10(PGA)

2

2.5

3

3.5

0 0.5

1

1.5

log10(PGA)

2

2.5

3

3.5

F IG . 1.9 – Troncature de la distribution de probabilité normale prédite par la relation d’atténuation ; à gauche : PDF normale non tronquée, à droite : fonction de densité cumulée (CDF) normale non tronquée en gris et tronquée à 2σ en tirets noirs (la CDF tronquée est renormalisée).



♦1. LA MÉTHODE DE CORNELL-MCGUIRE

7

d) COURBE D’ALEA

6.5

400
−3 −4 −5

500

b)

4.5

4

−2

0.8

0.6

0.4

0.2

10

10

10

10

a)

c)

x 10

−4

0.15

0.05

0.2

0.1

0

5

4

3

2

1

F IG . 1.10 – Cas d’une source ponctuelle, effet d’une troncature de la distribution de probabilité normale prédite par la relation d’atténuation : en noir, pas de troncature ; en rouge, troncature à 2σ ; niveau cible : A∗ = 200 gal. 

0

4

4

4.5

4.5

5 5.5 6 Magnitude m

6

5

Magnitude m

5.5

6.5

6.5

7

7

10

−6

1

0

0

100

Acceleration (gal)

5 5.5 6 Magnitude m

200

300

P(A>A*| 1 M>=4.0)

Taux annuels

P(m=M | 1 M>=4)

P(A>A*|m)

mise en place de la déagrégation. en reprenant les étapes du calcul : subdivision des zones sources.1 Mode de calcul Pour une accélération cible A∗ . . troncature des prédictions de la relation d’atténuation et interpolation des accélérations. SEISRISK III (Bender & Perkins. Dans cette étude.18. 1976). – la magnitude minimale Mmin et les taux de sismicité associés de chaque zone source i : λi = λi (M ≥ Mmin ).. – les pentes des lois de récurrence βi . Le code de calcul CRISIS Les programmes de calcul de l’aléa selon la méthode de Cornell-McGuire sont nombreux : les codes EQRISK (McGuire.). les paramètres choisis dans notre étude et les modifications éventuelles du code sont précisés. 2001a) sont parmi les plus couramment utilisés.  .0. le code de calcul de l’aléa est basé sur la version CRISIS 1.1 sont discrétisées : N M maxi λA∗ = i=1 λi m=Mmin r P [A > A∗ |m.Chapitre 2. Le code source fortran de CRISIS a été modifié selon nos besoins (adaptation à la relation d’atténuation Berge-Thierry et al. intégration en magnitude. – les sommets des polygones qui délimitent les zones sources. les intégrales en magnitude et distance de l’équation 1. 1987) et CRISIS (Ordaz. De plus. (2003).. 2. le code calcule le taux annuel d’occurrence d’une accélération supérieure à A∗ (taux annuel de dépassement). Ce chapitre décrit comment le code CRISIS met en pratique la méthode de Cornell-McGuire. – les magnitudes maximales Mmaxi . r]fMi (m)fRi (r)∆m∆r Les informations suivantes sont fournies en entrée du programme CRISIS : – les coordonnées du site.

Rmin. la zone source est subdivisée en sous-zones considérées comme des zones sources ponctuelles et leurs taux de sismicité sont proportionnels à leurs surfaces. Le programme CRISIS calcule λA∗ : – en subdivisant chaque zone source en sous-zones afin d’obtenir les fRi . – les accélérations cibles et les périodes de retour d’intérêt. r] à partir de la relation d’atténuation pour toutes les combinaisons (m. En pratique. puis ces triangles «primaires» sont à nouveau subdivisés. Pour chaque triangle sont calculés une dimension caractéristique Dc (la racine carrée de l’aire du triangle) et le rapport Rp entre la distance source-site et Dc. la courbe de récurrence modélisée pour une zone source est répartie uniformément sur l’ensemble de la zone. afin de pouvoir quantifier la variabilité engendrée sur les estimations d’aléa. équation 1.8). 1976) découpe par exemple les zones sources en portions d’anneaux circulaires centrés sur le site. Dmax. LE CODE DE CALCUL CRISIS – les paramètres qui contrôlent les discrétisations en magnitude (∆m) et en distance (F min. – en calculant P [A > A∗ |m. Le code permet d’introduire des incertitudes sur les paramètres de sismicité et sur la magnitude maximale et de tenir compte de ces incertitudes dans le calcul.2 Subdivision des zones sources Dans la méthode de Cornell-McGuire.♦2. le code de calcul EQRISK (McGuire. – les coefficients de la relation d’atténuation. nous avons préféré faire varier ces paramètres à l’extérieur du code de calcul probabiliste. cette triangularisation permet ainsi un gain de temps de calcul. Mmin et Mmaxi (modèle d’exponentielle tronquée. Dans un premier temps. Les techniques de subdivision varient selon les codes. – Rp ≥ F min (hypothèse de source ponctuelle). plus loin). La distance source-site est alors la distance entre le barycentre de la sous-zone et le site. Le code CRISIS subdivise les zones sources en triangles.r) (équation 1.4). Dans toute notre étude. Les subdivisions s’arrêtent lorsqu’une des deux conditions suivantes est remplie : – Dc ≤ Rmin. Les paramètres Rmin et F min sont définis en entrée du code CRISIS.. cf. 2.. La taille des triangles varie avec la distance source-site : les triangles ont des dimensions d’autant plus grandes qu’ils sont loin du site . – en calculant les fMi à partir de β.  . et ainsi de suite. Cette option n’a pas été utilisée dans cette étude. les polygones des zones sources sont subdivisés en triangles (les sommets des triangles correspondent aux sommets des polygones) .

le pas en magnitude ∆m est par défaut égal à (Mmax − Mmin )/9.0) dans les Pyrénées. haut) permet de mieux apprécier la subdivision à proximité du site. chapitre 8). quelle que soit la période de retour entre 100 et 10000 ans et le site géographique considéré. Nous avons donc modifié le mode d’intégration de  . car les contributions au-delà de Dmax sont négligeables.43. 2001b). Un second jeu de paramètres Rmin/F min a été testé : Rmin = 1 km et F min = 5.2. Nous avons modifié le code afin d’imposer un pas de 0. La méthode de Simpson interpole sur trois points par un polynôme du second degré. Le second jeu de paramètres (1/5) ne sera utilisé que lors des études de déagrégation (chapitre 8) où l’utilisation du jeu de paramètres (3/11) produit des déagrégations en distance très légèrement biaisées. Dans le code CRISIS. La subdivision des zones sources diffère d’un site à l’autre. 2.nous avons utilisé les paramètres par défaut du code : Rmin = 11 km et F min = 3. La probabilité de dépassement P [A > A∗ |m. Par suite. utiliser la méthode de Simpson pour intégrer la densité de probabilité en magnitude impose une largeur minimale de 2∆m pour le stockage des contributions en magnitude.29 . conseillé lorsque le site est très proche des sources (Ordaz. Nous avons utilisé une distance maximale de 400 km ce qui est largement suffisant au vu des études de déagrégation (cf.1 (page 28) montre une subdivision du zonage utilisé dans cette étude. r] est calculée pour chaque magnitude échantillonnée : plus le pas en magnitude est petit et plus le calcul de l’aléa est précis. La subdivision s’arrête lorsque la dimension caractéristique du triangle est inférieure à 11 km ou lorsque la distance source-site est supérieure à 3 fois la taille du triangle. la déagrégation (chapitre 8) implique de stocker au fur et à mesure lors du calcul les contributions en magnitude et distance. De plus. La figure 2.3 Intégration en magnitude Le choix du pas en magnitude ∆m est important.2 montre la subdivision très fine obtenue au site précédent. L’intégration en magnitude dans le code CRISIS est effectuée avec la méthode de Simpson.1 quelles que soient les valeurs de Mmin et Mmax . D’autre part. Les zones sources correspondent aux trait épais. l’essentiel des contributions provient en effet de sources à moins de 100 km. les subdivisions aux traits fins. Un zoom sur le site (figure 2. pour le site de coordonnées (-0. Nos tests montrent que les différences sur les accélérations sont de l’ordre de 1 gal. Les temps de calcul sont néanmoins plus longs. une distance maximale Dmax est fournie en entrée du code CRISIS : les triangles ne seront pas pris en compte au-delà de Dmax. Les paramètres par défaut de CRISIS produisent donc une subdivision suffisamment précise pour notre cas de figure (les zones sources sont à des profondeurs de 10 et 15 km). La figure 2.

Le stockage en magnitude peut alors être effectué avec la même précision que l’intégration. LE CODE DE CALCUL CRISIS F IG . la relation d’atténuation fournit une fonction de densité de probabilité normale (PDF). Afin de ne pas tenir compte des accélérations très peu probables.m+∆m] est calculée à partir de la fonction de densité cumulée (équation 1. la magnitude : la densité de probabilité de l’intervalle [m. 2.♦2. Pour un couple magnitude-distance (m. traits épais : zones sources.4 Troncature et renormalisation de la distribution des accélérations Dans le code CRISIS.3). centrée sur la valeur moyenne ln Am et d’écart-type σlnA . traits fins : triangles subdivisés . F min = 3 et Dmax = 400 km . avec Rmin = 11 km.1 – Subdivision des zones sources en triangles pour le site (-0.43. zoom sur la figure 2. la troncature des prédictions de la loi d’atténuation est implémentée.r). 2.29 .2 (figure du haut). la PDF peut être tronquée à  .0) (carré blanc) .

afin que les taux annuels soient correctement interpolés.1) L’effet d’une troncature sur la distribution normale prédite par la relation d’atténuation est illustré sur la figure 2.8 mais comme suit : ln A − ln Am 1 σ φ(N ) P (ln A > ln A∗ |m. le calcul des taux annuels sur cette série d’accélérations assure une interpolation très précise pour toutes les périodes de retour de 100 à 100000 ans. Il importe de choisir judicieusement les bornes minimales et maximales des accélérations cibles. ainsi que le nombre requis. les taux annuels de dépassement sont calculés pour 80 accélérations entre 30 et 3000 gal. l’effet de la troncature des prédictions de la relation d’atténuation est analysé au chapitre 7. La PDF tronquée aux valeurs supérieures doit être renormalisée et la probabilité de dépassement ne se calcule plus selon l’équation 1. Le pas en accélération est très fin.N σ au-dessus de la moyenne ln Am : les probabilités des accélérations supérieures à Am eN σ deviennent nulles. Le code calcule les taux annuels de dépassement de ces cibles puis interpole les accélérations correspondant aux taux annuels d’intérêt. Dans cette étude.  . 2.3. Les cibles sont distribuées dans l’intervalle [Amin -Amax ] avec un pas qui augmente de manière logarithmique avec l’accélération. une accélération maximale Amax et un nombre de cibles.4 est représenté un exemple d’interpolation sur la courbe d’aléa. la croix correspond au résultat de l’interpolation pour la période de retour de 475 ans. Sur la figure 2. Sur la PDF (à gauche) sont indiquées les valeurs à +1σ. +2σ et +3σ . les fonctions de probabilité cumulées tronquées (et renormalisées) correspondantes sont superposées à la fonction non tronquée (à droite).5 Set d’accélérations cibles et interpolation Le code CRISIS détermine les accélérations cibles pour lesquelles le calcul du taux annuel est effectué à partir de trois paramètres d’entrée : une accélération minimale Amin . Le mode de calcul probabiliste permet aux accélérations très peu probables de contribuer considérablement aux estimations d’aléa . Les symboles carrés correspondent aux taux annuels calculés. r) = 1 − φ =0 ln A ≤ ln Am + N σ ln A > ln Am + N σ (2.

2.  .1). avec Rmin = 11 km et F min = 3 (Haut). puis avec Rmin = 1 km et F min = 5 (Bas).2 – Subdivision des zones sources en triangles (cf. LE CODE DE CALCUL CRISIS F IG . légende de la figure 2.♦2.

5 log10(PGA) 2 2. 2.5 log10(PGA) 2 2.5 3 3. 10 6 10 5 Periode de retour (annees) 10 4 10 3 475 ans 10 2 105gal 10 1 10 2 Acceleration (gal) F IG .  . croix : résultat de l’interpolation (105 gal).8 0.5 1 1. symboles carrés : résultat du calcul de l’aléa.5 3 3.3 – Troncature de la distribution de probabilité normale prédite par la relation d’atténuation . 2. à +2σ (tirets) et à +3σ (pointillés). à droite : CDF normale non tronquée en gris.2 0 0.5 1 1.4 0.015 No T N=1 N=2 N=3 CDF 1σ 2σ 3σ 0.5 F IG .PDF 0.6 0.4 – Exemple d’interpolation de l’accélération correspondant à la période de retour 475 ans .01 1 0. tronquée à +1σ (trait continu).005 0.5 0 0. à gauche : PDF normale non tronquée. Les CDF tronquées sont renormalisées.

LE CODE DE CALCUL CRISIS  .♦2.

Chapitre 3.8.1 (4666 événements dans la fenêtre géographique considérée). la zone étudiée doit être plus large et comprendre les régions frontalières : dans cette étude. carte 3.. Les séismes historiques sont décrits en terme d’intensités et les séismes instrumentaux en terme de magnitudes. Constitution du catalogue de sismicité Deux types de données sont disponibles pour décrire la sismicité de la France.1. tandis que le catalogue instrumental du LDG (Laboratoire de Détection Géophysique du Commissariat à l’Energie Atomique) couvre les derniers 40 ans. Un catalogue de sismicité doit être constitué avec une seule mesure caractérisant tous les événements sismiques. Les deux magnitudes les plus fortes enregistrées depuis 1962 s’élèvent à 5. L’ensemble des séismes de magnitude supérieure ou égale à 3. Pour estimer l’aléa sismique sur le territoire. les caractérisations des séismes qui se produisent aux frontières sont moins précises que celles des  . La base de données historique SisFrance rassemble des informations sur des séismes s’étant produit dans le dernier millénaire.1). les données historiques et les données instrumentales. la fenêtre géographique choisie s’étend de −6◦ à 10◦ en longitude et 41◦ à 52◦ en latitude.1 Le catalogue de sismicité instrumental 3.1 Choix du catalogue du LDG Le réseau sismologique du LDG est le seul réseau français assurant une couverture du territoire depuis plus de 40 ans. Les zones les plus actives en France sont situées aux frontières avec les pays voisins. La magnitude estimée est une magnitude locale ML (Nicolas et al. il est donc nécessaire de transformer les intensités macrosismiques de tous les événements historiques en magnitudes. Les stations sismologiques du réseau LDG sont localisées sur le territoire français. Le catalogue utilisé dans cette étude débute en 1962 et se termine fin 1999.0 sont reportés sur la carte 3. 3. 1998). elles correspondent au séisme de Ligurie en 1963 et au séisme de Roermond en 1992 (cf. La magnitude est choisie ici comme mesure homogène.

D’autre part. les catalogues des pays voisins sont intégrés au catalogue français . 1985). CONSTITUTION DU CATALOGUE DE SISMICITÉ séismes à l’intérieur du territoire. afin de limiter les corrélations entre magnitudes. cette magnitude ne sera probablement pas équivalente à la magnitude ML du LDG et une corrélation devra être effectuée. de nombreuses corrélations sont utilisées (tant sur le catalogue instrumental que sur les intensités historiques). L’hypothèse d’un processus de Poisson amène de nombreuses études probabilistes à «nettoyer» le catalogue de sismicité de ces répliques. lorsqu’une zone source délimite une faille bien renseignée. La détermination des coefficients d’une corrélation est toujours délicate. le processus de Poisson reste le seul modèle d’occurrence applicable. 3. ils sont pour la plupart antérieurs à 1980. les magnitudes de durée sont considérées équivalentes aux magnitudes ML . montre qu’elles sont comparables et qu’il n’est pas nécessaire d’utiliser une corrélation. la conversion d’une magnitude dans une autre entraîne toujours des incertitudes (Dyck. Cependant. seules les magnitudes supérieures ou égales à 3. pour la révision du zonage sismique de la France. Dominique et al. les séismes sont supposés se produire de manière aléatoire dans le temps et l’espace (processus de Poisson). ce qui est extrêmement important pour le calcul des taux de récurrence.♦3. un modèle d’occurrence plus réaliste peut être appliqué : le modèle de renouvellement.0 disposent uniquement d’une magnitude de durée.5 sont utilisées pour le calcul des paramètres de sismicité : ce seuil est suffisamment élevé pour assurer une bonne couverture du réseau LDG dans les zones sources situées aux frontières.. En revanche. nous avons choisi de ne pas utiliser de catalogues sismiques étrangers. Les orientations prises dans les études d’aléa précédentes sont différentes : dans l’étude EPAS (Dominique et al. A l’inverse.1. pour les événements disposant des deux. L’utilisation du catalogue du LDG seul assure l’homogénéité du catalogue instrumental en magnitude mais aussi dans le temps. Cette hypothèse est très forte. les catalogues de sismicité étrangers sont utilisés séparément dans les zones sources localisées sur le sol du pays correspondant. même si un catalogue étranger dispose d’une magnitude locale ML . l’occurrence d’un séisme sur une faille modifie le champ de contrainte et influence la capacité de cette faille à produire d’autres séismes. dans les régions plus actives.2 Traitement des répliques Dans le calcul probabiliste. Tenir compte de ces dépendances est impossible à l’heure actuelle en France. La probabilité d’occurrence d’un séisme sur la faille augmente lorsque le temps écoulé depuis le dernier séisme augmente (Cramer et al. en raison du faible nombre de données disponibles . Dans cette étude. En effet. 2000). (2001) élimine ainsi manuellement les séismes se produisant entre une semaine avant et un an après le choc princi . 2001). Par ailleurs. Le report sur un graphique de la magnitude locale en fonction de la magnitude de durée.. environ 250 séismes de magnitude supérieure à 3. dans la réalité les séismes ne sont pas indépendants les uns des autres.

1 – Sismicité instrumentale. 1967). Pour les 11 chocs principaux dont la magnitude est supérieure à 5.0. Les chocs principaux et répliques sont reportés sur la carte 3. pal. ou encore 2 répliques du séisme d’Arette (M = 5. Identifier les répliques des événements principaux est une opération extrêmement délicate .0).0 5.0[ [5. la magnitude maximale est suivie de la magnitude minimale des répliques. La sismicité en France est faible et les répliques sont peu nombreuses si l’on considère les magnitudes supérieures à 3. 1980) dans les Pyrénées sont identifiées.0. Par exemple. ML ≥ 3. nous avons cependant tenté d’identifier les répliques du catalogue instrumental grâce à l’algorithme de Reasenberg (1985).0 6.5 et lorsqu’il y a plus de 1 réplique (au total 36 chocs principaux).Catalogue instrumental (LDG).0 4. 1962−1999 52 51 50 49 48 Latitude 47 46 45 44 43 42 41 −6 [3.2 lorsque la magnitude du choc principal est supérieure à 3. Nous avons conservé les paramètres requis par son programme déterminés pour des catalogues de sismicité en Californie : définir des paramètres propres aux données françaises serait très difficile vu le faible nombre de séismes de magnitude significative (M ≥ 4.0[ −4 −2 0 2 Longitude 4 6 8 10 F IG . 61 répliques du séisme d’Arudy (M = 5.7. L’algorithme de Reasenberg est appliqué sur les magnitudes instrumentales supérieures à 3. de l’année et du nombre de séismes total détectés.0 (en rouge). catalogue du LDG [1962-1999].0[ [4.5 (magnitudes utilisées dans la suite pour le calcul des paramètres  . 3.3. A côté de chaque groupe de séismes est mentionnée la magnitude du choc principal.

1 3.6 4.3 3. 3.2 3.5 4. suivie de la magnitude minimale des répliques. L’incertitude liée au nettoyage des répliques n’est donc pas abordée dans cette étude.8 3 1992 10 51 50 49 4. CONSTITUTION DU CATALOGUE DE SISMICITÉ 52 5.3 4.8 4.0) . Les hypothèses requises pour modéliser les courbes de récurrence que sont la décroissance exponentielle du nombre de séismes avec la magnitude et la stationnarité dans le temps du taux de sismicité.8 5.6 5.6 3 1978 18 4.7 5.0. 3.5 3.8 48 5.7 4. pour  .8 3.8 4.7 3 1972 15 3.8 4 3.8 4. Sur la figure 3.7 3 1980 62 3. de sismicité).3 3 1996 4 4.7 4.1).2 1964 6 Latitude 47 46 45 44 43 42 41 −6 4.3 La courbe de Gutenberg-Richter Le catalogue instrumental [1962-1999] contient un grand nombre de séismes de faible magnitude (Figure 3.5 1967 3 4.4 1963 13 5.2 – Chocs principaux et répliques identifiés par l’algorithme de Reasenberg (1985) appliqué sur le catalogue instrumental (M ≥ 3.3 4.1 1970 3 4.3.6 5.7 4 5. de l’année et du nombre de répliques (en comptant le choc principal).9 5.♦3.7 4. chiffres noirs : magnitude MP du choc principal .4 3. nous avons constaté que les différences entre les pentes β des courbes de récurrence calculées sur le catalogue nettoyé et sur le catalogue original sont inférieures à l’écart-type sur β (cf.1. Cependant.6 3 1996 11 −4 −2 0 2 4 6 8 10 Longitude F IG .6 4. chapitre 5). Les taux de sismicité sont néanmoins légèrement diminués si le catalogue nettoyé est utilisé plutôt que le catalogue original. peuvent être partiellement vérifiées.7 5. Nous avons finalement choisi de ne pas travailler sur le catalogue nettoyé : le catalogue instrumental reste intègre.3 3. le nombre de séismes est reporté en fonction de la magnitude. chiffres rouges : MP ≥ 5.4 3.

3-4. l’hypothèse de stationnarité dans le temps de la courbe de Gutenberg-Richter peut être vérifiée dans une certaine mesure à partir du catalogue instrumental. Les périodes de 9 ans ne sont pas représentatives pour ces magnitudes : elles sont trop courtes par rapport à leurs temps de retour.2. Les nombres de séismes.2. les courbes divergent. sur la période de temps d’observation instrumentale et à l’échelle du territoire.4 sont superposées les courbes de Gutenberg-Richter (cumulées) sur 4 périodes de temps de 9 ans successives (de 1964 à 1999). Les nombres de séismes s’alignent à partir d’une magnitude de plus en plus petite (le nombre de stations du réseau LDG augmente et le territoire est de mieux en mieux couvert). En revanche.3 – ] Courbes de Gutenberg-Richter pour le catalogue instrumental du LDG. cumulés et non-cumulés. décroissent exponentiellement lorsque la magnitude augmente à partir de la magnitude 3. 10 5 10 4 Nombre de séismes 10 3 10 2 10 1 10 0 1 2 3 4 5 6 Magnitude F IG . cercles pleins : nombres de séismes cumulés . Par ailleurs.2 ne sont pas enregistrées de manière exhaustive sur les 38 ans que couvre le catalogue.0 augmente vers les périodes récentes.1 (b = ln10β). les pentes et les taux sont comparables d’une période à l’autre.8-4. Sur le graphique 3. Ainsi.3]. Cette magnitude est la magnitude de coupure du catalogue instrumental. la  .2. la baisse du seuil de détection du réseau avec le temps apparaît clairement : le nombre de séismes pour les magnitudes inférieures à 3. les magnitudes inférieures à 3. pas en magnitude : 0.le catalogue instrumental entier. Les courbes se superposent sur l’intervalle de magnitude [2. période [1962-1999] . cercles vides : nombres de séismes non-cumulés . 3. Le catalogue est en revanche complet pour les magnitudes supérieures à 3.5. La pente de la décroissance exponentielle est par ailleurs de l’ordre de 1. à partir de magnitude 4. D’autre part.

Elle repose sur les effets du séisme observés sur les personnes. Le degré III correspond au seuil de perception humaine de la secousse.. il correspond à la destruction totale de tout type de bâtiment. à chaque observation sont associés des coordonnées géographiques et un coefficient de qualité selon le degré de fiabilité des documents historiques interprétés. L’échelle d’intensité utilisée dans la base SisFrance est l’échelle MSK 1964 (Medvedev et al.5 5 5. les objets et les constructions.5 4 4. Les épicentres macrosismiques ont par ailleurs été déterminés et les intensités à l’épicentre déduites. L’intensité macrosismique estime la force de la secousse sismique en un lieu donné. 10 4 10 3 [1964−1972] [1973−1981] [1982−1990] [1991−1999] Nombre de séismes 10 2 10 1 10 1. Elle compte 12 degrés... CONSTITUTION DU CATALOGUE DE SISMICITÉ loi puissance de Gutenberg-Richter et la stationnarité du taux de sismicité sont vérifiées.♦3. Ces archives portent sur les derniers mille ans. ce sont des écrits de toute sorte (coupures de presse. 3.4 – Courbes de Gutenberg-Richter sur 4 périodes de 9 ans successives du catalogue instrumental. Les séismes de la base SisFrance sont décrits par des observations d’intensité .2 Le catalogue de sismicité historique La base de données SisFrance rassemble l’ensemble des informations disponibles concernant les séismes historiques (Levret et al. 1994.5 0 2 2.5 3 3. 3.  . travaux scientifiques. archives ecclésiastiques ou d’Etat. manuscrits anciens.5 6 Magnitude F IG . 1996). le dernier (XII) n’a jamais été observé.) interprétés en terme d’intensités macrosismiques.. 1967). le premier degré (I) correspond à une secousse totalement imperceptible..

64 ∗ I + 1. Les séismes post-1962 ne sont pas concernés puisque c’est la date du début du catalogue instrumental. La corrélation Scotti (Griot-Pommera & Scotti. Les profondeurs des séismes historiques sont très mal contraintes. (2002a) et Domi .2. La figure 3.1) avec M la magnitude. Deux corrélations existent à l’heure actuelle en France.1 Calcul de la magnitude historique Une corrélation intensité-magnitude permet de calculer les magnitudes des séismes historiques. Rh la distance hypocentrale et Re la distance épicentrale. 1998).0. Les magnitudes Levret pour ces séismes sont également reportées : les magnitudes Scotti sont plus proches des magnitudes instrumentales (ML . La corrélation Levret est appliquée avec une profondeur de 10 km pour tous les séismes.5 degré. I l’intensité. La corrélation Levret (1994) repose sur 73 séismes disposant d’une magnitude locale LDG.6 montre la distribution des différences entres les deux estimations de magnitude pour l’ensemble des séismes historiques utilisés dans cette étude : les magnitudes Scotti sont en moyenne supérieures aux magnitudes Levret de 0.3. La superposition de la droite y = x montre que la corrélation Levret sous-estime les magnitudes supérieures à 5.4-0.2. la profondeur de 10 km correspond à la profondeur moyenne des séismes en France (Autran et al. Cependant ces séismes disposant à la fois d’une magnitude instrumentale et d’une description en termes d’intensité sont utilisés pour dériver les coefficients des corrélations intensité-magnitude. basées sur la même technique d’inversion mais sur des données différentes. Les distances sont hypocentrales dans la corrélation Levret et épicentrales dans la corrélation Scotti : – Corrélation Scotti : M = 0.5 sont présentés les séismes ayant servi à établir la corrélation Levret : les magnitudes macrosismiques sont en ordonnée et les magnitudes instrumentales en abscisse. l’objectif était de disposer d’un jeu de données plus équilibré (accorder un poids comparable à chaque intervalle de magnitude). LDG) que les magnitudes Levret.2) (3.48 ∗ log10 Rh + 0.1 ou 3.48 (3. Sur la même figure (graphique du bas) sont représentés les séismes ayant servi à établir la corrélation Scotti. Cara & Rouland (1987)). comme dans les études probabilistes de Martin et al. La magnitude peut être calculée directement à partir de l’intensité épicentrale selon les équations 3.44 ∗ I + 1.45 – Corrélation Levret : M = 0.86 ∗ log10 Re − 0. 2001) repose sur 10 séismes : les séismes les mieux renseignés des 73 précédents et des séismes antérieurs à 1962 de magnitude plus élevée (magnitude IPGP.. Sur la figure 3.

5 3 3 MLevret MScotti 3.5 5 5. les observations sont rassemblées par classe d’intensité I et pour chaque classe une distance à l’épicentre macrosismique moyenne est calculée.5 4 4. CONSTITUTION DU CATALOGUE DE SISMICITÉ 7 6. jeu de données utilisées pour établir la corrélation Levret . Cette distance constitue le rayon-équivalent de l’isoséiste.5 5 4.5 7 Magnitude macrosismique 6 5.5 4 3.5 3.5 5 4. Nous avons préféré utiliser l’ensemble des observations d’intensité disponibles pour chaque séisme.5 MLevret 3 3 7 6. jeu de données utilisées pour établir la corrélation Scotti. Cependant. (2001).5 5 5.5 4 4. Bas.5 Magnitude macrosismique 6 5.  . l’incertitude sur la détermination de l’intensité épicentrale est grande (elle ne correspond pas forcément à une observation).5 Magnitude instrumentale 6 6. 3.5 – Données sur lesquelles sont basées les corrélations Levret et Scotti : Haut. La corrélation fournit autant d’estimations de magnitude qu’il y a de classes d’intensité renseignées .5 4 3. nique et al. Dans un premier temps.5 7 F IG .5 Magnitude instrumentale 6 6.♦3. la magnitude attribuée au séisme est finalement la moyenne arithmétique de ces magnitudes.

Le séisme est finalement retenu et une magnitude est calculée si au moins trois classes d’intensité supérieure ou égale à III sont renseignées (disposent d’au moins une observation). 3. 1996). Les zones éclairées sont les mêmes que pour les 38 ans de sismicité instrumentale 3. Les observations de qualité C ne sont pas prises en compte. Dans un premier temps..2).4 0.6 0.5 0.1 et 3. les magnitudes des séismes sont cependant plus élevées. Au total.3 0. Ainsi les petits séismes mal contraints sont éliminés. 3. les séismes suffisamment renseignés sont extraits de la base de données SisFrance afin de constituer le catalogue de sismicité historique.2 Extraction de la base de données SisFrance Sur des critères que nous avons fixés afin d’assurer une estimation fiable de la magnitude. Le catalogue historique compte finalement 570 séismes. il contient 320 magnitudes supérieures ou égales à 4. Le coefficient C est attribué lorsque «la description des effets est douteuse du fait de sources incertaines. les rayons des isoséistes sont calculés pour les séismes disposant d’au moins une observation dans une classe d’intensité supérieure ou égale à III (intensité minimale correspondant au seuil de détection par les personnes).5.6 – Différences entre MScotti et MLevret pour les 320 séismes historiques pour lesquels MScotti ≥ 4.2 0. chaque observation dispose d’un coefficient A.2. Dans la base. les demi-degrés constituent des classes (par exemple IV-V).  .120 100 Nombre de seismes 80 60 40 20 0 0 0. voire peu fiables et des recherches supplémentaires sont nécessaires» (Levret et al.7.1. deux catalogues de 570 séismes sont disponibles puisque deux corrélations intensité-magnitude existent (équations 3.8 0.5. B ou C selon la qualité des renseignements. Le catalogue Scotti est représenté sur la figure 3.7 0. La magnitude moyenne est ainsi calculée sur un minimum de trois valeurs.9 1 MScotti−MLevret F IG .1 0.

2. Les différences entre les magnitudes maximale et minimale de chaque événement sont reportées en fonction de la magnitude moyenne (figure 3.5 est également représentée (courbe noire).0.. 3. la moyenne des différences par intervalle de largeur 0.2 .8.. page 44).7 – Sismicité historique [1356-1961]. Par exemple.0-7. les faibles magnitudes [4. D’autre part.0[ [6.9. page 43) révèle une caractéristique importante du catalogue historique : la perte de l’information lorsque l’on remonte dans le temps. les magnitudes historiques correspondent à la moyenne des magnitudes calculées pour chaque isoséiste.♦3.5 degré sur la magnitude historique. De cette distribution des différences entre estimations minimale et maximale peut être déduite une incertitude moyenne de 0.5[ ne sont reportées que depuis la fin du XIX e siècle .[ −4 −2 0 2 Longitude 4 6 8 10 F IG . Ces différences sont de l’ordre de 1 degré de magnitude. Note : Le catalogue historique Scotti contient plusieurs magnitudes de l’ordre de 7. CONSTITUTION DU CATALOGUE DE SISMICITÉ 52 51 50 49 48 Latitude 47 46 45 44 43 42 41 −6 [4.0[ [5. ces différences sont stables en moyenne sur toute la gamme de magnitude : la technique de calcul n’a pas introduit de biais. tandis que de 1350 à 1750. MScotti ≥ 4. La corré .0 .0 6.0. Sur le graphique. les magnitudes du catalogue Scotti sont plus élevées que celles du catalogue Levret. les magnitudes reportées sont quasiment toutes supérieures à 6.0 5.3 Caractéristiques du catalogue historique Le report des séismes selon leur magnitude et leur date d’occurrence (figure 3. 3.0-4.

géré par l’EOST de Strasbourg (Ecole et Observatoire des Sciences de la Terre) . catalogue de sismicité historique [1356-1961]. 3.8 – Distribution en temps et magnitude.5. lation Scotti fournit des magnitudes historiques plus proches des magnitudes instrumentales ML du LDG sur l’intervalle [4. Les magnitudes historiques calculées et les magnitudes instrumentales sont par conséquent considérées homogènes. 3. Ces magnitudes conduisent à supposer qu’une magnitude ML (LDG) de 7.3 Constitution du catalogue combiné instrumental et historique Les corrélations M-I sont établies à partir de séismes décrits par une magnitude locale LDG (à l’exception de quelques séismes antérieurs à 1962).3 .0-6.5 5 5. Chaque  .4.9.5 7 7. – Rambervillers : ML (LDG) = 5. Par ailleurs.0 correspond à une magnitude MW plus faible. MW (ET H) = 4. ML (ReN aSS) = 5.4. l’ET H est basé à Zurich). L’estimation de la magnitude ne peut être traitée dans le cadre de cette thèse. magnitudes historiques calculées avec la corrélation Scotti.8.7. mais elle constitue une problématique majeure. (Le ReN aSS est le Réseau National de Surveillance Sismique.5 F IG . ML (ReN aSS) = 5. les estimations des magnitudes des deux séismes récents de Hennebont (30/11/02) et Rambervillers (22/02/03) sont éloquentes : – Hennebont : ML (LDG) = 5.5 6 Magnitude 6. MW (ET H) = 4. figure 3.5] que la corrélation Levret (cf.2000 1900 1800 Temps (années) 1700 1600 1500 1400 1300 4 4. page 40).

Deux catalogues sont donc disponibles pour l’estimation de l’aléa sismique. A chaque conversion entre échelles de magnitude. Pour une distance et une magnitude données. ils seront appelés les catalogues Scotti et Levret dans la suite.♦3. Il est cependant certain que dans le futur les efforts doivent être portés sur l’établissement d’une corrélation ML -MS .5 2 1.. c’est le catalogue Scotti qui sera principalement utilisé. 3. l’incertitude sur la nouvelle magnitude augmente. en fonction de la magnitude moyenne. C’est également l’orientation prise lors de la révision du zonage sismique français (Martin et al. cette relation prédit le mouvement du sol au site considéré (chapitre 1). les mouvements du sol engendrés par les séismes sont calculés à partir d’une relation d’atténuation. catalogue historique est assemblé avec le catalogue instrumental en un unique catalogue couvrant la période [1356-1999].5.5 3 2. pour chaque séisme historique (MScotti ).9 – Distribution des différences entre les estimations de magnitudes minimales et maximales.5 1 0. Les séismes du catalogue LDG disposant des deux estimations de magnitudes ML et MS sont actuellement trop peu nombreux pour établir une corrélation fiable. Nous avons donc préféré conserver les magnitudes ML plutôt que de constituer un catalogue qui serait inévitablement biaisé. Dans le calcul probabiliste.5 5 5. 2002a). Dans toute notre étude. Notre objectif n’est pas une estimation absolue de l’aléa sismique mais une analyse des incertitudes sur les estimations d’aléa liées à la méthode probabiliste.5 0 4 Différence Mmax−Mmin 4. mais elle nécessite le recours à une seconde corrélation ML -Mb . La relation d’atténuation utilisée dans cette étude (Berge-Thierry et al. il existe une corrélation Mb -MS pour la France (Dufumier).  . mais le catalogue Levret sera également employé afin d’estimer la dépendance des résultats avec le choix de la corrélation M-I. courbe continue : moyenne des différences par intervalle de largeur 0.5 7 7. CONSTITUTION DU CATALOGUE DE SISMICITÉ 4 3. Cependant.5 6 6.. 2003) a été dérivée à partir de magnitudes de surface MS (chapitre 4). La magnitude du catalogue devrait par conséquent être la même que celle de la relation d’atténuation utilisée.5 Magnitude moyenne calculée F IG .

sismologie) sont intervenus (Autran et al. Ces zones sont déterminantes dans la méthode probabiliste de CornellMcGuire : à l’intérieur de chaque zone est modélisée une courbe de récurrence. la relation d’atténuation choisie Berge-Thierry et al.. géologie. puis dans un second temps à fusionner ces zonages  .1 Le zonage AFPS-EPAS (Autran et al. 2002b). GEO-TER. seules des aires géographiques larges peuvent délimiter les zones sources sismiques et une profondeur moyenne est attribuée à chaque zone source.1 Le zonage sismotectonique La sismicité de la France est modérée et diffuse. 4. 4. un zonage sismotectonique et un modèle d’atténuation du mouvement du sol adapté au contexte tectonique. Zonage et relation d’atténuation Le calcul de l’aléa sismique probabiliste repose sur trois données de base : un catalogue de sismicité de la région d’étude.Chapitre 4.1. Le zonage et la relation d’atténuation choisis pour cette étude sont présentés dans ce chapitre. Il a été utilisé dans la révision du zonage réglementaire français (Martin et al. La méthodologie qui a été mise en place a consisté à établir dans un premier temps plusieurs zonages basés sur des critères différents. A l’échelle du territoire. (2003) est la relation adaptée au contexte français la plus récente. 1998) Le zonage utilisé dans cette étude est issu du groupe de travail AFPS-EPAS (Association Française de génie Parasismique/Evaluation Probabiliste de l’Aléa Sismique) auquel ont participé des spécialistes appartenant à différents organismes (BRGM. c’est également la relation de référence dans la réglementation nucléaire en France. la sismicité est ensuite supposée répartie de manière uniforme dans la zone. il est difficile d’associer les événements sismiques aux failles qui les génèrent. issu d’un travail de plusieurs années où des spécialistes de différents domaines (géophysique.. D’autre part. IPSN et EDF). Le zonage sismotectonique utilisé est un zonage de référence. génie civil. 1998)..

ont servi de support. Dans un zonage à visée probabiliste. C’est une version possible du zonage probabiliste AFPS-EPAS présenté en annexe.1 page 47. les transitions non expliquées par des éléments structuraux). – Types de déformation : répartition des déformations récentes et actuelles (tectonique alpine des 25 derniers Ma). – Répartition de la sismicité (les catalogues disponibles sont supposés représentatifs des principales discontinuités crustales).. limites secondaires (héritage hercinien) et limites peu marquées (les limites qui ne sont ni principales ni secondaires. Dans le calcul probabiliste. 2001). imposées au pourtour du territoire afin de fermer les zones. Les zonages existants. ZONAGE ET RELATION D’ATTÉNUATION pour obtenir le zonage probabiliste. Trois grands thèmes ont abouti à trois zonages : – Zonage structural : les grandes limites structurales de la croûte fragile (nature de la croûte et histoire de sa déformation depuis environ 300 Ma). Les limites de ce zonage final sont classées en trois niveaux : limites principales (structuration alpine).♦4. En un point géographique. la répartition de la sismicité devient un critère important. lorsque l’échantillon de sismicité est trop restreint. séparant les limites «fiables» des limites «moins fiables» (traits pointillés sur la carte en annexe). Le zonage utilisé dans cette étude correspond aux limites et profondeurs considérées dans l’étape 3 du groupe de travail AFPS-EPAS (Dominique et al. L’importance du zonage apparaît évidente sur cet exemple simple : supposons qu’une zone fortement sismique A jouxte une zone faiblement sismique B. un degré de confiance est attribué à chaque limite. Cette hiérarchie des limites de zones est maintenue dans le zonage final afin de pouvoir envisager des regroupements de zones. Les trois jeux de limites obtenus sont ensuite compilés pour aboutir à un zonage unique «probabiliste». l’aléa peut dépendre très fortement de la zone source dans laquelle se trouve ce site. extraits de Autran et al.2 Les conséquences de l’utilisation d’un zonage Rôle déterminant du zonage Le choix du zonage est déterminant pour l’estimation probabiliste de l’aléa sismique. (1998).1. La superposition d’une carte d’aléa au modèle des zones sources utilisé montre que les contours des valeurs d’aléa suivent les limites des zones sources. 4. sont présentés en annexe. De plus. le taux de sismicité total d’une zone source est en effet redistribué uniformément sur toute la surface de la zone source. établis pour des estimations déterministes de l’aléa. Il est présenté sur la figure 4. lors du calcul des paramètres de sismicité. Le zonage et la nature des limites.  . Un quatrième type de limites est ajouté : les limites «de modèle».

52 51 50 49 48 Latitude 47 46 45 44 43 42 41 −6 [3..1 – Zonage sismotectonique utilisé dans cette étude (Autran et al. Cependant. Rassembler les zones A et B dans une seule et même zone source conduit à diminuer l’aléa des points de la zone A et à l’inverse à augmenter l’aléa des points de la zone B (par rapport à un zonage dans lequel les zones A et B seraient individuellement des zones sources). notre objectif n’était pas d’estimer un niveau d’aléa mais d’identifier d’autres paramètres clefs qui contrôlent l’aléa.0 5. 2001).[ −4 −2 0 2 Longitude 4 6 8 10 F IG ..1).0 . superposé au catalogue de sismicité [1356-1999].  .0[ [5.5 4.0[ [6.0 6. nous avons choisi de n’utiliser qu’un jeu de limites de zones (Figure 4. 4.. L’objectif de cette étude n’est pas d’élaborer un nouveau zonage. Dans le cadre d’une estimation de l’aléa sismique en vue de l’établissement d’un zonage réglementaire.. Dominique et al. il est indispensable de calculer l’aléa en envisageant différentes limites possibles. 1998.0[ [4.

. Le fait qu’une faille constitue une limite entre deux zones sources dans une estimation de l’aléa sismique est fortement criticable. Il est bien évident que si cette faille produit un séisme..2 4. Cette approche est actuellement expérimentée pour la région de la Durance (Clément et al. MS la magnitude de surface et R la distance hypocentrale en km. annexe). Les coefficients a. (2000)). (1996) et Berge-Thierry et al.1 La relation d’atténuation La relation d’atténuation Berge-Thierry (2003) Le choix de la relation d’atténuation est déterminant pour l’estimation de l’aléa sismique. cette approche serait plus satisfaisante mais elle nécessite une connaissance des failles actives qui n’existe pas encore pour l’ensemble du territoire français. cf. Une approche probabiliste par failles conduirait au contraire à délimiter des zones étroites autour de ces failles.. failles du rift Rhénan (limites n◦ 7). faille de la Têt (n◦ 31).. 300 m/s < VS ≤ 800 m/s). faille de Nîmes (n◦ 13).♦4.1) où A est la pseudo-accélération en cm.. Les études d’estimation de l’aléa sismique les plus récentes en France utilisent diverses relations considérées adaptées au contexte géodynamique français : celles de Mohammadioun & Pecker (1993) et Tento et al. Cette relation est par ailleurs la relation de référence pour les études d’aléa sismique dans le nucléaire (Règle Fondamentale de Sûreté 1. (1992) dans l’étude EPAS (Dominique et al. 2002a).. b et ci  .. la plus récente. Ambraseys et al. ZONAGE ET RELATION D’ATTÉNUATION Lorsque les limites de zones sont des failles. VS >800m/s) et site sédimentaire (c2 .2. les dommages seront des deux côtés de la faille. les relations sont dérivées à partir de bases rassemblant des données de plusieurs pays.2. Berge-Thierry et al. Elle est de la forme : log10 A(f ) = a(f )MS + b(f )R − log10 R + ci (f ) σlog10 A (4. faille Nord Pyrénéenne (n◦ 29). il pose cependant des difficultés importantes dans les zones à sismicité modérée.c. (2003) dans la révision du zonage réglementaire français (Martin et al. a été choisie dans cette étude. 4. Les données de mouvements forts sont en effet peu nombreuses. (2003). La relation Berge-Thierry et al. Les critères choisis conduisent à délimiter des zones par des failles ou des systèmes de failles : faille des Cévennes (limite n◦ 2. celles de Ambraseys (1995). Les événements sélectionnés et la paramétrisation de la relation sont adaptés au contexte de sismicité européen. 2004). Le coefficient ci a été évalué pour deux conditions de sol : site rocheux (c1 . 2001) .s− 2.

les prédictions de l’atténuation avec la distance des valeurs au PGA sont calculées pour une magnitude de 5. sont superposées aux courbes de prédiction. les valeurs d’accélération prédites par la relation à différents multiples de l’écart-type à partir de la moyenne sont reportées dans le tableau 4.580g pour M = 6. La dispersion des données est importante. Les valeurs prédites à ±σ sont également indiquées.3 présentent le domaine de distribution des données en distance et magnitude. de 34 à 0. pour les deux conditions de site. Les données présentes dans la base correspondant à des séismes de magnitude 4. l’accélération prédite varie entre 0.  . c2 = 0.1573e+1 et σlog10 A = 0.0 à une profondeur de 10 km (figure 4. la dispersion des données à l’intérieur d’une classe est inévitablement importante.010g et 0. 4. Avec seulement deux classes pour décrire les conditions de sites. Les enregistrements mondiaux montrent en effet que le mouvement sature en champ proche. ils sont également disponibles pour le mouvement vertical. chemins de propagation.0 et 6. La dispersion des données (0. Les coefficients de la relation sont ainsi dérivés à partir d’enregistrements issus de régions de régimes tectoniques très différents. pour M = 5. des PGA sont observés à 2 et 3 écart-types au-dessus de la moyenne. La base de données est contituée à 83% d’enregistrements européens (15 pays différents) et afin de couvrir les grandes magnitudes (M ≥ 6. L’installation du RAP (Réseau Accélérométrique Permanent) est récente (initiée en 1993).2. elle contient également 17% de données californiennes. et effets de site.0. Le zonage sismotectonique de cette étude comporte des zones sources à 10 et 15 km de profondeur (à l’exception d’une zone faiblement sismique.0). les enregistrements de mouvements forts sur le territoire français sont actuellement peu nombreux et ne peuvent suffire pour établir une relation d’atténuation.3118. Les données à moins de 10 km et plus de 100 km sont peu nombreuses. b = −0.2). Selon le nombre d’écart-types.005g et 0.0.0. L’atténuation du mouvement est certainement différente d’une région à l’autre (dans les Alpes et le Massif Armoricain par exemple). Pour illustration. pour un sol rocheux et un site sédimentaire.283g. Les coefficients au PGA (34 Hz) sont : a = 0.dépendent de la fréquence mais sont indépendants de la magnitude et de la distance. c1 = 0. En complément. La variabilité du mouvement prédit par la relation d’atténuation est très forte. cependant il faudra attendre longtemps avant de pouvoir établir des relations d’atténuation régionales à partir de données réelles. et entre 0.9303e-3.1 Hz) correspond donc au mélange de différentes sources.2923 (mouvements horizontaux).1537e+1.9.2923 ≤ σ ≤ 0. 5.0 et 5.1 pour les magnitudes 5.1 à 34 Hz.2 Base de données et domaine de représentativité Les graphiques de la figure 4. Les coefficients ont été calculés pour des fréquences de 0.1. comme le sont les données réelles à partir desquelles est dérivée la relation.4365. La faible quantité de données à courtes distances n’a pas permis de contraindre un terme de saturation.

2 1 0.4 présente la distribution des résidus entre valeurs observées et valeurs prédites. Afin de définir le domaine de représentativité de la relation. soit de 4 à 330 km en distance et de 4. cercles et croix : observations (extraites de la base de données.  .6).2 2 log10(PGA) Predicted Rock Predicted Alluvium Observed Rock Observed Alluvium 1.♦4.4 1. l’hypothèse d’une distribution gaussienne est globalement vérifiée.6 10 20 30 40 50 60 Distance 70 80 90 100 F IG .4 2.2 – Atténuation du logarithme de l’accélération en fonction de la distance pour M=5 . les effets d’une absence de saturation sont probablement limités.8 1. les logarithmes des accélérations sont supposés suivre une distribution log-normale. ZONAGE ET RELATION D’ATTÉNUATION 2.0 à 7.6 2. 4.8 0. courbes continues : valeurs moyennes prédites par la relation d’atténuation (rocher et sol sédimentaire) . pour déterminer l’écart-type de la relation d’atténuation. pour tous les mouvements horizontaux au PGA (rocher et site sédimentaire). A cette distribution est superposée une fonction de densité de probabilité normale. Le domaine de représentativité de la relation correspond donc au domaine défini par les données. chapitre 5). Sur toute la gamme de distances et toute la gamme de magnitudes les résidus sont relativement symétriques par rapport à zéro . Les deux distributions se superposent correctement. tirets : valeurs moyennes ±1σ .5) et en fonction de la magnitude (4. Par ailleurs. Le graphique de la figure 4. de moyenne zéro et d’écart-type σlog10 A .9 en magnitude. les résidus entre valeurs observées et valeurs prédites sont calculés et reportés sur des graphiques : en fonction de la distance (figure 4.6 1. ils ne présentent par ailleurs pas de biais systématique pour une gamme de distances ou de magnitudes précise.9 ≤ M ≤ 5.1). 4.

0 0. 4.077 0. (2003).038 0.019 0.005 M = 6.074 0. 4.580 0.039 0.283 0.020 0.  .296 0.Nb de σ 3 2 1 0 −1 −2 −3 M = 5.1 – Accélérations prédites par la relation d’atténuation Berge-Thierry (2003) en g. extrait de BergeThierry et al.3 – Distribution en distance et magnitude des données utilisées pour établir la relation d’atténuation. au rocher et sur sol sédimentaire (mouvements horizontaux).010 TAB . Distance hypocentrale (km) 10 2 Distance hypocentrale (km) 10 2 10 1 10 1 Rock data 4 5 6 7 8 Alluvium data 4 5 6 7 8 Magnitude Magnitude F IG .010 0.151 0.144 0.0 0. pour différents écarts au-dessous et au-dessus de la moyenne (0σ).

16 0.5 +σ 0 −0. mouvements horizontaux et 5% d’amortissement). mouvements horizontaux de la base).5 −1 −1.♦4. 4.08 0.5 – Distribution des résidus en distance : différence entre le logarithme de l’accélération observée et celui de la valeur prédite par la relation d’atténuation (PGA.5 log(Aobs)−log(Apred) 1 1.5 2 F IG . 2 1.04 0.14 0. PGA.4 – Distribution des résidus (différence entre le logarithme de l’accélération observée et celui prédit.5 0 0.5 1 log(Aobs)−log(Apred) 0. et superposition d’une distribution normale théorique de moyenne zéro et écart-type σlog10 A .5 −1 −0.1 0. extrait de Berge-Thierry et al.02 0 −2 −1. (2003).5 −2 0 10 −σ 10 10 Distance hypocentrale (km) 1 2 10 3 F IG .12 0. ZONAGE ET RELATION D’ATTÉNUATION 0.06 0.  . 4.

5 7 7.5 8 F IG .5 1 log(Aobs)−log(Apred) 0. 4.5 6 Magnitude 6. mouvements horizontaux et 5% d’amortissement).6 – Distribution des résidus en magnitude : différence entre le logarithme de l’accélération observée et celui de la valeur prédite par la relation d’atténuation (PGA.5 0 −0.5 −2 +σ −σ 4 4.2 1.5 −1 −1.5 5 5.  .

♦4. ZONAGE ET RELATION D’ATTÉNUATION  .

Ainsi. les taux de sismicité λ(M ≥ 3.Chapitre 5. le taux annuel doit être estimé sur une période de temps où le catalogue est exhaustif pour cette magnitude. Ce chapitre traite dans un premier temps de la détermination des périodes complètes de chaque intervalle de magnitude. Dans un second temps. à partir des magnitudes supérieures où égales à 3. plus la magnitude augmente et plus la période complète correspondante s’allonge. (équation 1. les périodes sont par la suite déterminées sur le catalogue du territoire entier puis supposées valides à l’intérieur de chaque zone source. Cette date est appelée «date de complétude». s’étend de 1356 à 1999. Les faibles magnitudes ne sont reportées de manière exhaustive que depuis la date de début du réseau instrumental. les régions ne se sont pas peuplées de manière homogène dans l’histoire (les régions montagneuses sont moins bien ren . chapitre 1). en appliquant la méthode de Weichert (1980).5) et les pentes β des courbes de récurrence sont calculés dans chaque zone source. Déterminer cette période «complète» revient à déterminer la date à partir de laquelle tous les séismes pour cette magnitude donnée sont reportés sans oubli dans le catalogue. Calcul des paramètres de sismicité La méthode de Cornell-McGuire requiert la modélisation d’une courbe de récurrence dans chaque zone source. construit au chapitre 3. La période la plus longue possible doit être utilisée afin de calculer les taux sur un maximum de données et sur des périodes de temps suffisamment grandes devant les temps de retour des magnitudes. Pour une magnitude donnée.5.1 Extraction des parties complètes du catalogue Le catalogue de sismicité. Le modèle classique de l’exponentielle tronquée est utilisé. Néanmoins.2. 5. en fin de chapitre ces hypothèses sont illustrées sur le catalogue instrumental du territoire entier. Ce modèle de récurrence repose sur la loi puissance et l’invariance dans le temps du taux de sismicité . Les méthodes d’estimation des périodes de complétude nécessitent un grand nombre de données. ils sont mentionnés dans les archives. ces séismes ont eu des effets importants et ont marqué les populations. Les dates de complétude des magnitudes élevées sont quant à elles beaucoup plus anciennes.

5[ sont 1870 et 1800.2 sont représentées les courbes des nombres cumulés de séismes par intervalle de largeur 0. Le faible nombre de données ne permet pas de tenir compte de cette variation dans l’espace. ainsi que les dates de complétudes. qui ne repose pas sur cette hypothèse. Deux méthodes de lecture grahique sont classiquement utilisées pour déterminer les période complètes : la méthode «linéaire» et la méthode de Stepp (Stepp.5 correspond à l’incertitude moyenne sur la magnitude historique).0-6. Cette technique n’est cependant applicable que pour les faibles magnitudes du catalogue instrumental . les courbes régionales  . De la même manière.5 est très délicate. les courbes sont linéaires à partir de 1962. Les périodes complètes sont estimées pour les deux catalogues de sismicité Scotti et Levret (tableau 5. Elles supposent le taux de sismicité invariant dans le temps.5[.0-4. l’obtention de ces périodes est illustrée sur le catalogue Scotti. 1972).0[ montre une rupture de pente vers 1920. D’autre part.1. mais la date de complétude est estimée à 1500. consiste à tracer la courbe de Gutenberg-Richter sur des intervalles de plus en plus longs et à relier les magnitudes de coupure aux périodes temporelles considérées.0[ et [6. sur des périodes de temps plus longues.♦5. La courbe des magnitudes [4. mais avec un nombre de séismes de plus en plus réduit.1) .5-4. date de mise en place du réseau sismologique.0-6. les données sont moins nombreuses et les décroissances exponentielles ne sont pas retrouvées. ces magnitudes seront par conséquent utilisées à partir de cette date. Sur les figures 5. De plus.0[ et [4. CALCUL DES PARAMÈTRES DE SISMICITÉ seignées que les régions urbaines) et de la même manière le seuil de détection varie d’une région à l’autre selon la densité du réseau instrumental.1 Estimation à partir du nombre cumulé de séismes Cette méthode consiste à reporter en fonction du temps et pour chaque intervalle de magnitude le nombre cumulé de séismes. Le tronçon linéaire le plus récent correspond à la période complète.5-5. Pour les intervalles de magnitude [3.1 et 5. Une comparaison avec des périodes complètes obtenues à l’échelle régionale est cependant possible dans les régions sismiques des Alpes et des Pyrénées. L’estimation pour les magnitudes supérieures à 6. les dates de complétudes déduites pour les magnitudes [5. Une autre méthode. 5. Les courbes sont linéaires lorsque le taux de sismicité est constant. vu le très faible nombre de séismes. Cet accroissement d’informations disponibles peut s’expliquer par des évolutions historiques. sur les cartes sont reportés les séismes correspondant à l’intervalle de magnitude considéré. Les courbes obtenues à partir des catalogues régionaux des Alpes et des Pyrénées sont également superposées.5 (0. Les tronçons linéaires sélectionnés sont indiqués. des tronçons linéaires successifs de pentes croissantes indiquent une baisse du seuil de détection des séismes à des dates précises.

..5.5-4. la première période est donc [1995-1999].5-4. il est constant d’une période T à l’autre √ et l’écart-type σλ est alors inversement proportionnel à T .] [1500-1999] [1500-1999] TAB .5. la seconde [1990-1999]. la méthode consiste à calculer sur des périodes de temps T de plus en plus longues l’écart-type du taux de sismicité moyen et à le reporter sur un graphique en fonction de T (Figure 5. n(T ) T λ(T ) √ T 2 σλ (T ) = (5.1) (5. sont globalement en accord avec la courbe du catalogue entier pour les magnitudes inférieures à 6. la dernière de largeur 660 ans est [1340-1999].4] [1800-1999] [1500-1999] [6.0-5..2 Méthode de Stepp La méthode de Stepp (1972) est la seconde méthode graphique utilisée classiquement pour la détermination des dates de complétude. cependant l’hypothèse de leur validité à l’échelle de chaque zone source est globalement vérifiée dans les régions les plus actives (Alpes et Pyrénées). les valeurs de σλ s’alignent sur une droite de pente −0.3.9] [1920-1999] [1900-1999] [5. 5. La période complète se termine lorsque les points s’écartent de cette droite.5 groupées dans des intervalles de largeur 0. 5... page 61). L : Levret).2) σλ (T ) = Lorsque le taux est constant sur plusieurs années. Le pas en temps est ici de 5 ans.4] [1962-1999] [1962-1999] [4.5 car le nombre de séismes est alors extrêmement réduit dans chacune de ces régions.5-.5. Les périodes de complétude ne peuvent être estimées qu’à l’échelle du territoire.0-6. Sur un graphique log-log.Intervalle Période S Période L [3..4] [1870-1999] [1870-1999] [5.0-4.1. La comparaison devient impossible au-delà de 6.9] [1870-1999] [1800-1999] [6.1 – Périodes de complétudes des deux catalogues de sismicité (S : Scotti . Le taux annuel moyen sur la période de temps T (en années) est la moyenne des taux annuels. La méthode de Stepp apporte par ailleurs une information  . La variance de ce taux moyen est donc : λ(T ) λ(T ) = . sauf dans l’intervalle de magnitude [4.5-5.5[ où les courbes régionales semblent indiquer une période complète plus large ([1920-1999]). pour les magnitudes M ≥ 3. Les résultats se lisent à nouveau sur un graphique. Pour chaque intervalle de magnitude.

La figure 5. Deux hypothèses majeures sont nécessaires pour tracer une telle courbe : le catalogue [1500-1999] est supposé homogène et les taux de sismicité sont supposés constants. il existe des méthodes systématiques où la période est calculée et non lue sur un graphique (Albarello et al. les segments. Au-delà d’une période suffisamment grande.0-5.5 (en vert). Ces hypothèses ne sont peut-être pas valides sur toute la longueur du catalogue. L’attribution des dates de complétude pour les magnitudes supérieures à 6.0[. La décroissance exponentielle n’est pas respectée sur tout l’intervalle de magnitude. Les points s’écartent d’une droite de pente −0.3 Conclusions et récurrences sur le catalogue [1500-1999] Les deux méthodes reposent sur une même hypothèse : la stationnarité du taux de sismicité dans le temps.5[.0[.5-4. la période minimale représentative est de 5 ans pour l’intervalle [3.5 est délicate. Sur le graphique 5.1 et indiquées par les traits verticaux.1. les données sont très peu nombreuses et il devient difficile de déduire des dates de complétude. Ainsi la méthode de Stepp conforte les dates de complétude estimées en 5. elle est relative à l’aire géographique considérée. 50 ans pour [5.5 lorsque la période complète est atteinte : les périodes complètes sont globalement en accord avec celles déterminées en 5.4 présente les taux annuels cumulés calculés à partir des catalogues Scotti et Levret.5 peuvent maintenant être calculés sur le catalogue de tout le territoire [1500-1999]. En effet.0[ sont plus élevés que ceux prédits par les extrapolations des magnitudes inférieures à 5. la période de temps couverte par le catalogue est trop courte. Ainsi. CALCUL DES PARAMÈTRES DE SISMICITÉ supplémentaire : la période minimale représentative est indiquée par le début de l’alignement. Elle fournissent globalement des résultats identiques et deviennent difficiles à appliquer lorsque les données sont rares. Au-delà de 6.55.5-6.0[. il faudrait réduire le pas en temps. ces magnitudes sont rares. il se peut aussi que la loi d’échelle ne soit pas respectée sur l’intervalle de magnitude entier.  .1. toutes les courbes sont de pente iden1 tique −1 : les périodes incluses n’apportent aucun séisme supplémentaire et σλ décroît en T .1.1. Par ailleurs. 2001). représentés par des tirets et de pente −0. pour les deux catalogues les taux des magnitudes [5. mais elle est limitée aux grandes magnitudes par le faible nombre de séismes disponibles.5-6. Les taux annuels des magnitudes supérieures à 3.5[ et 80 ans pour [5. mais ces méthodes statistiques nécessitent de la même manière un minimum de données pour obtenir des périodes fiables avec des intervalles d’incertitude raisonnable. 40 ans pour [4. délimitent les alignements des valeurs σλ pour chaque intervalle de magnitude.5.♦5. 20 ans pour [4.5. Pour une précision inférieure à 5 ans.0-4.3.. 5.

5−5.5−4.1 – Détermination des périodes complètes pour 3 intervalles de magnitudes.5] Nombre cumule de seismes 350 0 5 10 [4.0] Nombre cumule de seismes 800 600 200 0 5 10 [4.5−4.0−4.  .0[ 200 52 50 150 48 100 1920 50 44 42 0 1850 1900 Temps 1950 2000 −5 46 [4.[3.0[ 1000 52 total Alpes Pyrénées 50 48 46 400 1962 44 42 0 1850 1900 Temps 1950 2000 −5 [3. rectangles : limites des catalogues régionaux. pour le catalogue entier et deux catalogues régionaux . 5.0[ Nombre cumule de seismes 0 5 10 F IG . périodes complètes : tronçons linéaires . nombres de séismes cumulés en fonction du temps.0−4.5−5. cartes de sismicité : distribution des séismes correspondants .5[ 400 52 50 300 250 200 150 100 50 0 1850 1900 Temps 1950 2000 1962 44 42 −5 48 46 [4.

 .5[ Nombre cumule de seismes 40 30 0 5 10 [6.0−6.5− . nombres de séismes cumulés en fonction du temps. pour le catalogue entier et deux catalogues régionaux ..[ 30 52 50 48 46 44 42 0 1250 1500 1750 Temps 2000 −5 [6. cartes de sismicité : distribution des séismes correspondants .5[ 50 52 50 48 46 20 1800 44 10 42 0 1500 1600 1700 1800 Temps 1900 2000 −5 [6.[ Nombre cumule de seismes 25 20 15 10 1500 5 0 5 10 F IG .0−6.0[ 200 52 total Alpes Pyrénées 150 48 100 46 1870 44 42 0 1700 1800 Temps 1900 2000 −5 50 [5...0−6.0[ Nombre cumule de seismes 50 0 5 10 [6.2 – Détermination des périodes complètes pour 3 intervalles de magnitudes.♦5.5 . périodes complètes : tronçons linéaires .0−6. 5. CALCUL DES PARAMÈTRES DE SISMICITÉ [5. rectangles : limites des catalogues régionaux..

5 lorsque la période de temps commence à être représentative (droites tiretées noires). 5..5 4] ]4 4.5−.3 – Détermination des périodes complètes par intervalle de magnitude avec la méthode de Stepp (cf.5] [6.10 0 10 −1 σλ ]3.5] ]4.5] ]5. ils s’écartent de la droite à la date de complétude .5 5] ]5 5.] 10 −2 10 −3 10 1 38 Temps (Années) 7810 2 130 200 500 10 3 F IG .  .. texte) . les traits verticaux indiquent les périodes complètes déterminées par la méthode linéaire.5 6] ]6 6. les points s’alignent sur une droite de pente −0.

Cette équation est valable pour des valeurs de magnitudes continues. reposant sur le maximum de vraisemblance. 5. 5. CALCUL DES PARAMÈTRES DE SISMICITÉ 10 2 10 Scotti 2 Levret 10 1 taux annuel >= m 10 1 10 0 10 0 10 −1 10 −1 10 −2 4 5 6 magnitude m 7 10 −2 4 5 6 magnitude m 7 F IG . 1966) et Page (1968).4 – Courbe de Gutenberg-Richter du catalogue [1500-1999]. Elle gère des taux de sismicité calculés sur des périodes de temps qui varient avec la magnitude. 5. les taux annuels sont calculés sur les périodes complètes. Les occurrences des séismes sont supposées suivre un processus de Poisson.♦5. adaptée au manque de données des régions à sismicité modérée. est appliquée. La méthode classique de Weichert (1980). Aki (1965) estime β avec la méthode du maximum de vraisemblance à partir des magnitudes supérieures ou égales à M0 : β= 1 M − M0 (5. Cette méthode est une généralisation des méthodes de Aki (1965). catalogues Scotti et Levret.2 Calcul des paramètres de sismicité et sélection des zones sources Les périodes complètes ayant été déterminées. les paramètres de sismicité λM0 et β peuvent être calculés dans chaque zone source. Utsu (1965.3) avec M la magnitude moyenne des événements utilisés.  .1 La méthode de Weichert (1980) La méthode de Weichert est utilisée pour le calcul des paramètres de sismicité dans une grande partie des études d’estimation probabiliste de l’aléa selon Cornell-McGuire.2.

Son estimateur au sens du maximum de vraisemblance et pour des taux calculés sur des périodes de temps variables est :  . Weichert (1980) propose une généralisation de ces équations permettant de prendre en compte les séismes sur des périodes de temps différentes selon leur magnitude : ti Mi exp(−βMi ) i ni Mi = i tj exp(−βMj ) j N =M (5.7) ti exp(−βMi ) i i ti Mi exp(−βMi ) − ti Mi2 exp(−βMi ) Le second paramètre de la loi de récurrence est le taux de sismicité λM0 : le nombre annuel de séismes de magnitude supérieure ou égale à la magnitude minimale M0 .4) Page (1968) propose par ailleurs de tronquer la courbe de récurrence à la magnitude maximale Mx . Il estime β à partir des magnitudes continues entre M0 et Mx selon l’équation suivante : 1 Mx exp(−β(Mx − M0 )) = M − M0 − β 1 − exp(−β(Mx − M0 )) M0 ≤ M ≤ Mx (5. 1980) : 2 1 σ (β) = N 2 i ti exp(−βMi ) i 2 (5. 1966) propose une méthode tenant compte de la largeur de l’intervalle (2δ) : 1 βδ = M − M0 β tanh(βδ) (5. Utsu et Page se retrouvent en posant les ti égales à une période unique t. en supposant que la magnitude Mx est très grande et/ou en faisant tendre la largeur de l’intervalle vers 0.6) où les ti sont les périodes complètes des intervalles de magnitudes [Mi − δ . N est le nombre total de séismes utilisés.Mi + δ] centrés sur Mi et contenant ni événements. Les formules de Aki.En pratique.5) Ces équations estiment la pente de la Gutenberg-Richter lorsque la période couverte par le catalogue de sismicité est complète pour toutes les magnitudes supérieures ou égales à M0 . Le paramètre β s’obtient alors par itérations (avec la méthode de Newton par exemple). Utsu (1965. les magnitudes sont cependant groupées et la largeur de l’intervalle doit être supérieure à l’incertitude sur la magnitude. L’écart-type sur β est par ailleurs (Weichert.

22 zones sont ainsi rejetées soit parce qu’elles ne contiennent pas suffisamment de séismes (N ≤ 10). Enfin. nos résultats montrent en effet que l’influence de la magnitude maximale sur les paramètres de sismicité de Weichert est négligeable. cette zone contient en effet un grand nombre de petites magnitudes (M < 4. Les valeurs des β de ces zones sont 2.5 est choisie de manière à ce que les faibles magnitudes instrumentales.2 (soient des b-values proches de 0. Bender & Perkins (1993) remarquent de la même manière que lorsque l’intervalle de magnitude est suffisamment grand (Mx -Mmin ≥∼ 2.1.5 (page 68).8) et sa variance est λ0 /N .3 et 2. Le choix de la magnitude maximale est cependant peu important . L’écart-type sur β peut atteindre l’ordre de grandeur de β.5) respectivement de 4.5) localisées dans la zone de Lacq.3) des zones sélectionnées varient entre 14 (zone n◦ 11.12 et 0.4.4 et présentées sur la carte 5. le coefficient β de la zone n◦ 27 (Pyrénées Nord) est très élevé (β = 3. les  .34).24 (tableau 5. Les paramètres sont calculés pour les 17 zones sources décrites dans le tableau 5. Les paramètres obs de sismicité sont calculés sur l’intervalle de magnitudes [3. ne contrôlent pas à elles seules les obs estimations.0[. en utilisant les périodes complètes déterminées sur l’ensemble du territoire. CALCUL DES PARAMÈTRES DE SISMICITÉ exp(−βmi ) λ0 = N j i tj exp(−βmj ). Limagne) et 183 (zone des Pyrénées n◦ 30). Alors que β prend des valeurs comprises entre 1.2 et les nombres de séismes utilisés dans le cas du catalogue Scotti sont détaillés pour chaque intervalle de magnitude dans le tableau 5.13 et 3. Par ailleurs. 5. Les nombres de séismes (tableau 5. La magnitude Mmax est la magnitude maximale observée dans le sous-catalogue entier (périodes non complètes incluses).2 Application en France : sélection des zones sources La méthode de Weichert est appliquée dans chaque zone du zonage sismotectonique. beaucoup plus nombreuses que les magnitudes plus fortes historiques. β peut être considéré indépendant de la magnitude maximale.5-4.5 ou 3).1. Dans 22 zones sources.5-Mmax ]. Lorsque σβ > 0. la zone n’est pas retenue .9. les écart-types sur β (tels que calculés par Weichert) sont compris entre 0. soit parce que les magnitudes sont concentrées dans l’intervalle [3.2). Les résultats pour les deux catalogues Scotti et Levret sont reportés dans le tableau 5.♦5.4. les paramètres n’ont pas été retenus. (5. La magnitude minimale M0 = 3. valeur la plus fréquemment obtenue dans le monde).3.3 et 3. soit b = 1.2. Les zones les plus actives sont les Pyrénées Occidentales Nord (n◦ 30) et le Massif Armoricain Sud (n◦ 10) avec un taux annuel de sismicité (M ≥ 3.

11 (14).21 et les écart-types σβ entre 0. A noter que les courbes de récurrence sont obs tracées non-tronquées jusqu’à la magnitude maximale observée Mmax . 8 (22). Cependant. Les coefficients β varient entre 1. La modélisation de la courbe de Gutenberg-Richter est illustrée pour trois zones sources (figures 5. pages 69 à 71).37.6 à 5. Il reste à déterminer la magnitude maximale et les trois paramètres nécessaires au modèle de l’exponentielle tronquée sont obtenus. A partir de λM0 et β. 27 séismes dans la zone 19 (σβ = 0.  .8. il ne sera plus question que de ces 17 zones sources. Dans la suite. 13 (21). calculer la courbe de récurrence puis la redistribuer dans ces zones sources.paramètres de sismicité de six zones sont calculés sur moins de 25 séismes : zones n◦ 3 (23 événements). le taux annuel de récurrence est alors directement l’inverse de la période complète. Les courbes de récurrence tenant compte des écart-types sur le taux de sismicité λM0 et la pente β sont également représentées. Pour chaque zone. notre approche est différente. Les périodes complètes sont indiquées.5-5. C’est ce qui est proposé dans le cadre de la révision du zonage réglementaire français (Martin et al. 2002a). une solution consisterait à regrouper les zones contenant un faible nombre de séismes. ainsi que les séismes appartenant aux périodes complètes.12). il est de comprendre ce qui contrôle les estimations là où la méthode s’applique de manière fiable. l’objectif de cette étude n’est pas une détermination de l’aléa sur le territoire..5[ et [5.26) et 18 séismes dans la zone 32 (σβ = 0. Dans la suite.0[. Ce taux de sismicité est considéré comme un «background» sismique. l’aléa ne sera estimé qu’à l’intérieur de ces 17 zones sources. le taux de sismicité correspondant à la magnitude minimale Mmin choisie pour le calcul probabiliste est calculé. 18 (21) et 32 (18).33). Le calcul est effectué sur 147 séismes dans la zone 10 (σβ = 0. les séismes du sous-catalogue sont reportés sur un graphique temps-magnitude.0[ ne contiennent qu’un séisme. Le faible nombre de données de la zone 18 illustre les difficultés à modéliser la récurrence des séismes dans les régions à sismicité modérée : les intervalles de magnitude [4. [5-5.33 et 2. Si l’on souhaitait estimer l’aléa à l’extérieur de ces zones.5-6.22 et 0. Les paramètres de sismicité sont estimés dans chaque zone source. La courbe de récurrence modélisée est superposée aux taux de sismicité observés (cumulés et non-cumulés).

2 2.1 2.46 ± 0.15 λ0 .32 1.51 ± 0.14 0.3 2.14 1.13 3.37 ± 0.98 ± 0.4 ± 0.4 2.24 ±0.84 ± 0.36 2.6 ± 0.3 2. S se rapporte au catalogue Scotti et L au catalogue Levret.53 ± 0.12 1.15 0.4 et sur la figure 5.2 2.14 1.15 0.39 ± 0. L 0.12 2.08 ± 0.9 ± 0.15 0.15 0.2 3.4 2. S 0.87 ± 0.58 ± 0.6 ± 0.15 1.15 0.16 4.87 ± 0.33 β.2 – Paramètres de sismicité β et λ(M ≥ 3.13 ± 0.84 ±0.12 ± 0.15 1. ± 0.33 ± 0.5) des zones sources.  .2 ± 0.2 1.48 ±0.6 2.16 3.♦5.3 ± 0.15 TAB .28 ± 0.14 0.6 ± 0.22 2.01 ± 0.14 0.6 ± 0.4 ± 0.5.3 2.3 ± 0.4 2.16 4.15 0.15 0.50 ±0. S 2.19 1.1 2.2 2.15 1.15 0.11 ± 0.3 2.74 ± 0. L 2.73 ± 0.6 ± 0.20 1.16 ± 0.15 0.37 1. CALCUL DES PARAMÈTRES DE SISMICITÉ zone 3 4 6 8 10 11 13 16 17 18 19 20 23 27 30 32 37 β.29 ± 0.14 1.15 0.1 ± 0.69 ± 0.15 0. les zones sont décrites dans le tableau 5.15 1.03 ± 0.66 ± 0.20 1.02 ±0.80 ± 0.3 λ0 .13 ± 0.47 ± 0.2 1.21 ± 0.97 ± 0.48 ± 0.35 ± 0.13 3. 5.15 0.14 1.2 ± 0. ± 0.5 ± 0.09 ± 0.33 ± 0.45 ± 0.15 0.14 0.68 ±0.09 ±0.30±0.23 1.1 ± 0.34 1.18 2.26 1.46 ± 0.39 ±0.15 1.14 1.24 ± 0.32 2.15 0.23 ± 0.18 ± 0.27 ± 0.5 ± 0.33 2.74 ± 0.45 ±0.

0-5.5-3.0] 1 1 0 2 1 0 0 0 3 0 0 0 2 0 0 0 0 [7.5-5.9] 2 2 7 3 19 3 2 3 3 2 4 6 12 1 14 2 2 [5.0-4.5-7.5-4. Dominique et al.0-6.4] 1 1 0 0 1 0 0 0 0 0 0 0 1 0 1 0 0 N 23 35 55 22 147 14 22 59 45 21 27 54 66 61 183 18 30 TAB .9] 1 2 3 5 6 2 3 3 3 0 3 3 1 1 5 1 2 [6.4] 4 8 8 3 24 1 3 19 12 4 3 10 8 12 36 2 5 [4. 5.4 – Zones sources sélectionnées.0-7.Z 3 4 6 8 10 11 13 16 17 18 19 20 23 27 30 32 37 [3. les limites et profondeurs H (en km) sont une combinaison des limites et profondeurs testées dans le rapport EPAS-AFPS (phase 3).4] 1 0 6 1 7 1 0 4 1 0 3 7 3 2 10 2 0 [5.9] 13 20 28 8 86 7 13 28 20 13 13 27 37 45 111 11 20 [4.3 – Nombre d’événements utilisés dans le calcul des paramètres de sismicité par intervalle de magnitude et pour les 17 zones sources. (2001).Aix-la-Chapelle Fossé Rhénan inférieur Massif Armoricain Nord Fossé Rhénan supérieur Massif Armoricain Sud Limagnes Jura Pré-Alpes et pennique suisse Région du Valais H 10 10 20 10 15 10 5 10 10 Zone 18 19 20 23 27 30 32 37 Nom de la zone MCE-Front pennique Nord MCE-Front pennique Sud Ivrea Sesia Chaînes subalpines méridionales Pyrénées Nord Pyrénées Occidentales Nord Pyrénées Orientales Pyrénées Sud H 10 10 15 10 10 15 10 10 TAB . catalogue Scotti. Zone 3 4 6 8 10 11 13 16 17 Nom de la zone Mons .  .4] 0 1 3 0 3 0 1 2 3 2 1 1 2 0 6 0 1 [6. 5.

5 – Sélection des 17 zones sismotectoniques sélectionnées.5 4.♦5..0[ [4.0[ [5. CALCUL DES PARAMÈTRES DE SISMICITÉ 52 51 3 50 49 4 8 6 48 Latitude 47 46 45 44 43 42 41 −6 [3.  .[ −4 −2 10 11 13 16 18 19 17 20 23 30 37 27 32 0 2 Longitude 4 6 8 10 F IG .0[ [6.0 5.0 6.. superposées au catalogue de sismicité [1356-1999]. 5.0 .

5 magnitude 6 6.5 catalogue total de la zone Périodes complètes évènements inclus dans les périodes complètes 4 4.  . 5.5 F IG .5 5 5.5 10 1 Nombre annuel de séismes 10 0 Taux annuels observés non−cumulés Taux annuels cumulés Courbe de Gutenberg−Richter Courbe GR.5 7 7.5 4 4. λ+δ(λ) 10 −1 10 −2 10 −3 10 −4 3.2000 1950 1900 1850 1800 Temps 1750 1700 1650 1600 1550 1500 3. β+δ(β).5 7 7.6 – Zone source n◦ 10 : sous-catalogue de sismicité et courbe de Gutenberg Richter modélisée superposée aux taux observés (catalogue Scotti).5 magnitude 6 6.5 5 5.

 .♦5. CALCUL DES PARAMÈTRES DE SISMICITÉ 2000 1980 1960 1940 1920 Temps 1900 1880 1860 1840 1820 1800 3.5 5 magnitude 5.5 F IG .5 4 4.5 6 6. 5. β+δ(β). λ+δ(λ) 10 −1 10 −2 10 −3 3.5 5 magnitude 5.5 catalogue total de la zone Périodes complètes évènements inclus dans les périodes complètes 4 4.7 – Zone source n◦ 19 : sous-catalogue de sismicité et courbe de Gutenberg Richter modélisée superposée aux taux observés (catalogue Scotti).5 10 0 Nombre annuel de séismes Taux annuels observés non−cumulés Taux annuels cumulés Courbe de Gutenberg−Richter Courbe GR.5 6 6.

5 4 4.5 magnitude 6 6.5 7 F IG .2000 1900 1800 Temps 1700 1600 1500 catalogue total de la zone Périodes complètes évènements inclus dans les périodes complètes 1400 3.5 7 7.5 magnitude 6 6.5 5 5. λ+δ(λ) 10 −2 10 −3 10 −4 10 −5 3.5 10 0 Nombre annuel de séismes 10 −1 Taux annuels observés non−cumulés Taux annuels cumulés Courbe de Gutenberg−Richter Courbe GR. 5.5 5 5. β+δ(β).5 4 4.8 – Zone source n◦ 32 : sous-catalogue de sismicité et courbe de Gutenberg Richter modélisée superposée aux taux observés (catalogue Scotti).  .

les temps de retour d’une magnitude supérieure ou égale à 6.5 sont des ordres de grandeur. chapitre 3). Les incertitudes sur les temps de retour des séismes de magnitude supérieure à 6. Par exemple.0 a un temps de retour dans la zone 8 (Bassin Rhénan) qui varie entre 66 et 556 ans . les impacts sur l’aléa du choix de la corrélation magnitude-intensité sont calculés : pour une période de retour de 10000 ans.5. et avec Mmax = 6.9 (carte du haut).0 sont donc très grandes. cf. page 10). De plus. dans la zone 16 (Pré-Alpes et pennique suisse) ce temps de retour prend des valeurs entre 79 et 434 ans . Il est de plus intéressant de considérer les temps de retour des magnitudes déduits de ces courbes de récurrence. Elles seront utilisées dans le calcul probabiliste. il renseigne sur la fréquence des séismes dans la zone. Une magnitude supérieure ou égale à 6. les courbes de récurrence peuvent alors être calculées (équation 1. de 15% dans la zone 32 et de 6% dans la zone 27.3 Estimations des temps de retour des magnitudes Les paramètres de sismicité ont été déterminés pour l’ensemble des zones sources . les temps de retour normalisés pour une aire de 100 × 100 km2 ont également été calculés (Tnorm ). Les temps de retour peuvent être déduits des courbes de récurrence établies à partir des deux catalogues disponibles (Scotti et Levret.5 dans le cas du catalogue Levret. afin de comparer plus facilement les zones entre elles. Le temps de retour est l’inverse du taux annuel moyen.2 (modèle de l’exponentielle tronquée. Les estimations varient fortement d’un catalogue à l’autre et pour des pentes différentes de la courbe de récurrence. exercice qui est rarement abordé dans les études d’aléa sismique probabiliste. avec Mmax = 7. et de 773 à 6629 ans dans la zone 27 (Pyrénées Nord). dans la zone 30 il augmente de 82 à 109 ans. le temps de retour dans la zone 16. des bornes minimales et maximales peuvent être calculées (Tinf est calculé avec la pente β + δβ et Tsup avec β − δβ). mais il est cependant nécessaire d’anticiper sur la suite pour relativiser l’impact de cette variabilité sur l’aléa.0 sont reportés dans les tableaux 5. dans la zone 32 (Pyrénées Orientales) les estimations vont de 347 ans à 6109 ans . Ils sont calculés selon l’équation 1.5. Sur la figure 5. CALCUL DES PARAMÈTRES DE SISMICITÉ 5.♦5. même si les occurrences ne sont pas périodiques. dans le chapitre 7. en tenant compte de l’incertitude sur la pente de la courbe de récurrence (écart-type sur β).0 dans la zone. page 10). la couleur de remplissage de chaque zone source est fonction du temps de retour d’une magnitude supérieure ou égale à 6. l’aléa diminue de 18% dans la zone du Bassin Rhénan. augmente de 125 à 172 ans . A titre d’exemple.0 lorsque les paramètres de sismicité issus du catalogue Scotti sont utilisés. calculé avec le catalogue Scotti et Mmax = 6. de 8% dans la zone 16. En effet. Ces temps de retour se rapportent à l’aire géographique de chaque zone source. Le choix de la magnitude maximale Mmax est arbitraire et peut influencer fortement les temps de retour calculés (surtout lorsqu’il s’agit de magnitudes élevées). Les temps de retour affichés dans les tableaux 5.2. estima .

mais il serait intéressant de confronter ces estimations avec les résultats de paléosismicité par exemple.5 présents dans le catalogue (périodes non complètes comprises) sont également reportés sur la carte. Tsup : calcul avec β − δ(β). Pour indication. T ). Nous avons souhaité montrer ces résultats par souci de transparence. Les temps de retour issus du catalogue Levret correspondent à la carte du bas.0. T : calcul avec β. Tnorm : temps T normalisés pour une surface de 100 × 100 km2 . tion basée sur le catalogue Scotti (tableau 5. ou de géodésie. Ces temps de retour sont des ordres de grandeur. les séismes de magnitude supérieure ou égale à 5. trop court.zone 3 4 6 8 10 11 13 16 17 18 19 20 23 27 30 32 37 TS 462 237 81 101 80 384 268 125 90 519 125 104 117 1609 82 704 570 S Tinf 229 148 51 66 63 194 135 79 57 204 64 66 73 773 65 347 279 S Tsup 946 380 129 157 102 775 543 201 143 1354 249 166 188 3367 104 1445 1175 S Tnorm 446 486 611 199 789 933 483 159 52 691 48 82 166 2549 55 784 583 zone 3 4 6 8 10 11 13 16 17 18 19 20 23 27 30 32 37 TL 1225 345 332 304 283 2877 813 258 204 1470 545 287 395 2940 238 2186 1253 L Tinf 568 213 190 170 200 732 350 154 132 556 253 168 251 1315 176 802 589 L Tsup 2686 566 586 556 401 11934 1939 434 318 3992 1201 494 626 6629 322 6109 2704 L Tnorm 1183 710 2485 600 2764 6984 1463 326 119 1957 211 225 559 4657 159 2435 1283 TAB . ils permettent de hiérarchiser les zones selon leur activité sismique. Ils reposent entièrement sur l’hypothèse d’une décroissance du nombre de séisme exponentielle lorsque la magnitude augmente (courbe de Gutenberg-Richter). Ils ne peuvent être «vérifiés» sur la seule base du catalogue de sismicité. Tinf : calcul avec β + δ(β). calculés à partir des lois de récurrence des zones sources. tableau de gauche) et Levret (L. 5.5 – Temps de retour T en années d’une magnitude supérieure ou égale à 6. chapitre 3) .  . tableau de droite) (cf. sur les deux catalogues de sismicité Scotti (S.5.

5 sur la longueur totale du catalogue historique (périodes non-complètes comprises).  . 5. elles comportent une incertitude très forte (cf. Bas : à partir du catalogue de sismicité Levret . CALCUL DES PARAMÈTRES DE SISMICITÉ Annees 52 51 3 50 49 8 48 6 4 600 500 Latitude 47 10 10 46 45 44 43 42 m>=5. Ces estimations sont des ordres de grandeurs.0 .5 41 −6 −4 −2 0 2 4 6 8 10 27 30 37 32 11 13 16 18 19 23 17 400 300 20 200 100 Longitude Annees 52 51 3 50 8 49 48 6 4 2100 1800 1500 Latitude 47 10 46 45 19 44 43 42 41 −6 30 37 32 27 23 11 13 16 18 17 1200 900 20 600 300 −4 −2 0 2 4 6 8 10 0 Longitude F IG . Points noirs : séismes M ≥ 5.♦5. tableau 5.5) .9 – Temps de retour d’un séisme de magnitude supérieure ou égale à 6. Haut : à partir du catalogue de sismicité Scotti.

Deuxième partie Q UANTIFICATION ET COMPRÉHENSION DES INCERTITUDES  .

 .

6. Mapping b-values in France using two different magnitude ranges : possible non power-law behavior (Published in Geophysical Research Letter.5-Mmax(observed) ] using instrumental and historical data.e. Discussion is focused on the parameter estimation for the occurrence model of earthquakes as first proposed by Gutenberg and Richter (1944) : logN=a-bM. (2) [3.1).0-4. In this study. However. Seismicity rate 10a . The fundamental assumption is that the Gutenberg-Richter power law can be applied and is valid at all scales. September 2003) Abstract. Frequency-magnitude distributions are mapped using 2 different magnitude ranges : (1) [3. they differ significantly in the Southern Alps : the slopes estimated on magnitude range [3. b-values estimated on these two magnitude ranges are similar in the Pyrenees and the Rhine Basin.1 Introduction Probabilistic seismic hazard analyses (PSHA) based on the method of Cornell (1968) rely on three key elements : 1) identifying source zones. where earthquakes exponentially decay in number (N) as a function of their magnitude (M).0-4.Chapitre 6. we found that the power-law model may not be verified in the southeastern regions of France.4] using only homogeneous instrumental data.4] are much steeper (b>1.4) than the slopes estimated on magnitudes above 3. 2) estimating the occurrence of earthquakes in these zones. a conservative option (i. and 3) modeling the ground movement that these earthquakes will induce at a site.5 (0. This paper does not consider seismic source zones nor attenuation models. Until a clear identification of the underlying processes is made.9<b<1. The first step in probabilistic seismic hazard assessment is the characterization of seismic sources. lowest b-values) should be considered for probabilistic estimation of hazard in the eastern part of France. and the slope of the G-R  .

. The Laboratoire de Détection Géophysique (LDG).8). Temporal variations of the b-value. covering the [1962-1999] period. and differences in the mechanical behavior of the faults (Amelung & King. 1973). 1962. Bender.. which is a generalization of Aki and Utsu’s maximum likelihood methods able to handle annual rates calculated for different periods of time (thus maximizing the number of events used). 1965. 1968. The LDG has been measuring local magnitudes homogeneously since then (Nicolas et al. declustering should be performed. The physical interpretations that have been proposed in the literature for the spatial variability of the b-value range from the degree of material heterogeneities (Mogi. great earthquakes have occurred in the past and have been documented in the historical record. 1992). Aki. 1981. 1968. Magnitudes. Mori & Abercrombie. contains 10 events with intensity MSK equal or greater than VII every 50y. The SisFrance historical database covers the last thousand years. Numerous methods have been proposed in the literature for the computation of the b-value (Utsu. to stress variations in the crust (Sholz. have often been related to the preparation process for natural earthquakes and rock fracture in the laboratory (Kanamori. 1983).0 every 10 years. 1997). Wyss. 6. Nevertheless. 1998). are the parameters that have to be calculated.2 Data Several difficulties have to be dealt with before computing G-R parameters : the catalogues should contain homogeneous magnitude determinations. completeness periods should be determined and a geographic window has to be chosen. Urbancic et al. Mmax = 5. 1997). Bruyères le Châtel. Historical magnitudes were calculated using an intensitymagnitude correlation deduced from macroseismic observations for 73 events reported in both the historical database SisFrance and the instrumental catalogue LDG (Levret et al. an extraction from this base. shows (Figure 6. The method used in this study is Weichert’s method (1980). France. The LDG instrumental catalogue used in this study. on the other hand. The stability analysis of G-R parameters estimations performed in numerous studies (see Wiemer & Wyss (1997). for the last 5 centuries. The historical catalogue we use. for a complete description) indicated that these parameters can vary both spatially and temporally at all scales. Page. which is indicative of the relative distribution of small and large earthquakes. The present study addresses the spatial variation of the b-value at regional scales in France and shows that the b-value can be locally extremely dependent on the magnitude range used to calculate it. installed a national seismic network in 1962. 1994) lo . 1965.♦6. MAPPING B-VALUES IN FRANCE USING TWO DIFFERENT MAGNITUDE RANGES : POSSIBLE NON POWER-LAW BEHAVIOR curve b.1) that France is a country of moderate seismicity (5 events with ML > 5..

Moreover.0 4.2. Studies were performed using all earthquakes in the window [-6 .  . Using cumulative number of earthquakes versus time plots and assuming stationary seismic rates. The catalogues used in this study are therefore not declustered.52 51 50 49 48 Latitude 47 46 45 44 43 42 41 −6 [3. Completeness periods calculated for the combined catalogue (historical appended to instrumental) are reported in the Table 6. Completeness.52] in latitude.1 and 38 years (1962-1999) for magnitudes equal or above 3. it is difficult to compute regional correlations. it can be shown that the period of completeness is 17 years (1983-1999) for magnitudes 3. we found that results based on the declustered catalogue were not significantly different from results based on the original catalogue. the seismicity of the instrumental catalogue is only weakly clustered.0[ [4.0 6. According to our declustering tests.0-3.10] in longitude and [41 .0 5.0 7.0[ −4 −2 0 2 4 6 8 10 Longitude F IG .1.1 – Instrumental and historical seismicity in France. 6. The reference magnitude for this study is therefore the ML of the LDG catalogue. Due to the lack of data. covering the period [1500-1999]. Magnitudes are binned in intervals of 0. cated all over France.0[ [5.5 because 0. Declustering.5 is the average uncertainty in historical magnitudes.0[ [6.

5 4. In Weichert’s method (1980).0 also reduces potential problems related to artificial seismicity or clusters. The higher limit of this first interval is due to the fact that rates for magnitudes higher than 4. dealing with magnitudes greater than 3. In order to check on the stability of the GR parameters.5 is chosen to allow the historical data to contribute to the b-value estimations.5+).0 6.9] [5. the higher their weight in the estimation of the slope.9] [6. the minimum threshold of 3.0 because the number of data within 100km-radius circle would be too small to estimate the b-values with confidence. which varies spatially for magnitudes lower than 3.0 5.0-4.5-Mmax(observed) ] is representative of the instrumental and historical period (hereafter called M3.1] [3.25◦ is defined over the study region and for each grid point.0 3. b is the b-value) .9] Completeness period 1983-1999 1962-1999 1900-1999 1870-1999 1800-1999 1500-1999 Time interval (year) 17 38 100 130 200 500 TAB . b-values are only shown at grid points where σ < 0. The number of earthquakes used for the computations thus varies from grid point to grid point between 50 and 600.5 5.  . only the size of the sampled area is larger. The minimum threshold cannot be increased to 4. The first interval has a minimum threshold imposed by the completeness period.5 cannot be estimated within 100km-radius circle : the 38-y period is no longer representative for such an area (the time period being too short). As for the second interval. MAPPING B-VALUES IN FRANCE USING TWO DIFFERENT MAGNITUDE RANGES : POSSIBLE NON POWER-LAW BEHAVIOR Magnitude interval [3.4 (σ is the standard deviation of β = b ∗ ln(10).2 4. the higher the number of earthquakes that contributes to the calculation of the annual rate.1 – Completeness periods (time interval over which all events in the magnitude bin have been recorded). 6. It is found that this criterion insures that a sufficient number of events are taken into account in the computation.4] [5.0.3 Mapping the b-values A grid of 0. As will be discussed later.4] is representative of the instrumental period and [3. the b-value is computed using all earthquakes falling inside a circle with a fixed radius. 6. minimizing the contribution of the instrumental catalogue. two magnitude intervals are tested : [3. The procedure followed to map the b-value is similar to that of Wiemer and Wyss (1997). The radius of the circle is fixed at 100km in order to explore the variability in the b-values for sizes of source zones similar to those used in PSHA studies in France.25◦ x0.♦6.4] [4.

Previous studies worldwide have shown that the exponent b usually takes values between 0. b-values are similar : 1. 500y). the Rhine Basin and the Alps to the East and the southern part of Brittany to the West. b takes values over a wide range between 0.06 σC 0. subscript I corresponds to modeling on instrumental catalogue and interval [3.5) are mainly contained in the interval [0.20 1.25].6-1. Such values are found in the Pyrenees and in the NorthEast of France (Rhine Basin). Utsu (1992) proposed a method to test the significance of b value differences.3 b-values estimated on the combined catalogue (historical and instrumental.4.75 and 1.4. Such high values are surprisingly found in the Southern Alps. b-values calculated on the combined catalogue (historical and instrumental.25 (Okal & Romanowicz. three examples of the calculated Gutenberg-Richter are shown for three different locations (Figure 6.4 Results Two b-value maps are obtained. Figure 6.18). whereas they differ significantly in the Alps. based on the number of events used. At point  . N is number of events used.. M ≥ 3.7.5 .12 0.5+.08 NC 153 576 540 bC 1.6 and 1. Grid points where slopes are considered significantly different are colored in dark gray . 44.17 (cf. Values above 1.8.20 and 1. to highlight zones where both slopes are statistically different with a minimum of 99% probability.2). In order to emphasize the extreme variability in b-value estimate that can result from the choice of the magnitude range used. 6.17 1.3).71 σI 0. only the higher seismic rate zones are highlighted : the Pyrenees to the South.25◦ x0.26 1. and 6.5 have previously been reported only in volcanic areas (Wiemer et al.25◦ area in order to create the map. The results of this test are plotted on Figure 6. points that did not pass the test are colored light gray.2). 1994). Tableau 6.4] .25 . Based on the instrumental data only (6. Tableau 6. 48) B (0 .Location A (6.2 displays b-values estimated on the instrumental catalogue (38y). Given the severity of the filtering criterion (σ(b) < 0. 6. The thick black contour in the South-East of France corresponds to iso-values of b=1.5.06 0. At location A (Rhine Basin) and B (central Pyrenees).0-4. 43) C (7.05 0.03 1. Points that passed the test correspond approximately to b-value differences greater than 0. at the boarder between France and Italy.03/1.26/1. Discrepancies are clearly localized over the Alps.12 0. subscript C corresponds to modeling on combined catalogue and interval M3.2 – b-value estimation at three different locations . Values calculated at each grid point are extended to a 0.06 NC 48 239 138 TAB . Results are consistent in the Pyrenees and in NorthEast of France between the two maps. 1998).5) bI 1.

In the East of France. but this artificial seismicity is important only in the magnitude interval [2.2] only slightly modifies the b-value estimations. However they could also be biased by the choice of the magnitude-intensity correlation used to convert the historical intensities into magnitudes.4] could be biased for two reasons : the presence in the instrumental catalogue of aftershocks and/or induced seismicity. MAPPING B-VALUES IN FRANCE USING TWO DIFFERENT MAGNITUDE RANGES : POSSIBLE NON POWER-LAW BEHAVIOR C however. A histogram of the number of events as a function of the hour of the day can help to identify induced seismicity. bins corresponding to working hours between 9am and 4pm indeed contain an abnormal number of earthquakes. We are working on a new correlation based on the 10 most reliable events for which we have both a good macroseismic description and an instrumental magnitude.75-1.0-3. Since only M ≥ 3 are used in the calculations. A reduction of 15% in the number of events in the magnitude interval [3. b-values estimated in the interval M3. b-values are extremely different : 1.5 Discussion and Conclusion The remarkable difference observed in the Alps in the b-value estimates between these two magnitude intervals raises two fundamental questions : are these slopes both correct or is there a bias that is introduced in one or both catalogues ? If they are both correct. b-values estimated on this alternative historical catalogue (appended to the instrumental one) are only slightly modified (the decrease in the  . 6.71 versus 1. what is the underlying physical mechanisms that can account for such a non-linear behavior of the b-value as a function of the magnitude range ? b-values estimated in the interval [3.4] magnitude range.25].0].06. since the completeness period for these magnitudes is of 38 years (the instrumental period). only a few clusters were detected by the algorithm and their presence has a minor impact on the estimation of seismicity rates over a 17 or a 38 year period.0 and 3.♦6. The highest discrepancies located in the Southern Alps remain and another explanation must be sought.5-3.5.4 magnitude degree on average).5-4. However the resulting estimated slopes can be different : the ones estimated on the instrumental catalogue are largely controlled by the magnitude bins between 3.5+ are within the usual expected range [0. Notice that the computations on the instrumental catalogue and on the combined catalogue use the same events in the [3. A rough estimate shows that it represent less than 15% of the total seismicity for the range of magnitudes studied [3. (which is not used in the calculations). The second source of biased estimation may be the presence in the catalogue of artificial seismicity. The declustering of the LDG catalogue with Reasenberg’s algorithm (1985) gave very similar results.5.5 and 4.2]. This second correlation estimates higher magnitudes than the Levret correlation (0.0-4.0-3. whereas those estimated on the combined catalogue are largely controlled by the magnitude bins between 3.

estimated separately on intervals [3. a conservative option (estimation of b-values in the magnitude range M3.  . We are thankful to Chris Bean and an anonymous reviewer for their constructive comments.5+) should be considered for the probabilistic estimation of hazard in this region. Using a minimum threshold lower than 3. Estimating b-values on both magnitude intervals inside source zones for PSHA calculations leads to a difference of 50% in PGA (Peak Ground Acceleration) estimates in the Alps. Until a clear identification of the processes is made. earthquakes are mainly located in one side of the circles. are correct. The presence of the identified Ivrea Body in this zone (inclusion of mantle at crustal levels. This work was supported by contract CFR n◦ 171625.2). The stretching of the high b-value zone to the southwest of point C is due to the smoothing and the lack of seismicity to the west. Assuming that both slopes.5 when using the combined catalogue would have yielded average slopes that could not satisfactorily fit neither the small nor the moderate range of magnitudes. This study shows that the modeling of earthquake recurrence curves by a unique exponential decrease is questionable in the eastern regions of France and likely incorrect over the Alps. then a physical mechanism must be sought to explain the high discrepancies (up to 0. Acknowledgments We thank LDG for providing us with their instrumental catalogue. [2001]) could be responsible for high b-values in the [3.8 difference) observed in the Alps.4] to a creeping behavior at the interface between crust and mantle inclusion..0-4. 2001) show that events are located at the interface between the Ivrea Body and the crust. We attribute the high instrumental b-values in the magnitude interval [3.4] interval. The magnitude interval M3. Paul et al.b-values is lower than 0. for points along the borders of the seismic zones.5+.4] and M3.. Accurate hypocenters localizations (Paul et al. Both intervals of magnitude might be linked to different physical processes. Indeed. since there is seismicity to the east.0-4. The eastern limit of the high b-value region is not affected by this border effect.0-4.5+ could reflect regional tectonics whereas smaller magnitudes might be linked to a local phenomenon.

♦6. MAPPING B-VALUES IN FRANCE USING TWO DIFFERENT MAGNITUDE RANGES : POSSIBLE NON POWER-LAW BEHAVIOR 52 51 50 49 48 Latitude A 1. Standard deviations of b are lower than 0.0-4.8 0. 6.6 1.6 1. number of earthquakes varies between 25 and 250.8 1.4]. 6.4 1.3 – b-value map estimated with Weichert’s method on the magnitude interval M3.  . 52 51 50 49 48 Latitude A 1.7-isochrone.8 0.2 C 47 46 45 44 43 42 41 −4 −2 0 2 Longitude 4 6 8 B 1 0.2 C 47 46 45 44 43 42 41 −4 −2 0 2 Longitude 4 6 8 B 1 0. black thick line corresponds to the 1.6 F IG .8 1. number of earthquakes used varies between 50 and 600.5+.4 1.2 – b-value map estimated with Weichert’s method on the magnitude interval [3.18.6 F IG .

5.5). dark gray cells passed the test.43) .26 10 0 b=1. b) at location B (0. superimposed to cumulated observed annual rates.  .3 . 6.4 – Results of applying at each grid point the method of Utsu (1992) to test the significance of b value differences at the 99% confidence limit.48) . 6. light gray ones failed. 10 2 10 2 10 2 Annual # of events M+ a) b=1.20 10 −2 b=1.03 10 0 b) 10 0 b=1.44.17 b=1.2 and 6. The individual b-value sets are displayed in 6.52 51 50 49 48 Latitude A 47 46 45 C 44 43 42 41 −4 −2 0 2 Longitude 4 6 8 B F IG .5 – Cumulative Gutenberg-Richter plots for 2 different magnitude intervals.06 10 −2 10 −2 10 −4 3 4 5 6 magnitude 7 10 −4 3 4 5 6 magnitude 7 10 −4 3 4 5 6 magnitude 7 F IG .71 c) b=1.25. a) at location A (6. c) at location C (7.

♦6. MAPPING B-VALUES IN FRANCE USING TWO DIFFERENT MAGNITUDE RANGES : POSSIBLE NON POWER-LAW BEHAVIOR  .

1 Introduction Probabilistic seismic hazard assessment (PSHA) usually does not receive the attention it deserves in the seismological community. Quantifying uncertainties in French PSHA Abstract. on the other hand. Parameter impacts.4. Below 5 Hz.Chapitre 7.0]. the region of influence that contributes to the PSHA estimate at a given site decreases with increasing return periods. variability due to catalogue uncertainties is also quantified : this uncertainty that underlies all hazard results can engender variability as high as the variability due to the controlling parameters. is not a key parameter even at large return periods (10000 years).5 . of the choice of truncation of the predicted ground motions distribution (at +2σ) and of the choice between two different magnitude-intensity correlations. Indeed. Moreover. calculated at the centres of each source zone. the choice of minimum magnitude [3. whereas the maximum magnitude [6. at all return periods.5 . demonstrating the lack of contributions coming from neighbouring zones. PSHA studies are indeed often limited to sensitivity studies focused on predominantly two inputs : the seismotectonic zoning and the ground motion  . Interestingly. Although the overall variability in hazard estimates due to input uncertainty (COV between 10 and 20% at PGA) may be arbitrarily reduced by expert choices. 7. Results at PGA demonstrate the equally high impact. show a linear trend with the seismicity models of the zone. The results of this study clearly identify four key parameters controlling the estimation of probabilistic seismic hazard assessment (PSHA) in France in the framework of Cornell-McGuire’s method. the choice of the maximum magnitude has a much greater impact whilst the impact due to the choice of the minimum magnitude disappears. This hierarchy of impacts is maintained at lower frequencies down to 5 Hz.5] on hazard estimates can have an important impact at small return periods (<1000 years). better physical models may be needed before reliable PSHA estimates may be obtained.7.

These uncertainties and their impacts on hazard results depend on the region of interest. 1993). 1990) and is tightly linked to the way the scatter of the attenuation relationship is taken into account. In this paper. results are very difficult to compare from one study to the next and the source of the differences is not easy to understand. This study is an attempt to go in that direction. However. engineering (Autran et al. geophysics. we build on previous efforts and consider a single seismotectonic zoning and a single attenuation relationship. However. 1990. This study concerns the French metropolitan area . composed of several experts from various fields : geology. Considering the large scatter of most attenuation relationships (Douglas. the impact of the choice of the minimum magnitude is quantified for the French territory. 1968. Bender & Perkins. the choice of the maximum magnitudes of the source zones. McGuire.♦7. probabilistic seismic hazard estimation is the basis for the establishment of seismic hazard maps and application of anti-seismic regulations. Consequently. nearly all PSHA take into account the lognormal distribution. on clearly stating the parameters chosen and in quantifying the impact of such parameters on the final results. The reference seismotectonic zoning was elaborated by the AFPS-EPAS working group (working group of the French Association For Earthquake Engineering). Probabilistic seismic hazard assessment requires inputs and models that can bear great uncertainties. seismology. the objective is to quantify the impact on hazard estimations due to the choice of key parameters that are required by the probabilistic method of Cornell-McGuire (Cornell. although the consequences of no truncation both at small and large return periods have been evoked a long time ago (Reiter. and the maximum magnitudes that could occur in the source zones. few studies address the problem of truncation of this distribution. Little effort is put into understanding the mechanics of the probabilistic computations. 2003) and is the reference attenuation relationship for France in deterministic hazard studies. (Bender & Perkins. The majority of existing sensitivity studies in PSHA deal with the impact of the zoning (either considering different zoning or using soft boundaries.. The remaining uncertainties explored in this paper include : catalogue uncertainties concerning the magnitude and location determinations. the truncation of the ground motion probability density function. At the other end of the magnitude range. the magnitude-intensity correlation used to compute historical magnitudes.. 1993) as well as with the impact of the attenuation relationship used (calculating hazard with different available attenuation relationships). which is often addressed in PSHA  . 2003). 1998). Similarly. The attenuation relationship used in this study was derived from a European database (Berge-Thierry et al. 1976). the minimum magnitude contributing to the hazard. In this study. QUANTIFYING UNCERTAINTIES IN FRENCH PSHA attenuation relationship. very few sensitivity studies consider the choice of the minimum magnitude used in the PSHA calculations. The influence of this parameter on hazard estimation is not new (Reiter. It is fundamental to understand its mechanics thoroughly in order to not only clearly define its limitations and uncertainties but also to propose new research to reduce the uncertainty.

The annual rates of several target levels AT are computed. is also considered here. In this study. so that for any return period of interest. 2000).. 1998) proposes 39 zones for France and its frontiers along with an estimation of the average depth  . However. used in this study. The percentage change due to each individual parameter variation is quantified. the return period (100 to 100000 years). France shows diffuse intraplate seismicity therefore only source zones can be used. we show that impacts are related with the seismic characteristics of the source zones.sensitivity studies (Giner et al. the corresponding acceleration is deduced by interpolation. We consider that these source zones contain a sufficient number of seismic data to estimate the recurrence parameters required by the probabilistic method.00001. leading to a better understanding of impact variability from one zone to the other.. Finally. these sources are faults in regions where active faults can be delineated clearly (highly seismic regions) and areas in regions where active faults are poorly known. The Cornell-McGuire method for the computation of rates of exceedance relies on four steps : 1. a reference set of parameters is first defined and parameters are modified one at a time.01 to 0. Moreover. geophysical or seismological homogeneous features. Limits of areas are drawn according to geological. McGuire. whereas to estimate individual parameter impacts. The zoning we use (Autran et al. is the acceleration. 7. The sources of seismicity must be identified . The most common ground motion parameter. but it is common to refer to the inverse of the annual rate.2 Choice of probabilistic methodology The following is a concise summary of the Cornell-McGuire’s approach for probabilistic seismic hazard assessment (Cornell. The annual rates of interest in hazard assessment range from 0. hazard is computed at the centres of 17 selected source zones of the AFPSEPAS zoning. we do not need to use maps and thus. The uncertainties in magnitude and location are explored through the generation of synthetic catalogues . 1976). the frequency dependence of the parameter impacts on hazard estimates is also computed. Concentrating only on 17 sites. 1968. it is important to recall that earthquakes occurrences are not assumed to be periodic but Poissonian. representing variability results is easier : individual impacts of parameters can be compared between geographical sites and also between different return periods. The probabilistic estimation of seismic hazard at a site consists in computing the annual rate of occurrence of a ground motion parameter exceeding a specified level (hereafter called the target level AT ). 2002. Rebez & Slejko. Reference and alternative values are carefully chosen to describe the most representative interval of possible values.

An attenuation relationship is used to predict the acceleration engendered at the site by a seismic event of magnitude M and hypocentral distance R. (2003) attenuation relationship is used here. we estimated magnitudes only for events that are described by at least three intensity classes (intensity III or  .R).1). QUANTIFYING UNCERTAINTIES IN FRENCH PSHA of earthquakes for each source zone. Thus. 10000 and 100000 years. P being the probability of the occurrence of at least one acceleration higher than the target level over the time interval t. (1998)) and covers the time period [1962-1999]. The seismic catalogue contains both instrumental and historical data. Our study will focus only on the 17 most seismic zones (Figure 7. The Berge-Thierry et al. 7. annual rates are calculated for 80 accelerations between 30 and 3000 gal.R) are summed.303e−4. b = −9. In this study.2923. The seismic parameters (slope of the Gutenberg-Richter and the seismic rate) are calculated from the data.R) to engender an acceleration exceeding the target AT . Inside each source zone.1 of exceeding at least once the acceleration level over 50 years. a return period of 475 years corresponds to the probability of 0. with mean value log10 (A) = aM − log10 R + bR + c and standard deviation σ (a = 0.1). the relationship yields a normal probability density function (PDF) for logarithms of accelerations.3118. 1990) is used here. 3. 2. The instrumental part of the catalogue is provided by the Laboratoire de Détection Géophysique (LDG . 475 years is used for conventional buildings. and the maximum magnitude is arbitrarely fixed. the magnitude range of possible earthquakes and their corresponding annual rates of occurrence must be estimated. exceedance rates of all the existing couples (M. The homogeneous measure of earthquake size is the local magnitude ML .♦7. The truncated exponential GutenbergRichter model (McGuire & Arabasz. 1000. This distribution is used to calculate the probability for the couple (M. 475. the annual rates λ are derived from the formula P = 1 − exp(−λt).10◦ ] in longitude and [41◦ .3 Constructing the catalogue The seismicity contained in the geographical window [-6◦ .52◦ ] in latitude is considered (Figure 7. while the return periods considered for nuclear safety can range from 1000 to 100000. for Peak Ground Accelerations at rock sites). Finally. Accelerations are then interpolated for return periods 100. 4.537 and σlog10 A = 0. Traditionally. c = 1. The historical part of the catalogue covers the time period [1500-1961] and is extracted from the SisFrance database that gathers events from the last 1000 years. integrating the normal distribution from log10 AT to +∞. For the purpose of this study. Nicolas et al. For each couple (M. Assuming that acceleration occurrences follow a Poissonian distribution.

average epicentral distances are computed for each intensity class based on assumed epicentral coordinates.. magenta lines : AFPS-EPAS seismotectonic zoning.0[ −4 −2 23 30 37 32 0 2 Longitude 4 6 8 10 F IG . In order to compute annual rates.5 4. The second correlation yields magnitudes higher than the first by 0. half degrees are used). 2001) only a sub-set of the best-documented events is used for the calibration. For each event. and on all available individual observations.1 – French seismic catalogue in the period [1356-1999] .0 5. it is necessary to estimate the periods of completeness adapted to each catalogue. Then using the magnitude-intensity correlation.0[ [4. a magnitude for each intensity class is computed and the mean magnitude of all available intensity classes is then considered as the final magnitude for the event. For each interval of magni . The coefficients of these intensity-magnitude correlations are derived by regression.0[ [5.52 51 50 49 3 4 8 6 48 Latitude 47 46 45 44 10 11 13 16 18 19 17 20 27 43 42 41 −6 [3. but different historical magnitudes. The difference between the two correlations comes from the selection of events chosen for calibrating the M-I conversions. At the moment two correlations are available.0[ [6. thick magenta lines : selected source zones (with index of source zones and sites. 1994). The poor quality observations or those affected by site effects were not considered.0 6.0 7.4 units on average. In the second correlation (Griot-Pommera & Scotti. In the first correlation all events having both an instrumental magnitude and macroseismic intensities observations are considered (Levret et al. given in the SisFrance database. 7.) above. Therefore the two available catalogues have the instrumental part in common.

Therefore periods of completeness were only determined for the entire catalogue contained in the geographical window of Figure 7. In the "linear" method. This method is a generalisation of the likelihood methods of Aki (1965). QUANTIFYING UNCERTAINTIES IN FRENCH PSHA Interval Period S Period L [3.5 large magnitude intervals and used only within their completeness period.5-4. the magnitude range used is [3. The periods of completeness of this study rely on the Stepp’s technique (1972) and a "linear" method. which may be available at a regional scale in the Alps and the Pyrenees. which usually has the highest slope. Due to the scarcity of data. tude.5-Mmax ].4] [1800-1999] [1500-1999] [6. The β value is chosen such that it maximizes the product of the probabilities of having observed each annual seismic rate. but not everywhere else.♦7. It is able to handle annual rates estimated on different periods of time.4] [1962-1999] [1962-1999] [4.5 yields anomalously high b-values in the Eastern parts of France. a recent study by Beauval & Scotti (2003a) showed that calculating the Gutenberg-Richter parameters including magnitudes lower than 3.1.5 and above. the period of completeness is the time window in which the magnitudes are considered to be exhaustively and homogeneously reported (Table 7.5 (very few events). Estimated β values are less dependent than least-square methods upon the few events that make up the high magnitude intervals. The slope of recurrence curves (the b-value or β value) and seismicity rate are calculated using Weichert’s method (1980).] [1500-1999] [1500-1999] TAB . for which seismic rate is assumed to be constant and independent of time.4] [1870-1999] [1870-1999] [5. Building on the conclusions of this paper. These methods require large data sets..1 – Periods of completeness for different magnitude intervals for the two seismic catalogues (same instrumental part [1962-1999] but different historical magnitudes) . seismic parameters can be estimated reliably in only 17 of the  . Magnitudes are binned into 0..5-5.1).9] [1870-1999] [1800-1999] [6. cumulative numbers of events versus time are plotted for each magnitude interval and the last linear trend. is selected. Utsu (1966) and Page (1968). 1998). There is an uncertainty on the determination of these time windows.5-. 7. 7.9] [1920-1999] [1900-1999] [5.0-6. S is the catalogue with Scotti magnitudes and L is the catalogue with Levret magnitudes.4 Selecting the seismic source zones and computing seismicity models Subcatalogues are extracted for each source zone of the seismotectonic zoning scheme (Autran et al. Moreover.0-5.5-4.. this uncertainty being highest for magnitudes above 6. For observed all zones. we compute the seismic parameters on magnitudes 3.

These results deal with PGA acceleration (Peak Ground Motion) .15 λnorm 0.Front pennique Sud Ivrea Sesia Chaînes subalpines méridionales Pyrénées Nord Pyrénées Occidentales Nord Pyrénées Orientales Pyrénées Sud β + σ(β) 2. λnorm is normalized to a 100 × 100 km2 area with corresponding depths (km).53 ± 0.13 3.87 ± 0.15 0.14 0.18 2.12 2.15 1.2 – Seismic parameters for the 17 selected source zones. 15 have less than 10 events and 7 concentrate all the magnitudes in the magnitude bin [3.13 ± 0.29 ± 0.5 . the number of events used varies between 14 and 183.80 ± 0.97 ± 0.12 and 0.2).47 ± 0.11 ± 0.36 0.Front pennique Nord MCE. computations of seismicity parameters are based on the behaviour of M 3.12 ± 0.18 ± 0.b).5 Probabilistic computations and quantification of impacts The hazard and the uncertainties are estimated in this study only at the centres of the 17 source zones (coordinates of centres are simply calculated from maximum and minimum latitude and longitude coordinates of the source zones apexes).24 ± 0.51 ± 0.84 ± 0.16 3.34 1. The standard deviation of β in these rejected source zones is larger than 0.20 1.69 ± 0.98 0. For these 17 zones. 7.44 0.33 ± 0.37 1.67 # events 23 35 55 22 147 14 22 59 45 21 27 54 66 61 183 18 30 Depth 10 10 20 10 15 10 5 10 10 10 10 15 10 10 15 10 10 TAB .15 0.5-4.14 0.33 0.5 and above (see Table 7.15 0. as calculated by Weichert.33 2.15 1.09 ± 0.28 ± 0.21 ± 0.25 1.19 0.14 1.40 ± 0.20 1.4. In the remaining 22 source zones.27 ± 0.23 1.14 1.15 0.39 ± 0.22 2.37 ± 0. The standard deviation of β.36 0.34 1.0]. is between 0.58 ± 0.74 ± 0.15 0.14 1. β is the slope of the Gutenberg-Richter and λ is the cumulative annual rate above magnitude 3. 7.1 and Table 7.11 0.1).73 ± 0.48 0.13 ± 0.15 0.16 0. Following Beauval & Scotti (2003a.26 1.98 ± 0.33 λ + σ(λ) 0.12 1.16 4. As explained in the introduction.35 ± 0. neither alternative zoning schemes nor alternative attenuation relationships will be considered here.00 1.Zone 3 4 6 8 10 11 13 16 17 18 19 20 23 27 30 32 37 Nom Mons-Aix la Chapelle Fossé rhénan inférieur Massif armoricain Nord Fossé rhénan supérieur Massif armoricain Sud Limagnes Jura Pré-Alpes et pennique suisse Région du Valais MCE.14 0.48 ± 0.4 and the seismic parameters are therefore considered to be unreliable.36 2.32 1.87 ± 0.15 0. 2 and 5 Hz) are  .19 1. comparisons with results at 3 other frequencies (1.46 ± 0. 39 source zones of the AFPS-EPAS zoning (Figure 7.01 ± 0.66 ± 0.32 2.35 1.16 ± 0.50 0. estimated with Weichert’s method (1980) .95 6.

models the error on instrumental magnitude (example on Figure 7. However it is very difficult to assess and for these impact analyses the same maximum magnitude is attributed to all zones. The reference set is always more conservative than the alternative ones. changing one parameter at a time. For all individual impacts. On the one hand. The standard deviation is the error reported in the LDG  . A uniform distribution is attributed to historical magnitudes (example on Figure 7. and (iv) finally.5. In order to take these uncertainties into account. Differences are normalised by reference hazard values and expressed in percentage.2a).2b). On the other hand. we first model catalogue uncertainties for each seismic event and then use synthetic catalogues to study the impact of such uncertainties on hazard estimates. 7. For an historical event. maximum magnitude is fixed at 7. depending on the institution. (iii) with no truncation of the lognormal distribution of ground motion. Impacts are thus positive normalised differences.♦7. the instrumental events often are attributed different magnitudes and locations.5. The impact (or variability) is measured as the difference between the reference hazard value and the newly computed one.2d). 2002b. the historical intensities rely on interpreted written descriptions of the effects of earthquakes on people and buildings.. A gaussian distribution centred on the original magnitude.0 for all source zones because it is the maximum magnitude computed in the historical catalogues. a magnitude is calculated for each intensity class with an intensity-magnitude correlation : the minimum and the maximum magnitudes obtained are used as minimum and maximum thresholds for the uniform PDF. as explained in the data section. Maximum magnitude is the unique parameter that should vary with the source zone.1 Modelling uncertainties due to magnitude and location determination All seismic catalogues are affected by uncertainties in both magnitude and location estimates. as done in the recent study for the revision of the French seismic zoning (Martin et al. Monte Carlo simulations The errors on magnitude and location determinations are modelled by three probability density functions (PDF). the same reference set of "conservative" parameter values is used : (i) seismic parameters are computed using the most conservative M-I correlation. Synthetic catalogues are generated through a Monte Carlo process : each event is assigned a new magnitude and new geographical coordinates picked in their PDF.a) . (ii) hazard computations are performed from minimum magnitude 3. QUANTIFYING UNCERTAINTIES IN FRENCH PSHA discussed at the end. The width distribution for the uniform PDF shows that the average is around one magnitude unit (Figure 7.

0 and with σ =0. c) Distribution of the σ of the instrumental magnitude used . a) Instrumental magnitude : PDF is centred on the original instrumental M = 4. N sets of seismic parameters are obtained for each source zone and N hazard values are calculated at each site. The instrumental coordinates and the historical ones referenced with a location quality A in the SisFrance database (15% of historical events) are attributed a 5 km standard deviation.5 Historical Magnitude 6 0 0 1 2 3 Width of uniform distribution 4 F IG . Additional variability may have been obtained if completeness period could have been automatically computed for each synthetic catalogue. which is sufficiently large to obtain results with a representative variability. the subcatalogs of the source zones are extracted N times. instrumental catalogue. Attributed standard deviation is 10 km for historical locations of quality B events (25%).50 a) 40 30 400 c) 300 200 20 10 0 3 3.2 0.2 on average (Figure 7.4 σ 0.2b).5 Instrumental Magnitude 5 100 0 0 0.2.8 40 b) 30 20 50 d) 40 30 20 10 0 4 10 4. 7. Standard deviations are around 0.6 0.5 5 5.  .2 – a) and b) : Example of 200 magnitudes picked with Monte Carlo in the PDF (black curve). b) Historical magnitude : PDF is a uniform distribution . Figure 7. d) Distribution of the widths of the uniform PDF of the historical magnitude used. the resulting Gutenberg-Richter curves for the Jura zone (grey curves) together with the corresponding distributions for both seismic parameters. Generating N synthetic catalogues. 20 km for quality C (22%) and 50 km for quality D (38%) events. Although we used N=200. variability is contained within one standard deviation of β. as an example. The errors on latitude and longitude coordinates are also modelled by gaussian distributions centred on the original values. as calculated by Weichert’s method on the original catalogue (black lines).3 displays.5 4 4.

the lower the coefficient of variation (the more stable the hazard results).5 5 5. The dispersion of the distribution. Uncertainties on magni . the higher the number of events.3 – Example of Monte Carlo results on seismic parameters for the Jura source zone (n◦ 13). Lowest COV are obtained for sites in source zones 10 and 30 (≤ 5%). a distribution of 200 accelerations is obtained for each return period. QUANTIFYING UNCERTAINTIES IN FRENCH PSHA 10 0 Annual rate m+ 10 −1 10 −2 10 −3 10 −4 3.4. Results At each site.8 1 1. black colour refers to the original catalogue (dashed lines take into account standard deviations of β and λ . right : distribution of the 200 seismic rates (M ≥ 3. Furthermore. plain circles : observed annual rates. which contain the highest number of events.5). or the variability of hazard estimation due to catalogue uncertainties.4 b−value λ 0. lines : récurrence curves . the resulting difference in recurrence rates increases with magnitude. is quantified by calculating the coefficient of variation (COV=standard deviation/mean).7 F IG . Lower panel.2 0. COV values increase with increasing return period (the increase is however small).6 0.6 0. Upper panel.5 4 4.5 0. This is due to the fact that for the same change in the b-value.5 Magnitude m 50 40 6 6. left : distribution of the 200 b-values (b = β/ ln 10). COV vary between 2 and 17%. 7. Results are displayed on Figure 7.2 0 0. The COV is directly linked to the number of events used (Table 7.5 7 60 40 30 20 10 20 0 0.3 0.♦7.2) . grey colour refer to the 200 synthetic catalogues. depending on the site and the return period.

Thus the variability on hazard results due to catalogue uncertainties (2% ≤ COV ≤ 17%) is the minimum variability of any hazard calculation.5 shows the variability on hazard results due to a change in the M-I correlation. the thicker the curve.2 On the choice of a Magnitude-Intensity correlation Figure 7. Hazard has been computed at the centres of the 17 source zones for 5 return periods. 7. 475. Accelerations are interpolated for return periods 100. 34% and 24%). calculated for each site (magenta curves). 1000. A high coefficient corresponds to a high proportion of small instrumental magnitudes.5-4.5[ divided by the total number of events used.20 18 16 14 COV (%) 100y 475y 1000y 10000y 100000y 12 10 8 6 4 2 3 4 6 8 10 11 13 16 17 18 19 20 23 27 30 32 37 Site F IG . the higher the return period.6. Highest impacts are obtained for sites in zone 6. 11 and 19.5. are computed on subcatalogues containing respectively 57.4 – Coefficients of variation (standard deviation divided by mean) of hazard estimations due to uncertainties on magnitude and location determinations. 10000 and 100000 years. The impact of the choice of the magnitudeintensity correlation ranges between 2 and 34% depending on the site but does not significantly vary with the return period. Each curve corresponds to a different return period . Impacts at 475 years are plotted as a function of the number of events in the instrumental magnitude bin [3. The explanation for the different impacts between sites appears clearly on Figure 7. Seismic parameters of source zones 6. 7. 59 and 66%  . 11 and 19 (23%. tude and location determination of past events can hardly be reduced.

Blue points : impacts of the decision of truncating the predicted ground motion distribution at +2σ.5. the impact of a magnitude-intensity correlation choice will be less important. 10000y.5 are not numerous. this dispersion is taken into account when computing the probabilities of exceedance of target ground motions. 16. and 100000y).5 – Impacts on hazard estimates of two parameters at the 17 sites.5 and 4. Thus. ≤ 9%). QUANTIFYING UNCERTAINTIES IN FRENCH PSHA 40 35 30 25 Impact (%) 20 15 10 5 0 3 4 6 8 10 11 13 16 17 18 19 20 23 27 30 32 37 F IG .3 On the choice of truncating the PDF distribution modelling ground motion dispersion A magnitude-distance couple may produce different ground motions : this dispersion is real and must be considered. The thicker the line. which are computed on subcatalogs containing respectively 80. The coefficients of the attenuation relationship used in this study are calculated by regression on the accelerograms of a database made of 83% records coming from Europe and 17% from  .5. 475y. 7. in zones where seismicity models are controlled by a high number of instrumental events.5 and 4. This result is not surprising. 1000y. 80 and 93% magnitudes between 3. Magenta points : impacts of the choice of the magnitude-intensity correlation. magnitudes between 3. since the choice of the magnitude-intensity correlation only affects historical magnitudes and instrumental magnitudes higher than 4. 7. the higher the return period (100y. and 27 (smallest impacts.♦7.5. In the Cornell-McGuire probabilistic method. and show a higher impact compared with that of source zones 4.

However there is no physical reason why ground motion upper bounds for all couples magnitude-distance should be at the same percentage above the median (Bommer. the accelerations with very small likelihood of occurrence can no longer contribute to the hazard. 2003). 7.5σ to 4.5[ in the subcatalogues of the source zones. Early at the beginning of the 90s.4] / total # events F IG .. versus proportion of magnitudes [3. Reiter (1990) deals with truncations from 2.30 11 25 19 20 06 08 23 Impact (%) 15 20 10 10 30 18 13 37 32 03 16 17 27 04 5 0 40 50 60 70 80 90 100 # events in [3. the consequence is that there is no consensus on how much the lognormal distribution should be truncated. California (Berge-Thierry et al. the standard deviation is calculated as a function of frequency (variation is small) but not as a function of magnitude. Sites effects classifications are indeed rather crude and a precise description of the soil beneath the seismological stations is often not available. Furthermore. Indeed. Some studies solve the problem by truncating the lognormal distribution. the very low likelihood accelerations in the tails of the distributions can significantly contribute in the seismic hazard estimations. In such cases. leading to a great scatter.5σ. 2000). Anderson & Brune  . at the 17 sites. This way of truncating doesn’t rely on any physical basis . propagation paths and site effects are mixed. Thus many sources. The choice of the minimum magnitude thus can be of outmost importance.6 – Impacts of the choice of the M-I correlation at 475y. when corresponding to high likelihood magnitudes. in this attenuation relationship. Reiter’s book on PSHA (1990) was evoking the consequences of the use of the lognormal distribution to compute probabilities of exceedance. usually at a certain number of standard deviations above the mean (Abrahamson. The result is a reduction of seismic hazard at all return periods. The current way of taking into account in the hazard calculation the dispersion on ground motion has strong drawbacks.5-4.5−4. 2002).

1990. Reiter. 2002a). This magnitude is not linked to the magnitude range used to compute the Gutenberg-Richter parameters. The impact of the decision to truncate the predictions of the attenuation relationship is here quantified by calculating the difference between no truncation and cut off at +2σ. This problem of truncating or not the attenuation relationship and how much is often not addressed in current PSHA studies. superimposing hazard curves calculated with a minimum magnitude of 3. On the contrary.0] is the magnitude range of minimum magnitudes used in the revision of the French zoning (Martin et al.5.5 (blue curves). whereas [3.5.4 On the choice of minimum magnitude (Mmin ) Once the seismic parameters are calculated. Here we quantify the impact of the choice of minimum magnitude at the 17 sites.♦7. Bender & Perkins. its impact on hazard estimations may be important. the higher is the return period. Deciding to reject ground motions above 2σ produces a reduction in the hazard estimates of 10-20% for a 100y return period and of 23-37% for 100 000y. Grünthal & Wahlström (2001) have shown on a site in the lower Rhine embayment that minimum magnitude influences hazard results at small return periods. counterbalancing their small probabilities of exceedance by their high annual rates. the impact of the minimum magnitude on hazard results is decreasing with increasing return periods.5. and the contribution to the annual rates coming from small magnitudes  . 1989. 1989. Increasing Mmin narrows the magnitude range contributing to the hazard. He clearly rejects truncation at 1σ which would imply an underestimation of hazard. Ground motion thresholds increase with increasing return periods.. A minimum magnitude of 4. following Bender & Perkins (1993). Again. Small magnitudes can contribute largely. The contributions of the low likelihood motions (the chance of exceeding 2σ is 2. Results are displayed on Figure 7.5 is used in all USGS national seismic hazard maps (Frankel. the thicker the curve.7 (black curves). 1995) . It should be the minimum magnitude producing "significant" ground motions. It is often thought to be of small significance because it deals with events that are the least likely to produce significant ground motions.0 and 4. for all sites. 1993). As expected. Bender & Campbell. due to the way of computing probabilities of exceedance.5. one has to decide the minimum magnitude that will contribute to the hazard. comparing minimum magnitude 3. QUANTIFYING UNCERTAINTIES IN FRENCH PSHA (1999a) use a cut off at 3σ. 7. However. thus the hazard may be reduced.28%) to hazard estimates are thus very important. 4. most PSHA studies do not even precise the minimum magnitude used.5 and 4. Results are displayed on Figure 7. Abrahamson (2000) proposes a cut off at 2 or 3σ showing with statistical techniques that the data do not follow a lognormal distribution above 2σ. Impacts are quite stable from one site to the other. The higher the return period. Although this problem has been raised more than 10 years ago (Benjamin & Associates.5-4. the higher the impact of the PDF truncation. even in sensitivity studies.

decreases. Furthermore, the influence of Mmin is highly site dependent. For 100y, the impact can be very high, reaching 39 and 35% in zones 3 and 32. For the same return period, the lowest impacts (≤ 10%) are found in the Alps zones 17, 19 and 20. Beyond return period 1000y, the choice of a minimum magnitude between 3.5 and 4.5 doesn’t influence anymore the hazard : for return periods 10000 and 100000 years, all impacts (except for zone 27) are between 0 and 5%. The influence of Mmin is in fact linked to the slope of the Gutenberg-Richter. Plotting the impacts versus the slopes of the Gutenberg-Richter reveals roughly a linear trend (Figure 7.8). The sites with the higher β value (or steeper recurrence slopes) show the higher sensitivity to the choice of a minimum magnitude. This trend is logical, as β represents the proportion of small and large magnitudes : high β implies a relatively higher proportion of small earthquakes than a low β. The Pyrenees zone 27 shows the highest impact at 10000 and 100000 years because the β value of this zone is particularly high (3.1). The subcatalog of this zone indeed contains 93% of magnitudes in the interval [3.5-4.5[ (Figure 7.6). Moreover, the annual seismic rates (normalised to a 100x100 km2 surface, Table 7.2) of each source zone are indicated by the colour bar. For comparable slopes, the impact decreases with increasing seismic rate ; thus the choice of the minimum magnitude is more crucial in moderate seismic regions than in high seismic regions. The same tendency is obtained with the 100 year return period.

7.5.5 On the choice of maximum magnitude (Mmax )
Contrary to the minimum magnitude, all sensitivity studies in PSHA address hazard variability due to the choice of the maximum magnitude. In contrast to the lower bound magnitude, maximum magnitude is zone specific and corresponds to the maximum magnitude that can occur inside a source zone. Estimating the maximum possible magnitude in the seismotectonic source zones (using fault length or estimated slip and displacement of paleoseismic events) is difficult, active faults are poorly known in an intraplate environment such as France. This maximum magnitude may not be linked to the magnitude range used to compute the GutenbergRichter parameters. In the reference data set, Mmax is 7.0 for all zones, corresponding to the maximum magnitudes of the historical catalogues. The impact of Mmax is estimated decreasing Mmax from 7.0 to 6.5. As shown previously (Figure 7.2), uncertainties on historical magnitudes are large (0.5 degree on average if considering half widths of uniform distributions). When changing the upper bound magnitude, we keep the cumulative seismicity rate of the minimum magnitude constant. Changing the upper bound magnitude has very little effect on the rates of smaller earthquakes because they are much more numerous.



♦7. QUANTIFYING UNCERTAINTIES IN FRENCH PSHA

40 35 30 25

Impact (%)

20 15 10 5 0 3 4 6 8 10 11 13 16 17 18 19 20 23 27 30 32 37

F IG . 7.7 – Impacts on hazard estimates of minimum and maximum magnitudes at the 17 sites. The thicker the line, the higher the return period (100y, 475y, 1000y, 10000y, and 100000y). Black points : impacts of the choice of Mmin (3.5/4.5). Yellow points : impacts of the choice of Mmax (6.5/7.0).
30

18 16

25
32 27

λ
1.5
Impact (%)

14
8

19

λ
17 20 6 23 16 11 4 13 3 18 10 32 27 37 30

20

1.5 1 0.5 0

Impact (%)

12 10 8 6

3

15
11

1
10 37

13 4

0.5 0

10
16 18 6 8 19 17 20 23

4 2

5

30

0 1

1.5

2

2.5

3

3.5

0 1

1.5

2

2.5

3

3.5

slope of Gutenberg−Richter

slope of Gutenberg−Richter

F IG . 7.8 – Left, impacts of the choice of Mmin , at the 17 sites, versus GR slopes of the source zones,
hazards correspond to 475y. Right, impacts of the choice of Mmax , at the 17 sites, versus GR slopes of the source zones, hazard correspond to 10000y. Note the scale difference.



The influence of maximum magnitude (Figure 7.7, yellow curves) shows a trend opposite to that of the minimum magnitude : with increasing return period, the influence of the maximum magnitude on hazard results increases. At small return periods (≤ 1000y), the variability due to the choice of the maximum magnitude stays below 10%. Maximum influence is reached for return period 100000y in zones 8, 17, and 19 with 16%. The graph of Figure 7.8 shows the distribution of impacts versus the slopes of Gutenberg-Richter for the 10000 year return period. The same tendency is obtained with the return period 100000y. The higher the slope, the lower the impact of the choice of Mmax , therefore opposite to the trend observed for the Mmin impacts. When the slope of the Gutenberg-Richter increases, the proportion of high magnitudes versus small magnitudes decreases. Therefore, the contribution to the seismic hazard of the high magnitude range [5.0- Mmax ] decreases. Furthermore, on the contrary to Mmin impacts, for comparable slopes, impacts increase with increasing seismic rates. The choice of maximum magnitude is therefore more crucial in high seismic regions than in moderate seismic ones. These calculations show the small contribution of the high magnitude range to the estimation of hazard, even at very large return periods, in a moderate seismicity region such as France. Proper maximum magnitudes should be estimated for each zone on geological, seismological and geophysical features ; however this test quantifies the impact of maximum magnitude and shows that this parameter is not the controlling parameter in French PSHA, when considering the PGA.

7.5.6 Radius of influence of hazard estimates
The clear tendencies obtained between parameter impacts computed at the centers of the source zones and the seismic inputs of these zones indicates that hazard contributions come mainly from magnitude-distance couples inside the source zones as shown on Figure 7.9 where for each site the maximum distance D98% necessary to accumulate 98% of the contributions is computed at 475 and 10000 years return period.

7.5.7 Overall variability
A logic tree can be constructed to compute the overall variability at each site : intermediate values in the parameter intervals explored in individual studies are selected and the hazard computation is performed for all possible combinations of parameters. Thus, explored minimum magnitudes are (3.5 ;3.7 ;3.9 ;4.1 ;4.3 ;4.5) ; explored number of standard deviations for truncation are (2 ;2.3 ;2.7 ;3.0 ;∞) and explored maximum magnitudes are (6.5 ;6.75 ;7.0). These intermediate values are necessary to get a smooth hazard distribution. Two M-I correlations are used, therefore 180 hazard values are computed at each site. An example of such a 

as shown on Figure 7. for the PGA and at return periods 475 years (black circles) and 10000 years (grey circles). QUANTIFYING UNCERTAINTIES IN FRENCH PSHA 52 51 50 49 48 Latitude 475 ans 10000 ans 47 46 45 44 43 42 41 −6 −4 −2 0 2 Longitude 4 6 8 10 F IG . minimum and percentiles. 2 and 5 Hz. At 5 Hz.5. Such a representation may be obtained at all sites and enables to estimate the range of possible PGA values for any return period between 100 and 100000y.10 for the site in zone 16. the coefficient of variation (COV=standard deviation of distribution divided my mean and expressed in percentage) is calculated for each site at the 5 return periods : values vary mainly between 10 and 20%. 7. Results may be represented with mean.9 – Maximum distance necessary at each site for reaching 98% of the hazard contributions. the impacts  . distribution is displayed on Figure 7. Furthermore. The standard deviation characterizing catalogue uncertainties is thus added to the minimum and maximum hazard values.8 Impacts as a function of frequency The results presented till now deal with the acceleration at frequency 34 Hz (PGA). We have performed the same computations for frequencies 1. maximum. In order to quantify the overall variability.♦7. 7. to each hazard value is associated a catalogue uncertainty (due to magnitude and location determination) calculated previously. at each return period.11. in order to get the full variability.

7. contributions mainly come from the upper range of magnitude. important differences appear that enlarge at 1 Hz : while minimum magnitude does not play a role anymore whatever the period. At 2 Hz however.15).12 for frequency 1 Hz. Individual impacts of minimum and maximum magnitudes. At 34 Hz. The understanding of the changes in maximum magnitude impacts at 34 Hz and 1 Hz is straightforward when performing magnitude deaggregation : Figure 7. reaching the level of both correlation and truncation impacts at 10000y. while at 1 Hz. As expected from individual impacts studies. Percentages correspond to differences between maximum and minimum values.13 shows distributions of contributions in magnitude for both frequencies at one example site (left panels). Values corresponding to frequencies 2. resulting from the logic tree and computed at the centre of source zone 16 . and their hierarchy are very similar to results at PGA. 5 and 34 Hz are multiplied by a coefficient so that the mean value of each distribution equals the mean value of distribution at 1 Hz (see the legend). are displayed on Figure 7. Furthermore. the impact of maximum magnitude increases. Deaggregation in distance (right panels) indicates that contributions at 1 Hz come from larger distances than at PGA. contributions come from the whole range of magnitude. impacts of correlation and truncation increase significantly. square and triangles : mean and standard deviation of distribution.14 are displayed the logic tree results for the return period 10000y at the four considered frequencies.6 Discussion and conclusions The hierarchy of the impacts of the 4 parameters changes from one site to the next. on the Figure 7.10 – Distribution of 180 acceleration values for 100y return period. But above all. variability increaseas with decreasing frequencies (40% at PGA and 60% at 1 Hz). 7. at the 5 considered return periods. Results at 475y are representative of small return  . normalized by maximum value. but global tendencies can be drawn (Figure 7.30 25 20 15 10 5 0 80 90 100 110 PGA (gal) 120 130 140 F IG .

Computations have been performed for the 5 return periods 102 . The variability of catalogue uncertainty is here quantified through the coefficient [2σ/(µ + σ)]. at the centre of source zone 16. with σ and µ the standard deviation and mean of the gaussian distribution respectively.11 – Results of the logic tree.♦7. however. 7. The following main conclusions can be drawn : – Catalogue uncertainties that underlay all hazard results can engender variability as high as the variability due to the controlling parameters. – The minimum magnitude can greatly influence the estimation of hazard at small return period . QUANTIFYING UNCERTAINTIES IN FRENCH PSHA 1200 mean minimum maximum max+σ. Results can be roughly approximated at intermediate return periods. considering all possible combinations of the 4 parameters. min−σ percentile 15/85% 1000 Acceleration (gal) 800 600 400 200 0 2 10 10 3 10 4 10 5 Return period F IG . 475. – The choice of the maximum magnitude has a relatively small impact on PGA hazard  .15. – The choices of an M-I correlation and of the truncation of the predicted ground motion distribution are key parameters in hazard estimation at all return periods and their impact increases with decreasing frequency. whereas results at 104 y are representative of large return periods (>1000y). hazard estimations at large return periods or at low frequencies are not affected by this choice. Standard deviation σ due to catalogue uncertainties. 103 . Catalogue uncertainties are also superimposed on the impacts of the other 4 parameters shown in Figure 7. is added to both minimum and maximum hazard values. periods (≤1000y). 104 and 105 years.

until physical models are proposed that may allow to estimate upper bounds to ground motions (see Restrepo-Velez & Bommer (2003) for example). However these results cannot be generalized for lower frequencies where the estimate of maximum magnitudes becomes as important as the truncation of the attenuation relationship. This holds at all return periods and frequencies down to 5 Hz. better physical models. In these weak seismicity regions where large earthquakes have occurred in the past (Figure 7. if quantifications of impacts at each site can approximately be extrapolated to the whole zone. Bakun and Scotti (2003) are currently working on improving the M-I correlation by considering regional intensity attenuation relationship for the French metropolitan territory. Although the overall variability in hazard estimates due to these four parameter choices (COV between 10 and 20% at PGA) may be arbitrarily reduced by expert choices. Hazard should be computed from a minimum magnitude of 4. French PSHA studies should carefully select values for these parameters in order to minimize biases in the calculations.  . Finally.estimations. Furthermore. Results from this work will hopefully reduce the M-I conversion uncertainty. this study does not give any estimation of uncertainties on hazard outside the source zones. No consensus exists on how much the probability functions predicted by the attenuation relationship should be truncated. may be needed before reliable PSHA estimates may be obtained. (1996)) become important to specify the upper bound of the magnitude range. clearly.5-4.0.0 to 6. Seismotectonic zones are a very crude representation of "source" zones.0 is usually used).1). Geological considerations accompanied by statistical studies on seismic catalogues (for example Pisarenko et al.0 (in the nuclear safety community a minimum magnitude of 5. attenuation models are all weakly constrained in the near-site region and their predicted dispersions may be wrongly overestimated (Anderson & Brune. does not contain events with magnitudes lower than 4. 1999b). A completely different study should be led for its quantification. Using this relationship to predict ground motions of magnitudes [3. Hazard should therefore be estimated by testing several truncation levels. for example.5 produces reductions in the hazard estimates that are less than half the reductions due to the decision of truncating the predicted ground motion distribution at 2 standard deviation. results show that reductions of maximum magnitudes from values of 7. even for very large return periods but becomes a key parameter at lower frequencies (<5 Hz). Given such a hierarchy of impacts. The database from which the Berge-Thierry attenuation relationship is derived.0[ implies extrapolating the relationship. the uncertainty on hazard estimates is very large.

5/4. Left : magnitude distribution of contributions . 1000y. Black points : impacts of the choice of Mmin (3. Right : distance distribution of contributions . 10000y.5). QUANTIFYING UNCERTAINTIES IN FRENCH PSHA 40 35 30 25 20 15 10 5 0 Impact (%) 3 4 6 8 10 11 13 16 17 18 19 20 23 27 30 32 37 F IG . . Yellow points : impacts of the choice of Mmax (6. and 100000y).0). 7.13 – Deaggregation for two different frequencies (PGA and 1 Hz).5/7.♦7. Zone 20 − 475 y 220 gal 25 34 Hz 20 80 34 Hz 60 40 20 0 Contribution (%) 15 10 5 0 3 4 5 121 gal 50 1 Hz 40 1 Hz 30 20 10 0 6 7 20 40 60 80 100 120 Contribution (%) 40 30 20 10 0 3 4 5 6 Magnitude 7 20 40 60 80 100 120 Distance (km) F IG . for 475y return period and  site 20 .12 – Impacts on hazard estimates of Mmin and Mmax for frequency 1 Hz at the 17 sites. 7. the higher the return period (100y. red cross corresponds to D98% . The thicker the line. 475y.

black : Mmin .  . with respectively mi and m1 the means of distributions at frequencies i and 1 Hz. values have been multiplied by the coefficient : mi /m1 .7% 45.5% 200 150 100 10 0 10 Frequency 1 F IG . 5 and 34 Hz. for a 10000y return period. 7. at the centre of zone 30. Percentages quantify variability (difference between minimum and maximum values divided by maximum value). For each distribution at frequencies 2. blue : truncation.350 300 Normalised acceleration 250 60. 5 and 34 Hz (PGA).2% 40. Magenta : correlation impact. 7.15 – Comparisons of individual parameters impacts at 475 year return period (left) and 10000 year (right). Variabilities due to catalogue uncertainties are superimposed (green points).14 – Accelerations calculated at frequencies 1.5% 53. yellow : Mmax . 40 35 30 25 20 15 10 5 0 40 35 30 25 20 15 10 5 0 Impact (%) 3 4 6 8 10 11 13 16 17 18 19 20 23 27 30 32 37 Impact (%) 3 4 6 8 10 11 13 16 17 18 19 20 23 27 30 32 37 F IG . 2. exploring all parameters combinations of the logic tree.

♦7. QUANTIFYING UNCERTAINTIES IN FRENCH PSHA  .

Cette accélération devient l’accélération cible et le programme de calcul stockant les contributions est appliqué. Les couples (m. 8. elles sont effectuées sur des sites identiques (les centres des 17 zones sources) et pour l’accélération au PGA.1 Principe de la déagrégation Dans un premier temps. Déagrégation Le moyen le plus direct d’identifier l’origine de toutes les contributions au taux annuel de dépassement d’une accélération est la déagrégation. la distance et la contribution (nombre annuel de dépassement) sont inscrits dans un fichier de sortie. Il ne s’agit pas d’un calcul supplémentaire mais tout simplement du stockage des contributions au fur et à mesure de leur prise en compte dans le calcul probabiliste. à chaque fois qu’un couple (m. A chaque contribution est associée une magnitude. Les contributions sont ensuite rassemblées selon les magnitudes (m). une distance et l’écart à la moyenne ε : ε= lnA∗ − lnA σlnA (8. l’accélération correspondant à la période de retour d’intérêt est calculée.r) a une probabilité non nulle d’engendrer un dépassement. les distances (r) ou la localisation de la cible dans la gaussienne prédite par la loi d’atténuation (ε). le taux annuel de dépassement de la cible augmente.  .Chapitre 8.1) Il suffit donc simplement de rajouter une ligne dans le programme : la magnitude. Les déagrégations permettent de comprendre les impacts des paramètres mis en évidence au chapitre 7.r) sont passés en revue les uns après les autres.

la loi d’atténuation n’est pas tronquée. Sur les figures 8.1 à 8. Les paramètres du calcul probabiliste sont ceux du modèle de référence des études d’impact (chapitre 7) : le catalogue Scotti est utilisé. De plus. Les paramètres choisis pour ces études de déagrégation sont Rmin = 1 km et F min = 5 km.5. chapitre 2). 8. tant que la déagrégation n’est pas effectuée en azimut. la largeur est ainsi supérieure au pas en magnitude de 0. et en 1D pour les trois variables m.5 et 7.1).  . r et ε).0. les intervalles en distances sont de largeur 10 km. pour les histogrammes en ε. La dimension caractéristique Dc d’un triangle est la racine carrée de l’aire du triangle . l’intervalle est de largeur 0. les magnitudes minimales et maximales du calcul probabiliste sont 3. 19 et 30 et pour les trois périodes de retour 100. 18. 18. En ce qui concerne les déagrégations en distance. 475 et 10000 ans (sur 3 colonnes).♦8. Les magnitudes sont groupées dans des intervalles de largeur 0. Les contributions sont exprimées en pourcentage par rapport au taux annuel total. 3D (associations différentes de m. les biais sont limités. Ces quatres sites ont des particularités différentes et sont représentatifs des déagrégations des 17 centres de zones sources. Les zones sources sont subdivisées en triangles dans le programme de CRISIS (cf.3 Résultats des déagrégations La déagrégation est détaillée pour quatre sites : les centres des zones 6. 2D.1 à 8. r et ε (histogrammes). De plus. Cependant.4.5. la subdivision s’arrête si une des deux conditions suivantes est atteinte : Dc est inférieure à Rmin km et/ou la distance site-barycentre du triangle est supérieur à F min × Dc (condition pour que l’hypothèse de source ponctuelle soit valide). la borne minimale du premier intervalle est la distance minimale ayant contribuée à l’aléa (profondeur de la zone source). 19 et 30 (figures 8.1 utilisé lors du calcul probabiliste.2 Choix de la représentation Il y a différentes techniques de représentation des résultats de déagrégation : en 1D. Les zones 6 et 18 ont un taux de sismicité faible comparé au taux de sismicité des zones 19 et 30 (tableau 8. DÉAGRÉGATION 8. il faut être prudent lors de l’interprétation des résultats : les distances séparent le site des barycentres des triangles et les contributions se rapportent aux surfaces de ces triangles. Nous avons choisi de présenter la répartition des contributions en 2D pour les distances et magnitudes. les déagrégations sont proposées pour les centres des zones 6.4). il n’y a pas de contrainte sur le choix de cet intervalle.

Les rayons diminuent systématiquement de 475 à 10000 ans . quelque soit le site. Pour un site donné. Ainsi le rayon d’influence à 98% diminue de 60 km à 100 ans. Pour un même temps de retour. à 50 km à 475 ans et 40 km à 10000 ans dans la zone 19. Cette zone faiblement sismique est entourée de zones plus actives.3.0. de 100 à 10000 ans le pic des contributions se déplace vers la magnitude maximale 7. Les contributions des zones 19 et 30 proviennent de distances plus courtes que celles des zones 6 et 18. Sur l’axe des abscisses. les accélérations dans les zones 19 et 30 sont plus grandes que celles des zones 6 et 18. l’impact du choix de la magnitude minimale va être d’autant plus fort que la période de retour est faible. Les rayons d’influence à 98% sont alors calculés pour les 17 sites étudiés (tableau 8. pour un temps de retour donné.3.8. Ainsi. C’est le comportement mis en évidence au chapitre 7. il diminue de 110 km à 100 km puis 70 km. 19 et 30. Les accélérations à 475 ans sont également reportées dans le tableau.2 Déagrégation 1D en distance Les déagrégations en distance montrent que les contributions à l’aléa de 100 à 10000 ans proviennent essentiellement de sources situées à moins de 100 km du site.  . lorsque la période augmente. la répartition des contributions ne montre pas de pic marqué à 100 et 475 ans. 8. Pour toutes les zones. plus les contributions se reportent des faibles magnitudes vers les fortes magnitudes.1 Déagrégation 1D en magnitude Les déagrégations en magnitudes montrent que plus la période augmente (de gauche à droite sur les graphiques). une grande part des contributions provient des zones voisines. La répartition des contributions en distance varie donc fortement d’un site à l’autre. l’accélération correspondante augmente. En effet. Dans la zone plus faiblement sismique 18. plus l’accélération est grande et plus le rayon est petit. et inversement l’impact du choix de la magnitude maximale va croître lorsque la période de retour s’allonge. plus l’accélération cible est grande et plus l’aire qui contribue se ressert autour du site. Cette distance est appelée «rayon d’influence à 98%» dans la suite. Les déagrégations en magnitude sont comparables pour les zones 6.1) pour les deux périodes de retour 475 et 10000 ans. la croix indique la distance atteinte lorsque 98% des contributions sont accumulées. seules des magnitudes de plus en plus grandes peuvent contribuer. Dans le cas de la zone 18. le rayon d’influence diminue lorsque la période de retour augmente : à nouveau. donc de sources relativement éloignées comme le montre la déagrégation en distance.

pour trois périodes de retour (100.5 5 5. 8.5 5 5. 3eme ligne : déagrégation 2D m et r.1 – Zone 6.5 4 4. croix : 98% des contributions sont comptabilisées à cette distance .  . Les contributions sont exprimées en % par rapport au taux annuel total.5 4 3. 4eme ligne : 1D ε. 1ere ligne : déagrégation 1D m.5 40 60 80 100 Distance (km) 0 7 40 60 80 100 Distance (km) 0 5 % 3.5 6 6. distance (r) et ε.5 7 25 25 20 15 10 5 0 2 Epsilon 4 6 0 −2 0 2 Epsilon 4 6 25 20 15 10 5 0 −2 0 2 Epsilon 4 6 Contribution en % 20 15 10 5 0 −2 F IG .♦8. 475 et 10000 ans) . DÉAGRÉGATION zone 6 56 gal 100y 40 40 30 20 10 0 zone 6 104 gal 475y 40 30 20 10 0 zone 6 282 gal 10000y Contribution en % 30 20 10 0 3 4 5 6 Magnitude 7 3 4 5 6 Magnitude 7 3 4 5 6 Magnitude 7 60 60 50 40 30 20 10 40 60 80 100 120 Distance (km) % 5 0 40 60 80 100 120 Distance (km) 60 50 40 30 20 10 0 40 60 80 100 120 Distance (km) % 10 Contribution en % 50 40 30 20 10 0 3.5 4 4. croix : maximum de contributions en magnitude à distance constante .5 6 6.5 6 6.5 5 5.5 7 40 60 80 100 Distance (km) 0 5 Magnitude 4. déagrégations en magnitude (m). 2eme ligne : 1D r.

croix : maximum de contributions en magnitude à distance constante .5 5 % 3.5 6 6. 3eme ligne : déagrégation 2D m et r.63gal 100y 30 30 25 20 15 10 5 3 4 5 6 Magnitude 7 0 3 25 20 15 10 5 0 zone 18 175.5 5 5 5.5 4 3. pour trois périodes de retour (100.5 20 40 60 80 100 Distance (km) 0 7 20 40 60 80 100 Distance (km) 0 5 Magnitude 4. Les contributions sont exprimées en % par rapport au taux annuel total. 4eme ligne : 1D ε. 2eme ligne : 1D r.5 6 6. 1ere ligne : déagrégation 1D m.5 7 20 40 60 80 100 Distance (km) 0 5 5.5 6 6.  .2 – Zone 18. 8. croix : 98% des contributions sont comptabilisées à cette distance .5 4 4. déagrégations en magnitude (m). distance (r) et ε.5 5 5.zone 18 102.63gal 475y 30 25 20 15 10 5 4 5 6 Magnitude 7 0 3 zone 18 434.7gal 10000y Contribution en % 4 5 6 Magnitude 7 80 80 60 40 20 0 80 60 40 20 0 Contribution en % 60 40 20 0 20 40 60 80 100 120 Distance (km) 10 % 20 40 60 80 100 120 Distance (km) 20 40 60 80 100 120 Distance (km) % 10 3. 475 et 10000 ans) .5 4 4.5 7 25 25 20 15 10 5 0 2 Epsilon 4 6 0 −2 0 2 Epsilon 4 6 25 20 15 10 5 0 −2 0 2 Epsilon 4 6 Contribution en % 20 15 10 5 0 −2 F IG .

croix : 98% des contributions sont comptabilisées à cette distance .01gal 475y 50 40 30 20 10 50 40 30 20 10 3 4 5 6 Magnitude 7 0 zone 19 772.  .5 5 5.♦8.5 7 20 40 60 80 100 Distance (km) 0 5 5. pour trois périodes de retour (100. 3eme ligne : déagrégation 2D m et r.5 4 4.5 7 20 40 60 80 100 Distance (km) 5 5.5 6 6. 1ere ligne : déagrégation 1D m.3 – Zone 19.5 6 6.11gal 100y 50 Contribution en % zone 19 297. 8. Les contributions sont exprimées en % par rapport au taux annuel total. DÉAGRÉGATION zone 19 165.5 5 20 4.5 5 3. déagrégations en magnitude (m).5 4 4. croix : maximum de contributions en magnitude à distance constante .5 0 7 20 40 60 80 100 Distance (km) 0 30 Contribution en % 30 25 20 15 10 5 0 2 Epsilon 4 6 0 −2 0 2 Epsilon 4 6 30 25 20 15 10 5 0 −2 0 2 Epsilon 4 6 25 20 15 10 5 0 −2 F IG .66gal 10000y 40 30 20 10 0 3 4 5 6 Magnitude 7 0 3 4 5 6 Magnitude 7 100 Contribution en % 100 80 60 40 20 20 40 60 80 100 120 Distance (km) 10 % 0 20 40 60 80 100 120 Distance (km) % 10 100 80 60 40 20 0 20 40 60 80 100 120 Distance (km) % 80 60 40 20 0 3. 4eme ligne : 1D ε. 2eme ligne : 1D r. distance (r) et ε.5 6 6.5 4 Magnitude 3. 475 et 10000 ans) .

5 6 6.5 6 6.  . croix : maximum de contributions en magnitude à distance constante .5 4 4. 8.5 4 Magnitude 3.5 4 4.01gal 475y 40 30 20 10 0 40 30 20 10 0 zone 30 627.5 7 10 0 30 Contribution en % 30 25 20 15 10 5 0 2 Epsilon 4 6 0 −2 0 2 Epsilon 4 6 30 25 20 15 10 5 0 −2 0 2 Epsilon 4 6 25 20 15 10 5 0 −2 F IG .zone 30 171. croix : 98% des contributions sont comptabilisées à cette distance . 475 et 10000 ans) .5 6 6. distance (r) et ε. déagrégations en magnitude (m). pour trois périodes de retour (100.5 5 5.05gal 100y 40 Contribution en % zone 30 276.5 5 5. 3eme ligne : déagrégation 2D m et r.4 – Zone 30. 2eme ligne : 1D r. 4eme ligne : 1D ε. 1ere ligne : déagrégation 1D m.5 7 20 40 60 80 100 Distance (km) 4.5 20 40 60 80 100 Distance (km) 0 7 20 40 60 80 100 Distance (km) 0 10 3. Les contributions sont exprimées en % par rapport au taux annuel total.5 5 5.34gal 10000y 30 20 10 0 3 4 5 6 Magnitude 7 3 4 5 6 Magnitude 7 3 4 5 6 Magnitude 7 100 Contribution en % 100 80 60 40 20 20 40 60 80 100 120 Distance (km) % 10 0 20 40 60 80 100 120 Distance (km) % 100 80 60 40 20 0 20 40 60 80 100 120 Distance (km) % 20 80 60 40 20 0 3.

8. les croix (en noir) pointent.5. les cercles ne sont pas tracés en dehors des limites des zones sources puisque les contributions ne peuvent provenir que des sources. L’écart à la moyenne est exprimé en multiples de l’écart-type σlnA . Le rayon d’influence à 98% est la distance maximale nécessaire pour atteindre 98% des contributions à l’aléa. La loi d’atténuation n’est pas tronquée dans ces calculs d’aléa et les histogrammes en ε (figures 8. pour chaque site. Les limites des zones sources sont superposées. plus actives. Sur les graphiques.3. De plus.  . pour lesquelles les contributions sont largement réparties dans l’espace (rayons d’influence maximales. un cercle centré sur le site est tracé. ε = 2. Les cercles en noir correspondent à la période de retour 475 ans et les cercles en gris à la période de retour 10000 ans.1). lorsque le logarithme de l’accélération cible (lnA∗ ) est située à 2 écart-types au-dessus de la moyenne lnA. Ainsi. la croix se déplace logiquement des magnitudes les plus faibles vers les magnitudes les plus grandes.3.3 Déagrégation 2D en magnitude et distance Une déagrégation 2D en magnitude et distance permet d’analyser l’évolution des répartitions des contributions en magnitude avec la distance. Cette distance maximale peut correspondre à une ou plusieurs sources ponctuelles. 8.4) montrent que les contributions provenant de probabilités au-delà de 5 écart-types sont négligeables.3. Par exemple. pour un intervalle en distance constant. puisque les contributions proviennent essentiellement de la zone source du site et comme la sismicité est distribuée de manière uniforme dans une zone source.1 à 8. Il apparait que pour une grande partie des sites. lorsque la distance augmente.4 Rayons d’influence Sur la figure 8. l’intervalle de magnitude qui contribue le plus. DÉAGRÉGATION 8.♦8. Seule la zone 18 a ses contributions qui proviennent largement des zones voisines.5 Déagrégation en ε La déagrégation en ε analyse la provenance des contributions en terme d’écart à la moyenne prédite par la loi d’atténuation du logarithme de l’accélération cible (équation 8. de rayon le rayon d’influence à 98% (tableau 8.1). tableau 8. Le tracé des cercles est une approximation qui permet tout de même d’évaluer la distribution dans l’espace des contributions. Cet effet apparait très clairement à 100 ans dans le cas des zones 6 et 18. Finalement. les contributions proviennent de sources situées essentiellement à l’intérieur de la zone correspondante. les surfaces circulaires sont une bonne approximation de l’étendue des contributions en distance. la provenance exacte des contributions correspondantes n’est pas connue (une déagrégation en azimut serait nécessaire pour identifier les latitudes et longitudes des barycentres des triangles).1).

figure 8. L’origine des contributions est analysée en détail et les impacts des paramètres quantifiés au chapitre 7 se comprennent immédiatement.50 0.67 Profondeur (km) 10 10 20 10 15 10 5 10 10 10 10 15 10 10 15 10 10 TAB . l’impact du choix de tronquer les prédictions de la loi d’atténuation sera d’autant plus grand que la période de retour s’allonge. ainsi que les taux de sismicité surfaciques (m ≥ 3. pour un site donné.11 0. le barycentre des contributions se déplace vers des ε plus élevés lorsque la période (donc l’accélération) augmente.95 6.0 1.36 0. l’accélération médiane prédite est inférieure à l’accélération cible.44 0.5. De 100 à 10000 ans.15 0. Par conséquence.33 0. il se déplace approximativement de ε = 1 à ε = 2.5) .98 0.  .Zone 3 4 6 8 10 11 13 16 17 18 19 20 23 27 30 32 37 R475y (km) 55 66 120 70 96 92 81 55 47 96 51 70 66 75 50 61 65 A475y (gal) 163 159 103 170 125 111 189 229 300 176 297 220 232 170 276 143 188 R10000y (km) 40 46 80 45 66 57 41 40 37 71 41 50 46 60 40 41 55 λnorm 0. Ces distributions permettent de comprendre les impacts très forts du choix de tronquer les prédictions de la loi d’atténuation à 2σ et 3σ (chapitre 7).48 0.1 – Rayons d’influence R aux 17 sites. 8.16 0.35 1. pour les périodes de retour 475 et 10000 ans (cf. 100×100 km2 ) et les profondeurs des zones sources.25 1.4 Conclusions Les déagrégations en magnitude.19 0. pour indication. Les contributions en ε suivent une distribution gaussienne. 8. De plus. La majeure partie des contributions est due à des ε supérieurs à 0 : pour la plupart des couples magnitudes-distances. les accélérations correspondantes à 475 ans sont indiquées.34 1.36 0. distance et ε éclairent considérablement le calcul probabiliste et le mécanisme d’addition des contributions.

C’est une conséquence directe du calcul probabiliste : imaginons un cercle centré autour du site dans lequel sont additionnées les contributions. DÉAGRÉGATION 52 51 50 49 48 Latitude 475 ans 10000 ans 47 46 45 44 43 42 41 −6 −4 −2 0 2 Longitude 4 6 8 10 F IG . ce qui explique l’impact très fort du choix de tronquer les prédictions de la loi d’atténuation (chapitre 7). 8. si le rayon du cercle augmente le nombre de contributions augmente. obtenue à partir de la déagrégation en distance aux sites centres des zones sources (croix).♦8. Si les déagrégation en magnitude ne surprennent pas. Ainsi. les déagrégations en distances et ε sont quant à elles beaucoup moins attendues. pour l’ensemble des sites.  . L’accélération cible est principalement située entre 0 et 4 écart-types au-dessus de la médiane prédite par la loi d’atténuation. Le rayon d’influence diminue lorsque la période de retour augmente. 98% des contributions sont contenus dans rayon entre 50 et 120 km à 475 ans et entre 40 et 80 km à 10000 ans. donc le taux annuel augmente et l’accélération correspondante diminue.5 – Rayons d’influence à 475 (en noir) et 10000 ans (en gris) : distance maximale nécessaire pour accumuler 98% des contributions à l’aléa. L’aléa estimé en un site au centre d’une zone est principalement contrôlé par la zone elle-même.

Troisième partie M ÉTHODES ALTERNATIVES  .

 .

Méthode de Woo La méthode de Woo (1996) calcule un aléa probabiliste en s’affranchissant du zonage sismotectonique. La fonction kernel de lissage est supposée reproduire la distribution fractale spatiale des épicentres. elle délimite la zone d’influence du site. Les taux de sismicité annuels sont calculés aux noeuds de la grille en lissant les épicentres des séismes du catalogue complet. Ce modèle s’obtient en lissant les épicentres du catalogue de sismicité à l’aide de fonctions kernels.1 Principe de la méthode 9. (1997)) remet en cause le fait de délimiter des zones sources larges et de supposer le taux de sismicité uniforme à l’intérieur de la zone source. Le taux annuel de dépassement de l’accélération cible est obtenu de la même manière que dans la méthode de Cornell-McGuire.  .g. Une grille est définie centrée sur le site. L’idée était déjà évoquée par Bender & Perkins (1993) : calculer un aléa plus proche de la sismicité passée et s’affranchir des limites rigides des zones (éviter que deux points limitrophes situés dans deux zones voisines aient des estimations d’aléa très différentes). La sismicité n’est plus supposée uniforme dans des polygones. Après une présentation de la méthode.1 Un modèle de sismicité plus proche du catalogue La méthode de Woo se distingue de la méthode de Cornell-McGuire par le modèle de sismicité. Woo (comme d’autres. 9.1. e. Toutes les estimations d’aléa de ce chapitre sont effectuées au PGA. Molchan et al. tenant compte du caractère groupé de la répartition dans l’espace des séismes. à partir de la relation d’atténuation et en sommant les contributions des points de la grille. La méthode de Woo apparaît comme une alternative à la méthode de Cornell-McGuire dans les régions à sismicité modérée où l’approche probabiliste par faille n’est pas envisageable. Les impacts quantifiés sont comparés aux résultats basés sur la méthode de Cornell-McGuire. une étude d’impact des choix de paramètres est menée.Chapitre 9. Il propose un modèle de sismicité plus proche du catalogue de sismicité.

dans des régions fortement sismiques (Japon par exemple) à partir de magnitudes 5. Dans le contexte PSHA.0] (9. 2000).5 − 2.2) (9. Les fonctions kernels de lissage considérées sont des fonctions de densité spatiales. 1994) et le kernel de Vere-Jones (Kagan & Jackson.1) (9.8. La probabilité d’occurrence de α chaque séisme est répartie dans l’espace autour de l’épicentre. Kagan & Jackson (1994. Par ailleurs. Ils travaillent sur un catalogue mondial. Afin de rendre compte du caractère plus groupé des petites magnitudes par rapport aux grandes.4) avec rs le paramètre d’échelle. Les paramètres des fonctions kernels sont calculés à partir de méthodes statistiques sur le catalogue de sismicité. où α est lié à la dimension fractale D. elle propose une décroissance entre r13 et r14 selon le choix du paramètre λ (il contrôle le degré de lissage spatial) : λ−1 1 r2 −λ K(r) = (1 + 2 ) 2 π rs rs avec λ ∈ [1. un kernel en 1/r (Kagan & Jackson.0 environ sont utilisées. Dans un contexte de sismicité intraplaque. le critère de sélection des paramètres est fonction des résultats de prédictions. Ils utilisent deux types de kernels indépendants de la magnitude. elles supposent une décroissance du taux de sismicité en r1 . Woo propose d’utiliser la fonction kernel de Vere-Jones en faisant varier le paramètre rs avec la magnitude. Dans un contexte de PSHA. 2000) calculent des cartes de taux de sismicité pour établir des cartes de prédictions. 2000). les magnitudes supérieures à 4. La seconde est la fonction kernel de Vere-Jones (1992). Cao et al. La première est une fonction en 1/r tronquée en-dessous d’une certaine distance minimale Rmin et au-dessus d’une certaine distance maximale Rmax : 1 0 ≤ r ≤ Rmin Rmin 1 K(r) = Rmin ≤ r ≤ Rmax ri K(r) = 0 Rmax ≤ r K(r) = (9.3) avec r la distance épicentrale. MÉTHODE DE WOO De nombreuses études statistiques démontrent la répartition dans l’espace des séismes selon une géométrie fractale (par exemple Kagan & Jackson (1991)). (1996) applique la méthode de Frankel (1995) et lisse les taux de sismicité cumulés comptabilisés par cellules de 10×10km2 au moyen de fonctions kernels gaussiennes et en 1/r. Les kernels sont utilisés pour lisser la sismicité dans des contextes différents. Woo (1996) propose que rs augmente de manière exponentielle avec la magnitude :  . les magnitudes sont modérées et la quantité d’événements disponibles est bien inférieure aux catalogues étudiés par Kagan & Jackson (1994.♦9.

x) est calculée. de MM IN à la magnitude maximale du catalogue de sismicité (MM AX ).rs (m) = Hekm (9. x)λ(m. une carte de taux de sismicité est calculée. x − xi ) T (m) (9. x)∆2 (9. xi la position d’un épicentre et K(m.5) Selon lui. x) une fonction kernel de lissage.7) Il est par conséquent nécessaire. Le taux annuel de dépassement du niveau cible est obtenu en sommant les contributions de toutes les grilles : MM AX λ(A ≥ A ) = m=MM IN ∗ λ(A ≥ A∗ |m) (9.6) avec x la position du noeud de la grille. Le paramètre rs est alors appelé la «bande-passante» du kernel . Le calcul de la probabilité de dépassement du niveau cible A∗ s’effectue alors exactement comme dans la méthode de Cornell-McGuire (équation 1. Cette densité de probabilité est pondérée par l’inverse de la période de complétude de la magnitude afin d’obtenir un taux annuel de sismicité.2 Calcul probabiliste Pour chaque intervalle de magnitude. La grille de taux annuels est obtenue en sommant sur tous les séismes de magnitude m du catalogue. chaque noeud de la grille représente une surface d’aire ∆2 km2 et est équivalent à un point source.8). La fonction kernel fournit pour chaque séisme une densité de probabilité en chaque point de la grille. x) le taux annuel de sismicité en x dû aux N séismes de magnitudes m du catalogue : N λ(m. de choisir une magnitude minimale MM IN . une grille de taux annuel de sismicité λ(m. Soit λ(m. 9. x) = i=1 K(m. rs doit en effet correspondre à l’ordre de grandeur de la faille responsable d’un séisme de magnitude m. plus rs augmente et plus le lissage est fort. Les contributions de tous les points sources sont sommées sur la grille : λ(A ≥ A∗ |m) = x P (A ≥ A∗ |m. comme dans la méthode de Cornell.8)  . Soit ∆ le pas de la grille. Pour chaque magnitude m. Les grilles de taux de sismicité sont calculées par intervalle de magnitude.1.

♦9.2.2 9. N) (9.2.9) (9. lisse plus fortement que le kernel E les magnitudes 4.5 dans cette étude.10) Le paramètre λ a une influence sur la fonction kernel moindre par rapport au choix de la bande passante rs (Woo.. 2001). plus la surface autour de l’épicentre sur laquelle est répartie la probabilité d’occurrence est large (les probabilités diminuent à proximité de l’épicentre et augmentent loin du site)..0. 2002a).0 et 5.55m (Espagne. Les deux autres lissages utilisés sont des fonctions Vere-Jones (équation 9. Le kernel F.0 et 7.6m rs (m) = 0. et des domaines de variation des paramètres les caractérisant est indispensable. Les paramètres Rmin et Rmax sont fixés à 10 et 100 km. Kagan & Jackson (2000) reconnaissent qu’il n’existe pas de modèle d’occurrence complet des séismes à ce jour et que les kernels spatials et temporels utilisés dans leur prédiction reposent sur une série d’arguments statistiques. 2001) avec les bandes passantes suivantes : rs (m) = 1.1 et 9.048e1. sur les conseils de G. Cependant.1 en 2D et sur la figure 9.340e0. Une étude exhaustive des fonctions kernels envisageables pour la France. Trois fonctions kernels sont donc appliquées au catalogue de sismicité français..  . La première est la fonction en 1/r indépendante de la magnitude (kernel F.2.4). expert scientifique du projet. E) (Norvege. physiques mais aussi intuitifs (ad hoc). dans le cadre de cette première étude. La fonction est représentée sur la figure 9.1. Le kernel E est représenté pour quatre magnitudes (4. équation 9. Le kernel N lisse beaucoup plus fortement que les kernels E et F les magnitudes supérieures ou égales à 5. Plus la magnitude augmente.0 à 7. Woo. et inversement moins fortement les magnitudes 6. Elle est utilisée lors de l’application de la méthode de Woo dans le cadre de la révision du zonage français (Martin et al.0) sur les figures 9. MÉTHODE DE WOO 9.0. nous avons choisi de tester les kernels utilisés dans trois applications récentes de la méthode de Woo en France.1 Application Choix des fonctions kernels Le choix de la fonction kernel adaptée aux données françaises et sa paramétrisation est très délicat. il est fixé à 1. 1996.1 en 3D. en Espagne et en Norvège.1). Molina et al. indépendant de la magnitude. utilisées lors d’une application de la méthode de Woo en Norvège et en Espagne (Molina et al.0.

V−JE M=6.V−JN 10−100 Densité de probabilité 10 −5 10 −6 10 −7 10 −8 0 20 40 60 Distance (km) 80 100 120 F IG . courbes continues : kernels Vere-Jones E pour 4 magnitudes .  .V−JN M=5. 9. courbe continue avec cercles : kernel F en 1/r indépendant de la magnitude .V−JN M=6.V−JE M=5. tirets : kernels Vere-Jones N pour 4 magnitudes (cf. texte).10 −3 10 −4 M=4.V−JE M=7.V−JN M=7.V−JE M=4.1 – Superposition des trois fonctions kernels utilisées .

Rmax=100 a=1.k=0.5.048.H=1.55 x 10 3 Densité de probabilité −4 x 10 8 −4 F 2 Densité de probabilité 6 N M=4.5 0 100 E M=5.H=1.0 4 1 2 0 100 50 0 −50 Distance −100 −100 Distance a=1.H=0.6.5 2 1.5.H=1.7.  .H=1.k=0.0.0 2.6 −50 50 0 100 0 100 50 0 −50 Distance (km) −100 −100 Distance (km) a=1.2 – Fonctions kernels utilisées : F. (bandes passantes : équations 9.0.34.6 −50 50 0 100 x 10 8 Densité de probabilité −4 x 10 3 Densité de probabilité −4 6 E M=4.5.0 Densité de probabilité E 6 M=7.0. N (pour M =4.5.♦9.5 1 0.k=0.k=0.5.0) et E (pour M =4.9 et 9.34.10). MÉTHODE DE WOO indépendant de M−Rmin=10.34.6 −50 50 0 100 x 10 8 Densité de probabilité −5 x 10 8 −5 6 E M=6.k=1.0 4 4 2 2 0 100 50 0 −50 Distance (km) −100 −100 Distance (km) −50 50 0 100 0 100 50 0 −50 Distance (km) −100 −100 Distance (km) −50 50 0 100 F IG .0 4 2 0 100 50 0 −50 Distance (km) −100 −100 Distance (km) a=1.34. 9.5.0).6 −50 50 0 100 50 0 −50 Distance (km) −100 −100 Distance (km) a=1.

pour comparer les résultats des deux méthodes.2.3. Les contributions à l’aléa au-delà de 100-120 km du site ne sont donc pas prises en compte.0). La grille des taux de sismicité centrée sur le site est un carré de 200 km de côté. Les séismes situés à moins de 400 km du site sont pris en compte pour le calcul des  . Ces sites sont reportés sur la carte 9. ainsi que les épicentres des séismes inclus dans les périodes complètes (M ≥ 4. avec un pas de 5 km. sites 19 ou 30) et site éloigné des épicentres (par exemple sites 10 ou 18). séismes inclus dans les périodes complètes. La localisation de chaque site par rapport à la distribution des épicentres peut ainsi être appréciée . 52 51 3 50 49 4 8 6 48 Latitude 47 46 45 10 11 13 16 18 17 20 19 44 23 30 27 32 43 37 42 41 −6 −4 −2 0 2 Longitude 4 6 8 10 F IG . catalogue Scotti).3 – Localisation des sites par rapport à la répartition des épicentres (M ≥ 4. différents cas de figure se présentent : site localisé dans un nuage d’épicentres (par exemple. comme dans les études précédentes traitant de la méthode de Cornell-McGuire (chapitres 7 et 8). 9.0.9.2 Choix des sites et des paramètres du calcul probabiliste L’aléa est calculé aux centres des zones sources du zonage sismotectonique.

pour les trois paramètres en commun (tableau 9.-0. chapitre 7).5. le nombre de grilles de taux de sismicité générées est donc 10 × (MM AX − MM IN ). utilisées pour le calcul de l’aléa au site de coordonnées (43.29).1.0 . MÉTHODE DE WOO taux de sismicité aux noeuds de la grille. MM AX est en effet la magnitude maximale du catalogue de sismicité.2. la corrélation M-I Scotti est utilisée. Le pas en magnitude est fixé à 0.1. deux lissages alternatifs (E et F) sont considérés. les périodes de complétude du catalogue changent et par suite les magnitudes et les épicentres lissés diffèrent. Elles correspondent à quatre magnitudes (4.0 . 9. Lorsque la corrélation utilisée est modifiée. Le choix des paramètres de référence et alternatifs sont identiques aux études d’impact avec Cornell-McGuire.3 Exemples de grilles de taux de sismicité Sur la figure 9. 4. Par ailleurs.0. des études d’impacts des choix des paramètres peuvent être menées exactement comme pour la méthode de Cornell-McGuire (notée C-M dans la suite). les magnitudes sont prises en compte à partir de 3. Le kernel F indépendant de la magnitude lisse plus fortement que le kernel E les magnitudes 4. la fonction de lissage.5) et deux fonctions de lissage E et F.0 . Par rapport aux études d’impact avec Cornell-McGuire. le choix de la magnitude maximale ne se pose plus. A l’inverse.5 et les prédictions de la relation d’atténuation ne sont pas tronquées.4 sont représentées des grilles de taux de sismicité lissés.4 Etudes d’impacts des choix de paramètres Afin de mettre en évidence les paramètres qui contrôlent les estimations d’aléa dans la méthode de Woo. Pour une magnitude donnée. Tableau 5. Les paramètres analysés dans le cas de la méthode de Woo sont les suivants : la corrélation intensité-magnitude.1).0 . Dans le modèle de référence.5 . catalogue Scotti). Dans la méthode de Woo.4. la profondeur de chaque séisme est celle de la zone source du zonage sismotectonique (utilisé dans la méthode de Cornell-McGuire) à laquelle il appartient. Les taux de sismicité correspondent aux probabilités d’occurrence pondérées par l’inverse des périodes complètes de chaque séisme (cf. Le modèle de référence n’est pas le  .5. la fonction de lissage est donc le paramètre supplémentaire. 9. centre de la zone source sismotectonique n◦ 30. l’échelle du graphique est identique pour les deux kernels E et F. cf. L’impact correspond à la différence entre l’accélération de référence et l’accélération alternative.♦9. divisée par l’accélération de référence (et exprimée en pourcentages. la magnitude minimale MM IN contribuant à l’aléa et la troncature des prédictions de la relation d’atténuation.5 et 5. la sismicité est lissée avec la fonction de kernel F. Par ailleurs.2. Les séismes utilisés sont également reportés sur les cartes. et moins fortement la magnitude 5.5.

la hiérarchie des impacts de choix de paramètres est globalement conservée : – L’impact du choix de la fonction de lissage N augmente (jusqu’à 60%). La hiérarchie exacte des impacts de paramètres varie selon le site. Les impacts du choix de la cor . Le choix de la fonction kernel E engendre une baisse des accélérations pour 15 sites sur 17 à 475 ans et 14 sites à 10000 ans. 13 et 32) . 10. pour les autres sites. les impacts sont compris entre 10 et 30%. pour les petites magnitudes le lissage F lisse moins que le lissage E. Ce kernel n’est plus envisagé dans la suite de l’étude.1 – Paramètres des études d’impact : modèle de référence et valeurs alternatives. plus conservatif et les impacts peuvent être négatifs. sites 3. 11. Ainsi. La fonction kernel N lisse beaucoup plus fortement que les kernels E et F. l’impact du choix de lisser avec le kernel E reste globalement stable. comme dans l’étude basée sur la méthode de C-M. page 136).5 4. la magnitude minimale est le paramètre le moins influent (impact inférieur à 8%). A 475 ans. 8 et 17. 10.5 Troncature non +2σ TAB . Les résultats d’impacts de paramètres liés à la méthode de Woo sont comparés aux résultats d’impacts de paramètres liés à la méthode de Cornell-McGuire sur la figure 9.6. à 475 ans : ´ – Le lissage N produit des accélérations beaucoup plus faibles que le lissage F de reférence. et engendre une baisse des accélérations extrêmement forte.Paramètre Référence Alternative(s) Corrélation M-I Scotti Levret Lissage F E et N Mmin 3. les sites pour lesquels la magnitude minimale joue un rôle clef sont les mêmes (sites 3. à l’exception du site 27 (impact faible avec Woo). A 10000 ans. l’impact du choix du lissage atteint 45% pour les sites des zones 4. pour les grandes magnitudes c’est l’inverse. 11. Les impacts des choix de paramètres sont calculés à 475 et 10000 ans (figure 9. – Le choix de la magnitude minimale n’a aucun impact sur les estimations d’accélérations. cependant les paramètres clefs peuvent être globalement mis en évidence. L’explication des influences différentes des lissages E et F (référence) n’est pas immédiate.5. 9. – Les impacts des choix de tronquer et de la corrélation augmentent légèrement (impacts entre 20 et 30%) et sont très comparables. – Le choix de la magnitude minimale a un impact significatif pour cinq sites (entre 12 et 17%. Le choix du lissage E a un impact moins fort : les impacts varient entre -2% et 22%. 13 et 32). – Le choix de la corrélation est comparable à celui de la troncature.

Le choix de la magnitude minimale n’a plus aucun effet dans les deux méthodes. pour d’autres sites l’inverse est observé : il n’y a pas de systématisme.3 Conclusions et analyses futures Les choix de quatre paramètres sont explorés pour chacune des méthodes de Woo et Cornell. Le calcul de la probabilité de dépassement des niveaux cibles est identique dans les deux méthodes. magnitude minimale et troncature). Pour les deux méthodes. ainsi que les moyennes sont indiquées. mais les modèles de sismicité sont différents. 9. En revanche. Ce résultat est inattendu. Pour certains sites les accélérations moyennes calculées par Woo sont plus élevées que celles calculées par Cornell. magnitudes minimales et maximales. les modèles de sismicité (scénarios magnitudedistance) des méthodes de Woo et Cornell-McGuire sont très différents. divisée par la valeur maximale et exprimée en pourcentages. Les niveaux d’accélérations peuvent être comparés sur la figure 9.7. l’impact du choix de la corrélation est plus fort et plus stable d’un site à l’autre dans la méthode de Woo que dans celle de C-M. le quatrième diffère : magnitude maximale dans Cornell. A 10000 ans. les calculs sont effectués pour toutes les combinaisons possibles des quatres paramètres : 24 valeurs d’aléa sont obtenues pour chaque site.♦9. Les distributions des accélérations à 475 et 10000 ans sont reportées sur la figure 9. Les distributions d’accélérations obtenues par les deux méthodes sont très similaires. Les variabilités totales issues des arbres logiques sur Woo et Cornell sont par ailleurs calculées (tableau 9. cf. l’impact maximal est cependant retrouvé au site 11.2. Trois de ces paramètres sont communs (corrélation. le choix de la troncature (courbes bleues) produit des impacts sur les estimations quasiment identiques pour les deux méthodes. Sur le même graphique sont superposés les résultats de l’arbre logique sur la méthode de Cornell-McGuire combinant quatre paramètres (corrélation. la variabilité totale est globalement du même ordre de grandeur à 475 et 10000 ans. MÉTHODE DE WOO rélation sont moins corrélés. Les impacts individuels des choix de troncature et de magnitude minimale sont très proches dans les deux méthodes. Les valeurs minimales et maximales.2) : la variabilité totale est la différence entre valeur maximale et valeur minimale. Le choix de la corrélation a  . Les variabilités issues de la méthode de Woo sont légèrement plus élevées que celles issues de la méthode Cornell-McGuire. 9. chapitre 7).5 Variabilité totale Un arbre logique est finalement construit. troncature. Les impacts de la troncature sont en revanche à nouveau similaires.7. lissage kernel dans Woo.

calculées à partir des arbres logiques sur les méthodes de Woo et de Cornell-McGuire. pour les périodes de retour 475 et 10000 ans (la variabilité est la différence entre les accélérations maximale et minimale des distributions.2 – Variabilités totales (en %) des estimations d’aléa aux 17 sites.Zone 3 4 6 8 10 11 13 16 17 18 19 20 23 27 30 32 37 VW oo 475 43 49 50 40 51 64 48 42 45 49 42 39 50 47 45 42 51 VW oo 10000 42 48 50 43 47 56 41 43 48 48 48 47 52 48 51 41 50 VCornell 475 67 27 42 38 42 57 44 31 32 40 41 36 39 44 37 44 38 VCornell 10000 57 30 45 42 42 50 38 37 43 41 48 44 44 38 45 38 38 TAB .  . 9. divisée par l’accélération maximale).

Il sera également important dans le futur de quantifier l’impact des incertitudes de catalogues (détermination des localisations et magnitudes) sur les estimations de Woo.♦9. les incertitudes sur les magnitudes et sur les localisations sont prises en compte à l’intérieur du calcul probabiliste. Il est d’ailleurs étonnant que les distributions d’accélérations issues des arbres logiques sur Woo et C-M coincident autant. Les techniques mises en place dans le cadre de la méthode de Cornell peuvent être appliquées directement à la méthode de Woo. la méthode de Woo pourrait être utilisée dans les zones où la méthode de Cornell-McGuire ne peut s’appliquer (impossibilité de modéliser une courbe de récurrence en raison du faible nombre de séismes). le passage d’une zone dans l’autre n’est pas brutal comme dans Cornell-McGuire mais progressif. MÉTHODE DE WOO par ailleurs un impact plus fort lorsque la méthode de Woo est appliquée. (2001) conclut au contraire que la méthode de Woo sous-estime l’aléa par rapport à Cornell-McGuire et qu’un taux de sismicité de «background» doit être ajouté. (2001) permet cependant une première analyse de la méthode de Woo et la mise en évidence de paramètres contrôlant les estimations. De plus. Les modèles de récurrence calculés dans la méthode de CornellMcGuire pallierait à ce «manque» de séismes. L’impact du choix de ces paramètres sur les estimations d’aléa devra également être analysé. Une analyse du catalogue de sismicité français sera indispensable pour déterminer des paramètres de fonctions kernels adaptées à la répartition des séismes. Les études de déagrégation permettront de comprendre l’origine des contributions et les impacts des choix de paramètres. Des analyses de déagrégation devront permettre de comprendre l’origine des contributions à l’aléa dans la méthode de Woo et d’éclairer les différences ou les ressemblances entre les deux modèles de sismicité.  . L’utilisation des kernels de Martin et al. du point de vue de la variabilité des résultats due au choix des paramètres. Ces deux techniques pourront être comparées. (2002a) et Molina et al. La méthode de Woo résout le problème de l’estimation de l’aléa des points en bordure de zones. D’autre part. les paramètres de la grille (pas et extension) sont fixes dans toute cette étude. Néanmoins. L’étude de Molina et al. Dans les études de Molina et al. (2001). les incertitudes sur les estimations d’aléa sont aussi grandes dans la méthode de Woo que dans celle de Cornell. Ces observations ne sont pas du tout retrouvées dans nos estimations d’aléa en France. Ils expliquent cette sous-estimation par un catalogue de sismicité couvrant une période temporelle trop courte et non représentative de la sismicité des régions étudiées. les résultats issus des deux méthodes probabilistes sont au contraire cohérents.

266e−07 M=5. en 1/r.834e−05 M=4. lissage E : Vere-Jones (H=1.0001246 44 E M=4 . 9.5 42 −2 0 42. 3.6) et lissage F : indépendant de M. 0.  .5 43.256e−06 M=5 .5 Latitude 43 42.5 43.5 42.093e−05 F 43.M=4 . 2.5 . le taux annuel maximal est indiqué.5 43.5 43 1 Latitude 43 0.5 42 −2 44 E 0 −1 0 1 42 −2 44 −1 0 1 0 M=4.5 0 42.5 .k=0.708e−06 F 43. 1. 9.5 42 −2 44 E −1 0 1 42 −2 44 −1 0 1 0 M=5.5 43.5 42 −2 0 −1 0 Longitude 1 −1 0 Longitude 1 F IG .5 1 −1 0 1 0 42 −2 44 −1 0 1 0 M=5 .956e−05 44 F 1 1 43.5 1 Latitude 43 42.5 2 2 Latitude 43 43 42. la grille de 200×200 km2 est centrée sur le site (point magenta).5 . 1.5 .289e−06 F 1 43.5 0.4 – Grilles de taux annuels de sismicité par magnitude M.5 42 −2 44 E 43 42.34 .5 43 42. 1. 3.

5/4.0 Impact (%) Impact (%) Site 3 4 6 8 10 11 13 16 17 18 19 20 23 27 30 32 37 Site 40 35 30 Impact (%) 40 10000 ans 35 30 25 20 15 10 5 0 10000 ans Impact (%) 25 20 15 10 5 0 3 4 6 8 10 11 13 16 17 18 19 20 23 27 30 32 37 Site 3 4 6 8 10 11 13 16 17 18 19 20 23 27 30 32 37 Site F IG . catalogue de sismicité et troncature de la relation d’atténuation.5 troncature ∞/+2σ lissage F/E 40 35 30 25 20 15 10 5 0 475 ans correlation S/L Mmin 3. MÉTHODE DE WOO 70 60 50 40 30 20 10 0 −10 3 4 6 8 475 ans Mmin 3. 9.5/4.5 lissage F/N lissage F/E catalogue S/L troncature ∞/+2σ Impact (%) 70 60 50 40 30 20 10 0 −10 10000 ans Impact (%) 10 11 13 16 17 18 19 20 23 27 30 32 37 3 4 6 8 10 11 13 16 17 18 19 20 23 27 30 32 37 Site Site F IG .5/4.6 – Comparaison des impacts individuels des choix de paramètres dans les méthodes de Woo (à  gauche) et Cornell-McGuire (à droite) à 475 et 10000 ans. fonction kernel de lissage. 9.♦9. . 40 35 30 25 20 15 10 5 0 3 4 6 8 10 11 13 16 17 18 19 20 23 27 30 32 37 475 ans corrélation S/L Mmin 3.5 troncature ∞/+2σ Mmax 6.5/7.5 – Impacts à 475 ans et à 10000 ans dus au choix de 4 paramètres dans la méthode de Woo : magnitude minimale.

et de l’arbre logique sur la méthode de Cornell-McGuire (en noir). aux centres des 17 zones sources. 9.  .350 475 ans 300 250 Accélération (gal) 200 150 100 Moyenne Woo Min/Max Woo Moyenne Cornell Min/Max Cornell 50 0 3 4 6 8 10 11 13 16 17 18 19 20 23 27 30 32 37 800 700 600 Accélération (gal) 10000 ans 500 400 300 200 100 0 Moyenne Woo Min/Max Woo Moyenne Cornell Min/Max Cornell 3 4 6 8 10 11 13 16 17 18 19 20 23 27 30 32 37 F IG .7 – Distributions des accélérations calculées à partir de l’arbre logique sur la méthode de Woo (en vert).

♦9. MÉTHODE DE WOO  .

Chapitre 10. Complémentarité des méthodes probabilistes et déterministes
L’estimation de l’aléa sismique en un site au moyen de méthodes déterministes conduit à identifier un ou plusieurs scénario(s) magnitude-distance et à calculer l’accélération correspondante au site. Les méthodes déterministes n’apportent pas d’information sur le temps de retour associé à ce mouvement du sol. Les méthodes probabilistes peuvent alors être associées aux estimations déterministes, en calculant les temps de retour des accélérations déterministes. Ce chapitre illustre la complémentarité possible des deux approches, la méthode déterministe employée est simple, cette estimation de périodes de retour est uniquement un exercice.

10.1 Accélération maximale observée dans l’histoire
La méthode déterministe utilisée est la suivante : pour un site donné sont calculées les accélérations engendrées au site par l’ensemble des séismes du catalogue ; l’accélération maximale est ensuite sélectionnée : c’est l’accélération maximale observée dans l’histoire. Le catalogue de sismicité total est considéré (de 1356 à 1999, périodes non complètes comprises, catalogue Levret). Les accélérations A sont calculées avec la relation d’atténuation Berge-Thierry et al. (2003) en prenant en compte un écart-type (log10 A = log10 A+1σ, cf. éq. 4.1) et avec une profondeur de 10 km. Ces accélérations déterministes sont calculées aux 17 sites étudiés dans les chapitres précédents (centres des 17 zones sources sismotectoniques). Elles sont reportées dans le tableau 10.1 et sur la carte de la figure 10.1. Les séismes de magnitude supérieure ou égale à 6.0 sont par ailleurs indiqués. Les accélérations déterministes ainsi déterminées sont comprises entre 70 et 579 gal. Un niveau d’accélération de 579 gal est obtenu pour le site 32 dans l’Est des Pyrénées, il est engendré par un séisme localisé juste sous le site (cf. carte 10.1). Ces valeurs correspondent aux hypothèses choisies : une profondeur des séismes à 10 km et une accélération à un écart-type au-dessus de la valeur moyenne. Les valeurs les plus faibles (< 150 gal) sont obtenues pour les 

♦10. COMPLÉMENTARITÉ DES MÉTHODES PROBABILISTES ET DÉTERMINISTES

sites 3 (Belgique), 6 (Bretagne Nord), 11 (Limagne), 16, 18, 23 (Alpes) et 27 (Pyrénées Nord). Les accélérations les plus fortes (> 200 gal, sans compter le site 32) sont obtenues pour les sites 4 (Fossé Rhénan Supérieur), 17 (Valais), 20 (Ivrea Sesia) et 30 (Pyrénées Occidentales Nord). Cette méthode déterministe est très simple, les localisations et magnitudes des scénarios considérés sont directement celles des séismes du catalogue. Les incertitudes sur les localisations épicentrales et les déterminations de magnitude des séismes ne sont pas prises en compte. La méthode déterministe à la base des estimations d’aléa dans le domaine du nucléaire en France est plus complexe. Un zonage sismotectonique est utilisé. Les séismes les plus pénalisants s’étant produits dans la zone du site sont déplacés et positionnés directement sous le site ; tandis que les séismes les plus pénalisants s’étant produits dans une zone voisine sont déplacés sur la limite de zone, au point le plus proche du site.

52 51 3 50 49 6 48 4

8

300 250

Latitude

47 46 45

10 11

13 17 16 18 20 19

200 150 100 50

44 23 43 42 41 −6 30 37 32 27

−4

−2

0

2

4

6

8

10

Longitude

F IG . 10.1 – Accélérations calculées avec une méthode déterministe simple : accélération maximale observée dans l’histoire (catalogue Levret, profondeur de 10 km, +1σ sur la valeur prédite par la loi d’atténuation) ; astérisques : séismes de magnitude ≥ 6.0 du catalogue [1356-1999].



zone 3 4 6 8 10 11 13 16 17 18 19 20 23 27 30 32 37

A (gal) 70 250 124 175 152 71 180 132 264 80 164 256 111 130 264 579 157

Tinf (années) 57 1596 708 475 770 153 388 97 305 47 90 689 58 175 368 37037 242

Tsup (années) 133 4243 3758 1450 3758 625 1106 220 1075 146 325 3873 173 664 2446 520833 879

TAB . 10.1 – Accélérations (A) calculées avec une méthode déterministe simple (cf. carte 10.1) et estimation des périodes de retour correspondantes minimale et maximale fournies par la méthode probabiliste de Cornell-McGuire (paramètres dans le tableau 10.2).

10.2 Estimation des périodes de retour des accélérations déterministes
A partir de la méthode probabiliste de Cornell-McGuire, un intervalle est estimé pour la période de retour de chaque accélération déterministe, aux 17 sites. Au chapitre 7, quatre paramètres clefs du calcul probabiliste ont été identifiés : corrélation magnitude-intensité, magnitudes minimales et maximales et troncature des prédictions de la relation d’atténuation. Le domaine de variation de ces paramètres a par ailleurs été déterminé afin de quantifier les impacts des choix de paramètres sur les estimations d’aléa et la variabilité totale engendrée. La combinaison des paramètres du modèle de référence (le plus conservatif) est réutilisée ici pour estimer la borne supérieure de l’intervalle (tableau 10.2, combinaison 1). La combinaison de paramètres alternatifs la moins conservative est utilisée pour estimer la borne inférieure de l’intervalle (combinaison 2, tableau 10.2). Le tableau 10.1 présente les périodes de retour correspondant aux accélérations déterministes des 17 sites. Le catalogue de sismicité, utilisé pour le calcul des accélérations maximales détermi

un intervalle de valeurs possibles est calculé tenant compte des incertitudes liées à l’estimation probabiliste. le choix d’ajouter un écart-type à la valeur moyenne de la relation d’atténuation est purement arbitraire.2 – Paramètres utilisés pour le calcul de Tinf et Tsup . 10. chapitre 7) mais qui a connu un ou plusieurs séismes historiques forts. COMPLÉMENTARITÉ DES MÉTHODES PROBABILISTES ET DÉTERMINISTES Paramètre Combinaison 1 (Tinf ) Combinaison 2 (Tsup ) Corrélation M-I Scotti Levret Mmin 3.1.5 4. 10. 6.  . tableau 6.3 Conclusions Cet exemple illustre la complémentarité entre les approches probabiliste et déterministe. nistes. pour chaque accélération possible. Il n’est cependant pas complet sur toute cette période temporelle. L’incertitude sur l’estimation de la période de retour est très large. L’accélération déterministe est ici l’accélération maximale ressentie au site.5 Mmax 7.2.5 Troncature non +2σ TAB . la période maximale est 2 à 14 fois plus grande que la période minimale. chapitre 7). tableau 7. Une autre manière de combiner les deux approches consisterait à tenir compte également des incertitudes sur l’accélération déterministe et fournir. l’intervalle des périodes de retour probabilistes. couvre 650 ans (1356-1999). Ce cas de figure illustre la difficulté d’une estimation de l’aléa sismique dans une zone peu active (cf. en prenant en compte tous les séismes du catalogue de sismicité. 20 et 32. Le calcul probabiliste fournit une estimation de la période de retour de l’accélération déterministe. Les bornes inférieures des intervalles indiquent une période de retour de l’accélération déterministe supérieure à la longueur du catalogue pour les sites 4. Ces estimations sont un outil d’aide à la décision pour l’expert en charge de l’estimation de l’aléa sismique en un site. Les périodes de retour de l’accélération 579 gal (site 32) sont extrêmement grandes : entre 37000 et 520000 ans.♦10. même pour les magnitudes les plus élevées (cf.0 6. L’estimation de l’accélération déterministe comporte également des incertitudes. 10.

le choix de la magnitude maximale n’a que peu d’impact sur les estimations.5 pour modéliser la récurrence entraîne une forte augmentation des valeurs de b (soit une diminution des taux de récurrence). même aux très grandes périodes de retour (variabilité inférieure à 8% à 475 ans et 14% à 10000 ans). La modélisation de la courbe de Gutenberg-Richter sur deux intervalles différents met en évidence. L’impact de la troncature augmente lorsque la période de retour s’allonge (de l’ordre de 20% à 475 ans et 25% à 10000 ans). D’autres enfin sont directement liées aux modèles utilisés dans le calcul de l’aléa probabiliste : magnitude minimale et troncature des prédictions de la relation d’atténuation. à toutes les périodes de retour. La variabilité totale correspondant aux combinaisons multiples de ces quatre paramètres est de l’ordre de 40%. l’attribution de magnitudes maximales dans des zones où les failles actives sont très mal connues. dans le Sud des Alpes. inclure des magnitudes inférieures à 3. Cette variabilité ne pourra pas être réduite. pente de la courbe de récurrence. l’existence de deux catalogues de sismicité basés sur deux corrélations intensité-magnitude . Les impacts individuels des choix de quatre paramètres requis par la méthode de Cornell-McGuire sont ensuite quantifiés et comparés. Cette étude conduit à ne pas prendre en compte les magnitudes inférieures à 3. Certaines sont liées au contexte de sismicité modérée français (peu de données disponibles) : la dépendance de la b-value. à 475 et 10000 ans. ces études démontrent l’importance du choix de la magnitude minimale pour les faibles périodes de retour (<1000 ans) dans les zones de faible sismicité caractérisées par une b-value forte (variabilité de 20% sur les estimations). une rupture de la loi puissance.5 pour le calcul des paramètres de sismicité dans l’estimation probabiliste de l’aléa. avec l’intervalle de magnitude utilisé . La génération de catalogues synthétiques permet de quantifier entre 5 et 25% la variabilité des estimations d’aléa due aux incertitudes sur les données de base (déterminations de magnitude et de localisation des séismes). A l’inverse. Globalement. les choix de la corrélation et de la troncature de la relation d’atténuation (+2σ) engendrent les impacts les plus forts sur l’aléa. Les recherches en cours. Au PGA. D’autres incertitudes sont propres aux données sismologiques historiques et instrumentales : les incertitudes dues aux déterminations de magnitude et de localisation des séismes. Dans cette zone.Conclusions et perspectives Différents types d’incertitudes inhérentes au calcul de l’aléa probabiliste sont analysés dans cette thèse. elle est sous-jacente à toute estimation de l’aléa. à la fois sur l’établissement de corrélations intensité-magnitude régionales  .

♦ CONCLUSIONS ET PERSPECTIVES (Bakun & Scotti. Ces déagrégations fournissent par ailleurs une information majeure : l’estimation de l’aléa sismique en France est contrôlée par des sources localisées à moins de 70-80 km à 475 ans et 50-60 km à 10000 ans (pour des estimations sans troncature de la relation d’atténuation). Cette recherche d’un scénario magnitude-distance n’est pas abordée dans le cadre de cette étude. menées sur trois autres fréquences (1. La déagrégation met ainsi en évidence un effet systématique : plus la période de retour augmente. lorsque les contributions se répartissent sur une large gamme de magnitudes et de distances. il semble cependant difficile. elle est complètement bouleversée à 1 et 2 Hz : le choix de la magnitude minimale n’a plus d’impact. troncature et magnitude maximale. 2 et 5 Hz). Les études d’impact. des bornes supérieures établies sur des raisonnements physiques sont nécessaires. expliquent directement les rôles. L’association d’études d’impacts individuels des choix de paramètres et d’études de déagrégation rend totalement transparent le calcul probabiliste. devraient permettre de réduire la variabilité des estimations d’aléa. montrent que les résultats au PGA ne peuvent se généraliser. des paramètres étudiés. Les analyses de déagrégation éclairent les études d’impacts : les répartitions des contributions en distance. Si la hiérachie des influences de paramètres établie au PGA est valide à 5 Hz. Les études de déagrégation sont en général utilisées pour déterminer un scénario particulier magnitude-distance responsable de la contribution la plus forte (Bazzurro & Cornell. plus l’accélération considérée est élevée et plus la distribution des sources responsables se resserre autour du site. 1999). Par ailleurs. Connaître la variabilité totale des estimations d’aléa issue d’un arbre logique particulier n’apporte cependant qu’une information très partielle. 2003). Au vu des résultats obtenus pour la France. Les troncatures en multiple(s) d’écart-type au-dessus de la moyenne des logarithmes des accélérations sont arbitraires. de nombreuses études construisent des arbres logiques intégrant un certain nombre de choix et d’hypothèse différentes. seules les branches qui «parlent» doivent être introduites dans l’arbre logique. augmente vers les basses fréquences (60% à 1 Hz). due aux choix de corrélation. la magnitude maximale devient un paramètre clef du calcul de l’aléa. 2003) et sur la détermination d’une borne maximale au mouvement sismique engendré par un séisme (Restrepo-Velez & Bommer. Ce scénario est extrait des résultats de déagrégation quel que soit le cas de figure (au moyen de valeurs moyennes. La variabilité finale dépend complètement des branches introduites et reflète les choix pris.. D’autre part. 2003) sont dépendants de la fréquence. Globalement la variabilité totale des estimations. magnitude et écart à la valeur moyenne prédite par la relation d’atténuation. les coefficients de la relation d’atténuation utilisée (Berge-Thierry et al. selon les périodes de retour. de déduire un scénario particulier. Les impacts individuels des paramètres variant dans l’arbre logique doivent être estimés au préablable . Le scénario obtenu peut alors associer une distance et une magnitude qui n’ont pas participé au calcul. pour toutes les périodes de retour. médianes ou modales). L’arbre  .

l’impact du choix de tronquer les prédictions de la relation d’atténuation est identique : il est lié au mode de calcul de la probabilité de dépassement. basée sur la méthode probabiliste de Woo (1996). la complémentarité entre les approches probabiliste et déterministe est illustrée sur un exemple : l’estimation probabiliste des périodes de retour d’accélérations calculées avec une méthode déterministe. De plus. Ces études montrent clairement leurs rôles déterminants. conscients de leurs impacts. les six paramètres étudiés dans cette thèse doivent être pris en compte dans toute estimation de l’aléa. Les experts en charge de l’estimation de l’aléa sismique ont ainsi deux outils à disposition. Les estimations d’aléa tout au long de cette étude sont basées sur un seul zonage (Autran et al. 2003). le mouvement sismique à considérer pourra être choisi. La prise en compte de la dispersion du mouvement sismique est un élément déterminant dans toute méthode probabiliste d’estimation de l’aléa. A faible profondeur (de l’ordre de 5 km). sont surprenants : alors que le modèle de sismicité (les scénarios magnitude-distance qui contribuent) est très différent de celui proposé par la méthode de Cornell-McGuire.. De plus.. selon la nature et la durée de vie de l’installation à dimensionner.. Les cartes d’aléa probabilistes montrent à quel point les contours suivent les limites des zones sources. Un écart-type plus petit réduierait l’impact du choix de la troncature. étape commune aux deux méthodes. 2003) ne prend pas en compte la saturation du mouvement sismique à proximité de la source. En étant conscient des incertitudes associées aux deux types d’approches et des modèles sur lesquels elles reposent. adaptée au contexte intraplaque européen. un autre paramètre porteur d’une incertitude forte n’a pas été considéré : la profondeur des zones sources est fixe tout au long de l’étude. Les estimations d’aléa. Cependant. afin d’analyser d’autres paramètres du calcul probabiliste. La plupart des études de sensibilité dans les estimations d’aléa considèrent plusieurs zonages et relations d’atténuation. Ces analyses sont effectuées sur 17 sites. les études d’impact devront être reproduites avec une autre relation. Les profondeurs sont mal contraintes et les incertitudes sont fortes (au minimum 5 km. En ce qui concerne la France. La loi d’atténuation récemment publiée (Fukushima et al. l’aléa à l’intérieur d’une zone source est essentiellement contrôlé par  . devrait permettre de prendre en compte l’incertitude sur les profondeurs.. pour des profondeurs de zones sources fixées à 10 et 15 km dans l’étude). les estimations sont comparables. les niveaux d’accélération calculés sont probablement surestimés. délaissés à tort par nombre d’études. Par ailleurs. Ces incertitudes n’ont pas été quantifiées car la relation d’atténuation utilisée (Berge-Thierry et al. Des études de déagrégations doivent être menées pour comprendre l’origine des contributions dans la méthode de Woo. 1998) et une seule relation d’atténuation (Berge-Thierry et al. 2003).logique est un outil majeur pour l’estimation de l’aléa sismique. les centres des zones sources sismotectoniques sélectionnées. Nous avons admis zonage et relation d’atténuation. les études d’impacts seraient alors biaisées. il doit cependant être construit et interprété avec prudence. au vu de l’impact de la troncature des prédictions de la relation d’atténuation.

♦ CONCLUSIONS ET PERSPECTIVES la zone source elle-même. Ces résultats peuvent donc être généralisés à l’ensemble des sites géographiques contenus dans les limites des zones sources.  . Pour les sites localisés dans des zones où la méthode de Cornell-McGuire ne peut s’appliquer. le calcul de l’aléa pourrait être effectué avec la méthode de Woo (en déterminant les paramètres des fonctions de lissage sur le catalogue de sismicité français).

A NNEXES  .

 .

(1998). 10.  .2 – Zonage sismotectonique extrait de la publication Autran et al.F IG .

(1998) : identification des limites de zones (1).F IG . 10.3 – Extrait de Autran et al.  .

10. (1998) : identification des limites de zones (2).4 – Extrait de Autran et al.  .F IG .

 .

Am. Anderson & J. 1965.G.N. 70(1) :19–28. Seis.A. Evaluation probabiliste de l’aléa sismique sur le territoire national. J. Earthquake Engineering and Structural Dynamics. Res. Amelung & G. 1999a. J. 24 :467–490. 2001.. M. F. GeoEng 2000 conference. pages 76–416. 91(6) :1694–1703. K. Am.N. A probabilistic estimate of maximum acceleration in rock in the contiguous United States.. André. 19-24 November. S. Seism. Probabilistic seismic hazard analysis without the ergodic assumption. 25 :371–400. Bull. 153 . Abrahamson. Lett.. Bull. N. K. D. Simpson. R.J. 24 :507–510. Lett.G. Aki. & A.N. Ambraseys.Références bibliographiques N. & J.N. Perkins. 1996. pour l’obtention du Diplôme d’ingenieur de l’Ecole de Physique du Globe de l’université Strasbourg I. U. Seism. Detection of space and time heterogeneity in the completeness of a seismic catalog by a statistical approach : an application to the Italian area. Earthquake Engineering and Structural Dynamics. Camassi. E. Geophys. 43 :237–239. 1997. 1995. 2000.S. Brune. Australia. Bommer. 1976. Rapport de stage au BRGM de Marseille. Albarello.. Prediction of horizontal response spectra in europe. The prediction of peak ground acceleration in Europe.A. Res. Ambraseys. Anderson & J. 89(2) :456–467. Bulletin of the Earthquake Research Institute. Brune. T. Geological Survey Open-File Report. Maximum likelihood estimate of b in the formula logN=a-bM and its confidence limits. N. State of the practice of seismic hazard evaluation. Soc. Earthquake scaling laws for creeping and non-creeping faults. Rebez. 1999. Algermissen & D. 1999b. Methodology for using rocks in Nevada to test seismic hazard models. Soc. King.

W. and geodetic observations. Scotti. Lett. 1993. Cornell. Soc. W. Paris. Tang. Am. Electric Power Research Institute. 89 (2) :501–520.  . Goula. G. J... Ecole Polytechnique.K. Ph. 1987. 1999. Am. Mohammadioun. C. Soc. Beauval & O. 6ème colloque national AFPS.. O. Bender & D. Beauval & O. Geophys. Bull..C. Probabilistic seismic hazard assessment in France. Geophys. Maximum likelihood estimation of b values for magnitude-grouped data. Gariel.A. P. Treatment of parameter uncertainty and variability for a single seismic hazard map. N. Seism.BIBLIOGRAPHIE A. Probability concepts in engineering planning and design. France. Res.E. B. Bender & D. Earthquake Spectra. Cushing.1029/2003GL017576. 2003. Cushing. Blès. Palaiseau. 79 :199–204.. Res. 1983.S. John Wiley & Sons. SEISRISK III : A computer program for seismic hazard estimation. Ang & W. U. Soc. 73 :831–851. Seism. Bender. Dominique. B. 2003b. C. Combes. Perkins. 2454.L. Disaggregation of seismic hazard. Valensise. B. southeastern France) earthquake : A reappraisal based on macroseismic. Scotti. 1998. Bazzurro & C. Perkins. 2003a. Bull. EPRI NP-6389. Campbell. Terrier.H. J. Scotti. X. Seism. doi :10. 1989. Pino.1029/2002JB002348. Regional intensity attenuation models for France and the estimation of magnitude and location of historical earthquakes. J. Scotti. Proceedings of the 11th ECEE. & M. Baroux. Proceedings : Engineering characterization of smallmagnitude earthquakes. C. 108(9).M. Benjamin & Associates.M. seismological. Source parameters of the 11 June 1909. B. A. J. Lambesc (Provence. M. Am. Bender & K. Autran. Durouchoux. P. Bull.K. Journal of Seismology (submitted). Geological Survey Bulletin 1772. 1892. 30(17). doi :10. 1975. Bakun & O. Mapping b-values in France using two different magnitude ranges : possible non power-law behavior. Variabilité dans la modélisation de la récurrence des séismes et impact sur l’évaluation de l’aléa sismique en France. 9(2) :165–194. E. Part One : seismotectonic zonation.R. 1-3 juillet. B. A note on the selection of minimum magnitude for use in seismic hazard analysis. 2003. Volume I-Basic principles. A. & M. 6-11 Septembre. 1989.

Soc.C. Cao. 90(1) :1–21. Annexe A). 2002. Berge-Thierry. & M. Clément. Zoning versus faulting models in PSHA for moderate seismicity regions : preliminary results for the Tricastin nuclear site.c. Université Paris IX Dauphine. 7(2) :193–222. L.  .C. Soc.H. Scotti. Cramer. Beauval. Bull. J.2. Fukushima. M. Griot-Pommera. Campbell.D. Paris. Rapport IPSN/DPRE/SERGD/00-53 (CD-ROM.. NUREG/CR-5250. 1997. Savy. 1987. Engineering seismic risk analysis. Nouveau zonage sismique de la France.B. Méthode de détermination des spectres horizontaux et verticaux adaptés au site dans le cadre de RFS 1. 58(1) :1583– 1606. Seismic hazard characterization of 69 nuclear power plant sites East of the Rocky Mountains. 1986. M. F. Thèse de Doctorat.F. T. and pseudo-absolute acceleration response spectra. K. Nuclear Regulatory Commission. O. Cao. D. Empirical near-source attenuation relationships for horizontal and vertical components of peak ground acceleration. Chen. S. Cotton. Reichle. Griot-Pommera. Bonilla. Petersen. Desperoux & P. Res. J. Lett.S. Joly. Seism.A. Berge-Thierry. Cara & D. La documentation française. Historical instruments and seismograms in Strasbourg. Bollettino di Geofisica. Cotton. Bottard. Application aux données de sismicité historique et instrumentale.S. A. Am. M. Mensing.. C. 2000. Reichle. 1989. Seismic hazard estimate from background seismicity in Southern California. D. & M. 2004. Spécialité Mathématiques. Rouland. Seism.L. Bommer. 96 : 374–384. & J.D. O. Seis. J.. Scotti.A. J. U. Bull. 86(5) :1372–1381. France. T.W. Am. Gestion du risque sismique : Développement d’une méthodologie probabiliste pour l’estimation de l’aléa sismique en France. probabilistic seismic hazard assessment : an exaggerated and obstructive dichotomy.. Baize. D. & Y. ISSN. 2003. S. Bernreuter. Toppozada. in press. A time-dependent probabilistic seismic-hazard model for California. Soc. New empirical response spectral attenuation laws for moderate European earthquakes. F. 28th ESC. & C. Godefroy.R. A. C. R. & O. C. Cushing. Bull. T. 1968.W. 6 :43–73. C. Scotti. Journal of Earthquake Engineering. Seism. Levret. 2000. 1995. M. 68 :154–179. Deterministic vs. Journal of Earthquake Engineering. 1996. Am. peak ground velocity. Petersen. Genova.. Cornell.J.

C. Fitzenz. D. Grünthal & R. European Geophysical Society. A. Terrier. of Civil Engineering. J. J.A. Estimating earthquake location and magnitude from French seismic intensity observations. 1998. Dominique. P. EPRI. Seism. Giner. Van Dyck. Y. Palo Alto. Seis. BRGM/RP-50740-FR. EPRI report NP-4726. Thèse de Doctorat. Reissue of ESEE Report 01-1. France. J. Jauregui. J. 92(2) :543–554. Fukushima. Synthesis of magnitude and focal mechanism computations for the m >= 4. Griot-Pommera. Lett. Mohammadioun. P.L. 25-30 March 2001. Journal of Earthquake Engineering. A. Journal of Earthquake Engineering. & J. E. Soc. Blès. 5(3) :309–328. 7(3) :1–26. Seismic hazard map on the national territory (France). F. 2002. Dufumier.A. Paris. G. 2001. Statistical analysis of earthquake catalog.F. Griot-Pommera & O. Douglas. Res. 1985.  . & F. Part Two : Probabilistic approach. Dominique. Wahlström. Combes C. 2003. Seismic hazard methodology for the central and eastern United States. France. D. Etude de faisabilité d’une approche probabiliste de l’évaluation de l’aléa sismique : application au sud-est de la France. André. Sensitivity of parameters for probabilistic seismic hazard analysis using a logic tree approach. 6-11 Septembre.C. M. Durouchoux. 2001. & P. Cushing. Ph. 2003.. 1995. 66(4) :8–21. Imperial College of Science. Attenuation relation for West Eurasia determined with recent near-fault records from California. B. Goula.BIBLIOGRAPHIE P. Scotti. Volant. Samarcq. & X. MIT. Autran. A comprehensive worldwide summary of strong-motion attenuation relationships for peak ground acceleration and spectral ordinates (1969 to 2000). 1986. Berge-Thierry.J. XXVI General Assembly. Electric Power Research Institute. Cotton. D. Japan and Turkey. Journal of Seismology (in press). Proceedings of the 11th ECEE. 1980.. Bull. M. Goula. X. Am. Technology and Medicine. OCDE Specialist meeting on probabilistic methods in seismic risk assessment for nuclear power plants. H.5 earthquakes in France for the period 1995-2000.. J. Molina. Lisbonne. Mapping seismic hazard in the Central and Eastern United States. Frankel. Nice. Gariel. S. 2001. Dept. Advantages of using sensitivity analysis in seismic hazard assessment : a case study of sites in southern and eastern Spain. Synthèse des travaux réalisés dans le cadre de la Convention 37/99. Charléty.

Ph. 99(B7) :13685–13700. Cushing. Kramer. Recherche des caractéristiques de séismes historiques en France. Paper Reference 870. Lignon. 1991. Int. Secanell. 1981). Frequency of earthquakes in California. McGuire. Am. 2000.D. pages 1–19.Y. Geophys. England. Prentice Hall. Seism. 1996. Etude probabiliste. Septembre. Richter. The nature of seismicity patterns before large earthquakes. 1996. Publication de l’Institut de Protection et de Sûreté Nucléaire. Geotechnical Earthquake Engineering. Long-term earthquake clustering. Washington D. J. Kagan & D. 2002b. A. Upper Saddle River. Rapport GEOTER GTR/MATE/0701-150.Y. Lignon. Carbon. F. Ch. Y. 5 (1) :13–33.Y. US Geological Survey open-File Report 76-67. 1981. Cushing. Fioravanti. Proceedings of the 12th ECEE.. Fortran computer program for seismic risk analysis. C. Ph.D. & G. Preliminary probabilistic seismic hazard assessment of France. Res. Atlas of macroseismic maps for French earthquakes with their principal characteristics. Ph. AGU.) (Maurice Ewing Series. H.L. Ch. Kagan & D. Bard. 143 :438–453. & B. Levret. 1976.G. Combes. M. and Richards. Natural Hazards. Probabilistic forecasting of earthquakes. J. 1994. Fukushima. Gutenberg & C. R. Peyridieu. New Jersey 07458.B. atlas de 140 cartes macrosismiques. Secanell. Soc. D.. Révision du zonage sismique de la France. Jackson. 104 : 117–133. Kagan & D.D.. Civil Engineering and Engineering Mechanics. A. & G. Journal of Earthquake Engineering. F. R. J. Int. vol. 10 :19–46. G. D. A. in Earthquake Prediction : An International Review (eds.  . Martin. Simpson. London. Geophys. Kanamori. 2000. Backe.W. P. Jackson. 1944. Lussou.. Grellet. Combes. Long-term probabilistic forecasting of earthquakes. 4. 2002a. Levret. Geophys. P. & Y. Y. R. volumes I et II. Y. & M. 34 :185–188. Bull. Seismic design regulation codes : contribution of K-Net data to site effect evaluation.K. Jackson. S. J.Y.C. Cotton. Martin. 1994..

T.V. Ordaz. 58 :1131–1168.. M... K.. R.F. Inst. Magnitude-frequency relations for elastic shocks accompanying fractures of various materials and some related problems in earthquakes. Probabilistic seismic hazard analysis : zoning free versus zoning methodology. 1968. N. M. Kronrod. A threedimensional crustal velocity model of the southern Alps from local earthquake tomography. Madeddu. Geophys. 2001a. of the Earth and Planet. Publ.0. 87 :55–76.0. Thouvenot. Some modifications to program crisis99 ver. Pageoph. A. M. Jena.. Notes. 87(5) :1220–1229. 1967.BIBLIOGRAPHIE R. program crisis99. Bethoux. Pecker. Page. Sponheuer. Mori & R. 1. Proceedings 3e Colloque National AFPS "Génie parasismique et aspects vibratoires dans le génie civil". & G. 1994. McGuire & W. Molchan. Panza. Medvedev. N. 1. Society of Exploration Geophysicists. S. 1997. Karnik.D. Soc. Res. Phys.A. Prévision du mouvement sismique au rocher à partir des données de mouvements forts actuellement disponibles. Res. & J. Multi-scale seismicity model for seismic risk. Spallarossa. Molina. 42 :19–39. 1990. 2001. Paul. 1962. Bulletin of the Earthquake Research Institute. On the variation of b-values with earthquake size. Aftershocks and microaftershocks. J. Seism. B. Seism. Am. & H. & V. 106 :19367–19389.18. Bungum. 2001. 152 :707–731. Lisbon. Cattaneo. 2000). W. 1998. & B. Bollettino di Geofisica (selected papers from the 27th ESC. J. Am.E. E. Romanowicz..A. 1. Instrumental seismicity of the Western Alps : A revised catalogue. Int. Mohammadioun & A.17 which give rise to ver.J. Abercrombie. Nicolas. C. 48. 2001b. Soc. Geophys.18. Mogi. Fortran computer program for seismic hazard assessment. F. ver. An introduction to probabilistic seismic hazard analysis. 1997. Lindholm.  . G. Seismic intensity scale version 1964. Bull. M. Geotechnical and Environmental Geophysics. D. 40 :831–853.K. Bull. Geody. 1993. Okal & B. Ordaz. Fréchet. 1 :333– 353. J. Bethoux. Arabasz. S. 102 :15081– 15090.0. Depth dependence of earthquake frequency-magnitude distributions in California : Implications for rupture initiation.

1968. Res. Expected ground motion evaluation for Italian sites. A statistical significance test of the difference in b-value between two earthquake groups. Golubeva. & R. 2003.A. B. Am. Soc. 20 :341–351. Marcellini. A. T.M. & N. 1992. Journal of Earthquake Engineering. Graves. 86(3) :691–700. Lett. Franceschina. Young. 1966. J. 1990. 7 :171–199. Smith. Soil Dynamics and Earthquake Engineering. V.W. P. J. A. Modification of empirical strong ground motion attenuation relations to include the amplitude and duration effects of rupture directivity. Reasenberg. Proceedings 10th World Conf..A. 1985. An exploration of the nature of the scatter in groundmotion prediction equations and the implications for seismic hazard assessement. A. Trifu. Urbancic. L. R. Stepp. Lysenko.F.J. Geophys.. 1972. The frequency-magnitude relation of microfracturing in rock and its relation to earthquakes. Restrepo-Velez & J. 1965. 2000. L. P. Sholz. 139 :449–462.P. Geophys. Earth. Utsu. Soc. N.I. 90 :5479–5495. New York. Seism. WA.C. Phys. 1996. F. Res. A method for determining the value of b in a formula logn = a − bm showing the magnitude-frequency relation for earthquakes (with English summary). Bull. 13 :99–103.G. pages 897–909. Earthquake Hazard Analysis : Issues and Insights. 68 :199–222.  . Columbia University Press. T. J. Tento.. J. 1 :489–494. 1992. 14 :37–40.V. 1997. Lyubushin. Analysis of completeness of the earthquake sample in the Puget Sound area and its effect on statistical estimates of earthquake hazard.F. Seism. Slejko. Bull. Reiter. Seis.. & A. Sensitivity analysis on the input parameters in probabilistic seismic hazard assessment. V. Abrahamson. Am. A. Seattle. Bull. C. Bommer. 58 :399–415.H. C. Somerville. Microzonation Conf. Hokkaido Univ.. Pageoph. T. L. Proc..I. & T. Long. Spain. Utsu. Rebez & D. Second-order moment of central California seismicity. Statistical estimation of seismic hazard parameters : maximum possible magnitude and related parameters. on Earthquake Engineering. Pisarenko. Space-time correlations of b-values with stress release.

Geophys. 31 :341–359. 86(2) :353–362. D.R.. J. Wyss.  . pages 139–157. Soc. 1996. & M. Towards a physical understanding of the earthquake frequency distribution. Tokyo. Res. Geophys. Seism. 1998. Bull. R.. Astron. Bull. Mathematical Seismology vii. 1980. California. Wiemer & M.BIBLIOGRAPHIE T. A. 220-244. Soc. in : Report of Cooperative Research of the Institute of Statistical Mathematics 34.. Mapping the frequency-magnitude distribution in asperities : an improved technique to calculate recurrence times ?. 1992. 102 :15115–15128. H. Soc. Temporal and three-dimensional spatial analyses of the frequency-magnitude distribution near Long Valley Caldera. Weichert. in Statistics in the Environmental and Earth Sciences. Guttorp. Annals of the Institute of Statistical Mathematics. J.. S. S. T. Statistical methods for the description of and display of earthquake catalogues. On seismicity. Woo. Walden and P. 1973. Utsu. McNutt. Int. D. 70(4) :1337–1346. London. Wyss. Kernel estimation method for seismic hazard area source modeling. Wyss. Wiemer. Am. Seism. 1992. Vere-Jones. M. 1997.. J. S. 134 :409–421. Estimation of the earthquake recurrence parameters for unequal observation periods for different magnitudes. Am. G.

troncature de la relation d’atténuation du mouvement du sol. Finally. Pour des fréquences plus faibles (<5Hz). Analysis of uncertainties in a probabilistic seismic hazard estimation. the truncation of the attenuation relationship. France. à 34 Hz). Ainsi. la variabilité totale augmente et la magnitude maximale devient un paramètre important. at 34Hz). Therefore. Les résultats à 34 Hz (PGA) indiquent que la magnitude maximale est le paramètre le moins influent (de 100 à 10000 ans) . b-value.magnitude correlation. magnitudes minimales et maximales. Keywords : seismic catalogs.5. from 3. et d’autre part de quantifier l’impact des incertitudes de ces paramètres sur les estimations d’aléa.Analyse des incertitudes dans une estimation probabiliste de l’aléa sismique. la variabilité des estimations due aux incertitudes de catalogue et aux choix de ces quatre paramètres doit être prise en compte dans toute étude d’estimation de l’aléa sismique probabiliste en France. can also produce non-negligible impacts at small return periods (up to 20% decrease of hazard results at 475 years). future research should concentrate on the elaboration of an appropriate intensity. in order to determine the hierarchy between the impacts on hazard of the choices of four other parameters : intensity-magnitude correlation. Cornell-McGuire probabilistic method. variability of estimates due to catalog uncertainties and to the choices of these four parameters must be taken into account in all probabilistic seismic hazard studies in France. The results at 34 Hz (PGA) indicate that the maximum magnitude is the less influent parameter (from 100 to 10000 years) . the overall variability on hazard estimates due to the combined choices of the four parameters can reach up to 30% (COV. la variabilité totale des estimations d’aléa. de 3. tandis que la corrélation I-M et la troncature des prédictions du mouvement du sol (>2σ) jouent un rôle clef quelle que soit la période de retour considérée (diminution de l’aléa jusqu’à 30% à 10000 ans). La méthode de Cornell-McGuire est utilisée dans cette étude. Cornell-McGuire’s method is used here. An impact study is then performed. aléa sismique.5 to 4.  . depending on the site and the return period. due aux choix combinés des quatre paramètres. selon le site et la période de retour considérés. Cette variabilité pourra être réduite en élaborant une corrélation intensité-magnitude plus appropriée. Enfin. whereas the intensity-magnitude correlation and the truncation of ground motion predictions (>2σ) are the controlling parameters at all return periods (up to 30% decrease each at 10000 years). First. To reduce variability in hazard estimates.5. et en recherchant une manière plus réaliste de prendre en compte la dispersion du mouvement du sol. peut atteindre 30% (COV. exemple de la France Cette thèse propose une nouvelle méthodologie permettant d’une part d’identifier les paramètres clefs qui contrôlent l’estimation de l’aléa sismique probabiliste. b-value. Tout d’abord. the overall variability increases and maximum magnitude becomes a controlling parameter. seismic hazard. Une augmentation de la magnitude minimale contribuant à l’aléa. méthode probabiliste de Cornell-McGuire. as well as on a more realistic way of taking into account ground motion dispersion. An increase in the minimum magnitude contributing to the hazard. uncertainties on magnitude and location determinations are modeled and quantified : resulting variability on hazard estimates ranges between 5% and 25% (=COV). France. Une étude est ensuite menée afin de hiérarchiser les impacts sur l’aléa liés aux choix de quatre paramètres : corrélation intensité-magnitude. Mots-clés : catalogues de sismicité.5 à 4. les incertitudes sur les déterminations de magnitude et de localisation sont modélisées et quantifiées : la variabilité résultante sur les estimations d’aléa est comprise entre 5 et 25% (=COV). example for France This thesis proposes a new methodology that allows to pinpoint the key parameters that control probabilistic seismic hazard assessment (PSHA) and at the same time to quantify the impact of these parameters uncertainties on hazard estimates. For lower frequencies (<5Hz). peut également produire des impacts non négligeables à courtes périodes de retour (diminution des valeurs d’aléa jusqu’à 20% à 475 ans). minimum and maximum magnitudes.