Vous êtes sur la page 1sur 9

Une technique d’actualisation Bayesienne pour traiter les

incertitudes épistémiques dans une évaluation probabiliste


de l’aléa sismique
Emmanuel Viallet[1], Nicolas Humbert[1], Alexis Courtois[1],
Christophe Durouchoux[2], Pierre Sollogoub[3]
[1]
EDF-SEPTEN LYON
[2]
EDF-TEGG AIX EN PROVENCE
[3]
CEA - Saclay

RÉSUME : L’approche probabiliste d’évaluation de l’aléa sismique, méthode alternative aux méthodes déterministes, est de
plus en plus couramment mise en oeuvre pour définir des niveaux sismiques réglementaires pour la construction ou pour
réaliser des études de risque, par convolution de l’aléa avec la fragilité des structures. Cependant, des incohérences
apparentes dans les résultats obtenus au moyen de méthodes probabilistes ont pu être mises en évidence dernièrement,
notamment dans des régions où la sismicité est faible à modérée.
Dans ce contexte, l’objectif de ce papier est de mettre en évidence les principales difficultés qui peuvent apparaître dans
l’évaluation probabiliste de l’aléa sismique et de proposer une approche pour les traiter. Le point innovant de l’approche
consiste à mettre en œuvre une technique d’actualisation Bayesienne à partir des résultats d’une étude d’aléa probabiliste en
exploitant les observations disponibles (enregistrements sismiques) en tant qu’événements conditionnels.
Les premiers résultats obtenus sont très encourageant et feront l’objet de développements complémentaires.
ABSTRACT: Probabilistic Seismic Hazard Assessment (PSHA) are considered nowadays as well established methodologies and
are used worldwide as an alternative to deterministic approaches for regulation or for risk analyses. Nevertheless, some
discrepancies have been observed recently in some PSHA, especially from studies conducted in areas with low to moderate
seismicity.
In that context, the objective of this paper is to point out some difficulties that may appear when conducting a PSHA and to
present an approach which may be used to address them. The key point, which corresponds to the innovating point of the
process, is the use of a Bayesian updating technique based on the results of a PSHA and using observed data (seismic
records) as conditional events.
The first results obtained here are really interesting and will be extended by further developments.

MOTS-CLÉS : Aléa, probabiliste, actualisation, Bayesien, observations.


KEYWORDS : Hazard, probabilistic, updating, Bayesian, records.

7ème Colloque National AFPS 2007 – Ecole Centrale Paris


2 7ème Colloque National AFPS 2007 – Ecole Centrale Paris

1. Introduction

L’approche probabiliste d’évaluation de l’aléa sismique, méthode alternative aux méthodes déterministes,
développée depuis plusieurs décennies [COR-68] permet de caractériser l’aléa de manière plus objective et en
intégrant l’ensemble des informations de sismicité et de géologie disponibles dans une région donnée. Les
résultats de telles études sont de plus en plus couramment exploités pour définir des niveaux sismiques
réglementaires ou pour réaliser des études de risque, par convolution de l’aléa avec la fragilité des structures.
Cependant, des incohérences apparentes dans les résultats obtenus au moyen de méthodes probabilistes ont
pu être mises en évidence dernièrement [KLÜ-05], notamment dans des régions où la sismicité est faible à
modérée. Les principaux enseignement tirés des ces études montrent que, du fait des incertitudes inhérentes à ce
domaine, des choix déterministes concernant notamment les données d’entrées restent nécessaires et dépendent
très fortement des jugements d’experts, ce qui peut conduire à des évaluations de l’aléa très dispersées.
Dans ce contexte, l’objectif de ce papier est de mettre en évidence les principales difficultés qui peuvent
apparaître dans l’évaluation probabiliste de l’aléa sismique et de proposer une approche pour les traiter. Le point
innovant de l’approche consiste à mettre en œuvre une technique d’actualisation Bayesienne à partir des résultats
d’une étude d’aléa probabiliste en exploitant les observations disponibles (enregistrements sismiques) en tant
qu’événements conditionnels.
Ce papier est décomposé en 2 parties. La première présente des considérations générales sur la pratique
actuelle en matière d’évaluation probabiliste de l’aléa sismique et pointe sur certaines difficultés potentielles. La
seconde partie présente la technique d’actualisation Bayesienne qui permet d’intégrer les observations comme
des événements conditionnels incluant leur propre distribution statistique.

2. Première partie : Considérations générales sur la pratique actuelle en matière d’évaluation probabiliste
de l’aléa sismique

L’objectif de ce papier n’étant pas de décrire en détail la méthodologie générale d’élaboration d’une étude
probabiliste de l’aléa sismique. Nous ne traiterons ici que certains points qui peuvent poser problèmes,
notamment au niveau de certains choix déterministes, en cherchant en particulier à faire la distinction entre les
incertitudes dites épistémiques et celles dites aléatoires.

2.1 La variabilité du mouvement sismique : Incertitude épistémique ou aléatoire ?

En ce qui concerne la variabilité du mouvement sismique, nous souhaitons attirer l’attention du lecteur sur les
2 questions suivantes :
Question 1 : D’où provient la valeur de sigma (écart-type) d’une relation d’atténuation donnée ?
Question 2 : Jusqu’à quel multiple de sigma doit-on intégrer la relation d’atténuation dans une étude
probabiliste (1, 2, l’infini) ?
Eléments de réponse à la question n°1 :
Concernant cette première question, il peut paraître évident que l’écart-type de la relation d’atténuation
provient de la variabilité (aléatoire) du mouvement sismique lui-même. Néanmoins, il est également
évident que dans les bases de données de mouvements forts utilisées pour bâtir les relations
d’atténuation, les caractéristiques (magnitude et distance) des événements sont connues avec une
incertitude qui peut être significative (typiquement 0.5 sur la magnitude, surtout si ces magnitudes sont
déterminées par des organismes différents ; cela est également le cas pour la distance, tout
particulièrement en champ proche). Ces incertitudes ont un impact direct sur la valeur de l’écart-type de
la relation d’atténuation.
Actualisation Bayesienne – Aléa probabiliste 3

Nous donnons ici un ordre de grandeur de cet impact. En considérant une relation d’atténuation qui
dépendrait de la magnitude selon l’expression suivante : Log PGA ~ 0.3 M et qui aurait une valeur de
sigma de 0.3, ce qui correspond à des valeurs typiques, une incertitude de 0.5 sur les valeurs de
magnitudes des événements contenus dans la base de données conduirait à un écart-type de 0.25 sur la
variabilité du mouvement sismique, pour de simples considérations de cumul d’incertitudes :
0.3 ~ racine [0.25²+(0.3*0.5)²].
Dans le cas d’une étude d’aléa probabiliste, c’est évidemment cette dernière valeur (0.25) qui devrait être
retenue et non la valeur «brute» de l’écart-type de la relation d’atténuation, puisque c’est bien elle qui
caractérise la variabilité aléatoire du mouvement sismique.
Dans la plupart des cas, ce type de considération n’est pas pris en compte, même si cette approche semble
être considérée maintenant dans certains cas au Japon ou aux USA.
Eléments de réponse à la question n°2 :
Dans un pur esprit probabiliste, la première réponse serait d’intégrer la distribution de la relation
d’atténuation jusqu’à l’infini. Néanmoins, le fait que la variabilité du mouvement sismique suive une loi
log-normal n’est qu’une hypothèse qui devrait être systématiquement vérifiée (ce qui n’est pas toujours
le cas). En pratique, on observe généralement une très bonne adéquation jusqu’à 2 sigmas autour de la
médiane, mais on observe également une dégradation très nette au-delà de 3 sigma (voire une absence
d’observation), comme illustré sur la figure 1.
Ceci est un point important et milite dans le sens de la limitation de l’intégration de la variabilité de la
relation d’atténuation à une valeur comprise entre 2 et 3 sigmas.

Figure 1 : Comparaison entre distribution log-normale et enregistrements [SCO-03]

Un autre point que nous souhaitons aborder ici concerne les relations entre différents types de magnitudes qui
peuvent être nécessaire d’utiliser dans des études d’aléa probabilistes. Ceci conduit à des choix qui peuvent être
fait, soit dans un esprit «déterministe», soit dans un esprit «probabiliste».
En effet, le choix d’appliquer une relation d’équivalence entre MS et ML, comme illustré figure 2, qui peut
être un choix judicieux dans une approche déterministe, ne l’est absolument pas dans le contexte probabiliste car
il conduira à un biais et aura pour conséquence une surestimation de la valeur médiane du paramètre d’intérêt.

Figure 2 : Equivalence entre différents types de magnitudes : Quelle relation utiliser ?


4 7ème Colloque National AFPS 2007 – Ecole Centrale Paris

Pour conserver l’esprit probabiliste, des valeurs «best-estimate» (ou médianes plus exactement) doivent être
retenues à chaque étape du processus afin de conserver une estimation médiane du paramètre recherché, comme
cela est attendu dans une évaluation probabiliste.
Conclusion sur la caractérisation du mouvement sismique
En ce qui concerne la variabilité du mouvement sismique, un certain nombre de choix sont à faire dans ce
cadre et ont un effet important les résultats d’une évaluation probabiliste de l’aléa sismique. La recommandation
importante est de conserver des données ou faire de choix «best-estimate» (médians) pour rester cohérent avec la
philosophie probabiliste, ce qui nécessite d’aborder une étude de ce type dans un esprit complètement différent
de celui dans lequel aborder une étude déterministe.
Dans ce contexte, la valeur de sigma de la relation d’atténuation devrait être réduite pour n’intégrer que la
part de variabilité du mouvement sismique et son domaine d’intégration devrait également être déterminé avec
précaution. Dans le même ordre d’idée, il est indispensable d’introduire une relation «médiane» (et pas
conservative) entre les différents types de magnitude pouvant être exploités.
C’est en particulier en mettant en œuvre ces considérations que l’objectif probabiliste pourra être
atteint, à savoir déterminer la médiane du paramètre considéré avec réalisme et sans biais.

2.2 La sélection des relations d’atténuation pour une région donnée : Incertitude épistémique ?

Comme on peut s’y attendre, les relations d’atténuation proviennent de régions de sismicité plutôt élevée (là
où des données sont disponibles en nombre suffisant pour bâtir de telles relations). Quoi qu’il en soit, ces
relations d’atténuation peuvent être utilisées pour des études d’aléa probabilistes réalisées dans des régions de
sismicité plutôt faibles. Dans cette situation, leur applicabilité (même s’il est difficilement possible de faire
autrement) doit être sérieusement investiguée.
Bien que cela puisse paraître évident pour certains, il important de préciser ici que le choix de la relation
d’atténuation a un impact direct et très important sur le résultat de l’étude.
Dans une étude d’aléa probabiliste, cet aspect est pris en compte sur la base du jugement d’experts. Les
connaissances de la sismicité de la région considérée et du contexte associé à une relation d’atténuation
constituent les points clé en la matière. En pratique, cet aspect est traité par l’intermédiaire d’arbres logiques qui
offrent l’intérêt de prendre en considération l’ensemble des avis possibles. Néanmoins, il faut absolument garder
à l’esprit que l’approche par arbre logique permet de caractériser la variabilité des jugements d’experts mais pas
la variabilité du paramètre physique considéré !
Cette incertitude qui est typiquement une incertitude épistémique est susceptible d’être réduite grâce à
l’amélioration des connaissances sur le paramètre physique. Cependant, le processus actuel de traitement de ce
type d’incertitude par arbre logique restera toujours lié à des considérations subjectives (opinion des individus)
et devrait plutôt s’appuyer sur des considérations objectives pour chercher à caractériser plus directement le
paramètre physique lui-même.
Conclusion sur le choix des relations d’atténuation
Le choix des relations d’atténuation est un choix capital dans une étude d’aléa probabiliste est peut conduire
à des différences très importantes dans la valeur du paramètre d’intérêt.
Dans ce contexte, il est important de noter que le processus par arbre logique, qui semble être le moyen le
plus approprié pour traiter ce type d’incertitude épistémique, ne permet pas de quantifier la variabilité sur le
paramètre physique lui-même mais quantifie la variabilité sur le jugement d’expert uniquement.
La pratique actuelle devrait être améliorée pour réduire l’incertitude épistémique sur le paramètre
physique lui-même.
Actualisation Bayesienne – Aléa probabiliste 5

2.3 Conclusion de la première partie

Bien que les méthodes d’évaluation probabiliste de l’aléa sismique soient aujourd’hui considérées comme
des méthodes éprouvées, certains point clé de ce type d’étude reposent fortement sur des jugements d’experts et
font toujours débat. Les principales difficultés proviennent essentiellement du choix des données d’entrée et du
moyen de prendre en compte les incertitudes aléatoires et épistémiques.
- La recommandation principale qui est formulée ici consiste à conserver des paramètres médians (ou
best-estimate) à chaque étape afin de rester cohérent avec la philosophie probabiliste et obtenir des
valeurs médianes «réalistes» et sans biais.
- Il est important dans ce contexte de propager l’ensemble des sources de variabilité mais et séparant le
plus précisément possible la part aléatoire de la part épistémique afin de ne pas prendre en compte
plusieurs fois la même source d’incertitude.
- Enfin, il faut absolument garder à l’esprit que l’approche par arbres logiques permet de caractériser la
variabilité des jugements d’expert mais pas la variabilité sur le paramètre physique lui-même.
La seconde partie de ce papier propose une méthode pour traiter ce dernier point.

3. Seconde partie : Une technique d’actualisation Bayesienne pour traiter les incertitudes épistémiques
dans une évaluation probabiliste de l’aléa sismique

Ce paragraphe décrit une méthode qui permet de traiter les incertitudes épistémiques en s’appuyant sur la
sismicité réelle de la région considérée, telle qu’enregistrée.

3.1 Etude d’aléa probabiliste – Impact des incertitudes et comparaison aux observations disponibles

Nous nous appuyons ici sur le fait que les résultats d’une étude d’aléa probabiliste peuvent être en désaccord
avec les observations compte tenu des éléments discutés en première partie de ce papier. Afin d’illustrer cette
situation, on exploite les résultats présentés dans [HUM-07]. Le travail correspondant a consisté à comparer les
résultats d’études d’aléa probabiliste (études dites MEDD 2002 et AFPS 2006 dans ce cas) aux enregistrements
collectés via l’instrumentation sismique des sites nucléaires EDF.
La comparaison entre les résultats d’une étude d’aléa probabiliste et les observations est réalisée sur une
période de temps équivalente à la période d’observation (à savoir entre 10 et 25 ans pour 20 sites EDF, soit plus
de 400 années d’observations cumulées). Cette comparaison porte sur un nombre d’événements dont le PGA
dépasse un certain seuil (0.01 g en l’occurrence), c'est-à-dire un nombre de dépassements (ou déclenchements)
théorique du seuil sur la base des résultats de l’étude et un nombre de déclenchement réellement observé.
Le tableau 1 présente les résultats de la comparaison entre nombre de déclanchements théoriques et nombre
de déclenchements observés pour les 20 sites EDF et pour les 2 études d’aléa probabiliste étudiées.

Nombre de déclenchements (PGA > 0.01g)


Etude
Stations Observations
MEDD 2002 AFPS 2006
20 sites EDF 49 10 1

Tableau 1 : Comparaison entre le nombre de déclenchement théorique et les observations

On peut constater que les 2 études donnent non seulement des résultats très différents mais qu’elles se placent
en désaccord sensible voire très important par rapport aux observations (se référer à [HUM-07] pour plus de
détails). Pourtant, ces 2 études ne diffèrent aucunement sur la méthode mais diffèrent uniquement sur les
données d’entrée et sur les choix déterministes associés, notamment sur les points précisés précédemment.
6 7ème Colloque National AFPS 2007 – Ecole Centrale Paris

On constate que, en fonction des choix dans les données d’entrée, des résultats d’études d’aléa probabiliste
peuvent être très différents les uns des autres et peuvent de surcroît s’écarter très nettement des observations.
Conclusion sur l’impact des incertitudes et sur la confrontation aux observations
La leçon qu’il faut tirer des constats précédents est que les résultats d’études probabilistes peuvent s’écarter
très nettement de la sismicité réelle (telle qu’enregistrée) de la région étudiée, en particulier du fait des choix
déterministes dans les données d’entrée, ces choix dépendant des jugements d’experts.
Dans ces conditions, l’utilisation des enregistrements disponibles semble être le seul moyen pour lever ces
difficultés et baser les choix dans les données d’entrée sur des observations objectives.

3.2 Un moyen de traiter les incertitudes épistémiques : L’utilisation d’une technique d’actualisation
Bayesienne

Sur la base des constats précédents, l’objectif poursuivi ici est d’utiliser les observations du paramètre
d’intérêt telles qu’enregistrées pour actualiser la prédiction afin d’obtenir des résultats probabilistes en accord
avec ces observations.
La méthode proposée s’appuie sur une technique d’actualisation Bayesienne classique, utilisée depuis de
nombreuses années dans le domaine de la fiabilité, notamment en mécanique. Son principe est simple. Il
s’exprime de la manière suivante :
«A partir d’une évaluation probabiliste d’un paramètre donné, quelle est la valeur la plus probable que
pourra prendre ce paramètre (avec un niveau de confiance donné) compte tenu des observations
disponibles (incluant leurs incertitudes)»
La technique proposée ici fut développée par Madsen [MAD-85]. Ces performances et sa pertinence pour des
problèmes de mécanique fiabiliste ont été démontrées à plusieurs reprises (voir [HEI-99] par exemple). Cette
technique s’appuie sur le théorème des probabilités conditionnelles de Bayes :

Dans notre cas, l’intervalle de confiance sur le PGA sera défini comme l’intervalle 15 - 85% du PGA
actualisé par application de cette méthode. La probabilité d’atteindre chacune de ces bornes peut être calculée
pour une gamme de période de retour quelconque. Les observations sont alors intégrées dans la phase
d’actualisation en tant que probabilités conditionnelles, avec leur propre distribution statistique.
La prédiction actualisée est alors obtenue à partir d’une méthode FORM classique dans la phase
d’actualisation, telle que définie dans [MAD-85] et résolue pour chaque fractile souhaité (15 et 85% dans notre
cas) par dichotomie.

3.3 Première application : Exercice de faisabilité

A titre d’exercice de faisabilité, une première application est réalisée à partir des résultats de l’étude AFPS
2006 citée plus haut. Les observations retenues pour l’actualisation sont les enregistrements provenant des 20
stations du RAP retenues dans l’étude. En pratique, l’actualisation a porté sur un nombre de dépassements d’un
seuil en PGA prédit et observé. Pour les besoins de cet exercice, les courbes d’aléa ont été préalablement
adimensionnées et approchées par une expression analytique. Les observations sont traitées quant à elles de
manière statistique, cf. tableau suivant.
RAP : Nombre de déclenchements / station / an
Seuil (g)
Moyenne Ecart-type
0.005 0.2 0.14
0.01 0.15 0.12
0.02 0.06 0.07
0.04 0.03 0.03
Actualisation Bayesienne – Aléa probabiliste 7

Comparaison entre prédiction initiale et


actualisation
Les résultats obtenus sont présentés dans la figure 3.
1.0E+00

Taux de dépassement
1.0E-01
Prédiction initiale 15%
1.0E-02 Prédiction initiale 50%
Prédiction initiale 85%
1.0E-03 Actualisation 15%
Actualisation 85%
1.0E-04

1.0E-05
0 0.1 0.2 0.3 0.4 0.5
PGA (g)

Figure 3 : Comparaison entre prédiction initiale et actualisation

On peut observer l’efficacité du processus d’actualisation qui réduit significativement les incertitudes par
rapport à la prédiction initiale. On peut noter également que l’actualisation re-centre la prédiction sur des
fractiles qui ne correspondent pas à la médiane de l’étude initiale (cf. considérations exprimées en première
partie de ce papier). Ces résultats sont discutés dans le paragraphe suivant.

3.4 Discussion sur les performances de la technique d’actualisation

Tout d’abord, il est important d’indiquer que la technique d’actualisation Bayesienne ne modifie absolument
pas l’étude initiale, ni sur le plan méthodologique, ni sur le plan des données d’entrées. La technique
d’actualisation intègre seulement les observations en tant que probabilités conditionnelles pour identifier les
fractiles les plus probables et donc «recadrer» la prédiction.
Par ailleurs, on pourra noter que cette technique permet de réduire les incertitudes épistémiques puisqu’elle
intègre l’ensemble des observations disponibles dans la région considérée. Elle ne peut cependant pas réduire les
incertitudes aléatoires, par définition, mais elle les intègre via la diversité des stations utilisées et la durée
d’observation. C’est pour cette dernière raison que l’actualisation conserve une variabilité significative, bien que
très nettement réduite par rapport à la prédiction initiale (dans d’autres études mettant en œuvre cette technique
sur des paramètres à faible variabilité aléatoire comme la prédiction des déformations différées des enceintes de
confinement des réacteurs nucléaires par exemple, cf. [HEI-99], on observe généralement une actualisation
encore plus performante en terme d’intervalle de confiance).
Cependant, on pourra noter que la limitation potentielle de cet exercice peut provenir de la durée
d’observation plutôt faible (du fait de la sismicité faible en France métropolitaine). Néanmoins, cette faiblesse
potentielle est à relativiser d’une part car l’expérience acquise (cf. [HEI-99]) a montré que cette technique était
très performante, même avec un nombre d’observations faible et disponible sur de courtes durées, et d’autre part
car il suffit d’attendre quelques années pour augmenter très significativement le nombre de données (par
exemple dans 5 ans le nombre de données RAP aura doublé par rapport au nombre de données exploitées plus
haut).
Dans tous les cas, il ne peut être reproché d’utiliser peu de données plutôt que de ne pas utiliser de donnée du
tout !
Conclusion sur l’utilisation de la technique d’actualisation Bayesienne
La conclusion que nous souhaitons mettre en évidence ici est que la technique d’actualisation Bayesienne
sera probablement amenée à être un outil très efficace pour traiter les incertitudes épistémiques dans des études
probabilistes de l’aléa sismique et permettra en particulier d’obtenir des résultats plus robustes et en accord avec
les observations.
8 7ème Colloque National AFPS 2007 – Ecole Centrale Paris

Cette technique pourrait devenir une étape nécessaire dans une démarche d’évaluation probabiliste de
l’aléa sismique.

4 Conclusion et perspectives

L’objectif de ce papier était de mettre en évidence les principales difficultés qui peuvent apparaître dans
l’évaluation probabiliste de l’aléa sismique et de proposer une approche pour les traiter.
Les principales conclusions que nous tirons sont les suivantes :
- En premier lieu, il est important de conserver des paramètres ou données «best-estimate» pour rester
cohérent avec la philosophie des études probabilistes. Dans ces conditions, la valeur de l’écart-type
associée à une relation d’atténuation, sa gamme d’intégration ainsi que l’utilisation de relations de
transformation des magnitudes doivent absolument être des choix médians.
- Par ailleurs, le choix des relations d’atténuation est l’étape qui a probablement le plus d’impact sur les
résultats d’une étude d’aléa. Il est important de garder à l’esprit que le processus par arbre logique qui
semble être le plus approprié pour traiter ce type d’incertitude épistémique ne quantifie pas la variabilité
sur le paramètre physique lui-même mais quantifie la variabilité sur l’avis des experts.
- Dans ces conditions, les résultats d’une étude d’aléa probabiliste peuvent être en désaccord très net avec
la sismicité réelle de la région considérée, telle qu’observée. La confrontation aux observations semble
être alors le seul moyen objectif pour résoudre ces difficultés.
- Dans ce contexte, l’utilisation d’une technique d’actualisation Bayesienne s’avère être un outil
performant pour traiter les incertitudes épistémiques en s’appuyant sur les observations disponibles.
Dans un autre registre, il ressort que le partage des expériences entre sismologues et ingénieurs est toujours
enrichissant et devrait être systématisé dans le futur, pour les évaluations probabilistes de l’aléa sismique mais
également sur d’autres thèmes comme la caractérisation du mouvement sismique et de son potentiel
endommageant, incluant l’analyse de la sismicité historique.
En terme de perspectives, et en s’appuyant sur les résultats précédents, nous envisageons de poursuivre les
travaux sur ces thèmes :
- en réalisant notamment une étude d’aléa sismique de grande échelle (France métropolitaine par
exemple) en incluant une actualisation Bayesienne selon un processus plus systématique et en utilisant
les observations provenant du Réseau Accélérométrique Permanent et celles provenant de
l’instrumentation sismique des sites EDF (en tenant compte des effets liés aux caractéristiques
particulières des sites),
- en intégrant également la sismicité historique pour obtenir des données de comparaison
complémentaires pour une autre gamme de périodes de retour.

5. Bibliographie

[COR-68], A. Cornell, «Engineering Seismic Risk Analysis», BSSA – 1968


[KLÜ-05], J. U. Klügel, «On The Use Of Probabilistic Seismic Hazard Analysis As An Input For Seismic PSA», SMiRT-18
– 2005
[SCO-03], O. Scotti & al., «Révision du zonage sismique de la France métropolitaine – Discussion des hypothèses et de leur
impact sur l’aléa», 6e colloque national AFPS – France – 2003
[HUM-07], N. Humbert & al., «Confrontation des études probabilistes d’aléa sismiques aux observations instrumentales»,
7éme colloque AFPS - Paris - 2007
Actualisation Bayesienne – Aléa probabiliste 9

[MAD-85], H. O. Madsen, «Model updating in First-Order Reliability Theory with application to fatigue crack growth», 2nd
International Workshop on Stochastic Methods in Structural Mechanics, Pavia, Italy, 1985
[HEI-99] G. Heinfling & al., «Use of Probabilistic Tools for the Material and Structural Analyses of Ageing Reinforced
Concrete Structures», RILEM 8 – Bratislava - Slovakia – 1999

Vous aimerez peut-être aussi