Vous êtes sur la page 1sur 54

Chapitre 5

Approche probabiliste du dimensionnement à


la fatigue des structures

5.1. Introduction

La fatigue des matériaux soumis à des sollicitations cycliques est un phéno-


mène éminemment aléatoire, quelle que soit l’échelle de description à laquelle
on s’intéresse. Si l’on considère par exemple des matériaux sans défauts, les
sites d’amorçage correspondent généralement à la formation de bandes de glis-
sement dans les grains superficiels et sont influencés par la taille et la position
de ces grains comme par la rugosité de la surface. Dans des matériaux présen-
tant des inclusions (par exemple les carbures dans les alliages à base nickel) ou
des défauts (micro-retassures dans les aciers moulés), ce sont ces derniers qui
peuvent devenir des sites d’initiation préférentiels. La position et la taille de
ces défauts dans un volume élémentaire de matériau sont naturellement com-
plètement aléatoires (volume 1, chapitre 3).

Chapitre rédigé par B RUNO S UDRET.

1
2 Fatigue des matériaux et des structures

Une fois la fissure initiée à l’échelle microscopique, sa propagation trans-


granulaire en stade I est pilotée par l’orientation cristalline du grain et de ses
voisins : la description fine de ce phénomène peut se faire de façon déterministe
à l’échelle des grains. Cependant, lorsqu’on considère l’échelle macroscopique
de la structure, la propagation des micro-fissures est là encore aléatoire.

A l’échelle de l’éprouvette, les différents mécanismes succinctement évo-


qués ci-dessus ne peuvent être prévus de façon déterministe : la durée de vie
d’une éprouvette d’un matériau particulier (i.e. dont la composition est parfai-
tement maîtrisée) soumise à un chargement identique, varie d’une éprouvette
à l’autre : c’est la dispersion observée par tout expérimentateur, et qui se re-
présente par un nuage de points dans le plan (log N , S), où S est l’amplitude
de sollicitation et N le nombre de cycles à rupture mesuré selon les normes en
vigueur [AFN 90].

Lorsque l’on considère le phénomène de fatigue sous l’angle de la propa-


gation d’une fissure sous chargement cyclique à l’échelle macroscopique, on
constate également que les paramètres qui régissent la propagation (les para-
mètres de la loi de Paris [PAR 63]) sont aléatoires, comme le montrent par
exemple les expériences de [VIR 78] sur l’aluminium.

Ainsi, l’aspect aléatoire du phénomène de fatigue semble bien présent à


toutes les échelles de description. Pourtant, du point de vue de la réglemen-
tation en vigueur pour la justification de la tenue de structures sollicitées en
fatigue, c’est une philosophie essentiellement déterministe qui domine (code
RCC-M pour l’industrie nucléaire [AFC 00], règles AC25.571-1 de la Federal
Aviation Administration dans l’aéronautique, etc.). S’appuyant sur des critères
dits conservatifs (c’est-à-dire tels que le dimensionnement effectué avec ces
critères soit du côté de la sécurité), les approches de l’ingénieur ont le mé-
rite d’être simples d’application. A l’opposé, les travaux académiques sur la
fatigue cherchent souvent à expliquer dans un cadre déterministe le pourquoi
des phénomènes. Forcément basés sur des paramètres à identifier par des essais
Approche probabiliste de la fatigue des structures 3

expérimentaux, les modèles de fatigue ne peuvent pourtant s’avérer prédictifs


que s’ils tentent de prendre en compte l’aléa intrinsèque.

Au vu de ces remarques liminaires, il semble important de développer une


approche probabiliste cohérente du phénomène de fatigue, alliant une descrip-
tion fine de la physique à l’échelle d’intérêt à un traitement rigoureux de l’aléa.
Depuis une dizaine d’années, le traitement d’incertitudes dans les modèles
physiques a fait l’objet de nombreuses recherches dans d’autres contextes (fia-
bilité des structures, mécanique aléatoire, éléments finis stochastiques). Il est
donc souhaitable d’appliquer la méthodologie générale de traitement des in-
certitudes et les méthodes numériques associées aux problèmes de fatigue des
matériaux et des structures : c’est l’objet du présent chapitre, qui est organisé
comme suit.

Un cadre général de traitement des incertitudes dans les modèles méca-


niques est tout d’abord proposé dans la section 5.2. Différentes méthodes de
traitement statistique des données de fatigue sont ensuite détaillées dans la sec-
tion 5.3. Une méthodologie de dimensionnement probabiliste d’une structure
vis-à-vis de l’amorçage est ensuite proposée dans la section 5.4. Puis on consi-
dère plus spécifiquement le problème des incertitudes dans la propagation de
fissures existantes dans la section 5.5, avec notamment la prise en compte de
données d’examens non destructifs pour l’actualisation des prédictions.

5.2. Traitement de l’aléa dans les modèles mécaniques

5.2.1. Schéma général

Le traitement des incertitudes dans les modèles mécaniques a fait l’objet


de nombreuses recherches depuis une trentaine d’années, prenant selon la dis-
cipline (et l’objectif recherché) le nom de mécanique aléatoire [KRE 83], fia-
bilité des structures [DIT 96, LEM 05, MEL 99], éléments finis stochastiques
4 Fatigue des matériaux et des structures

[GHA 91] ou encore analyse de sensibilité [SAL 00, SAL 04]. Sous ces diffé-
rents vocables se retrouvent des étapes communes qui permettent une présen-
tation unifiée illustrée schématiquement sur la figure 5.1 [SUD 07].

Figure 5.1. Schéma général du traitement des incertitudes dans les modèles
mécaniques

Dans une première étape (notée A), il convient de définir le modèle du


système mécanique considéré, et notamment ses paramètres d’entrée et sa ré-
ponse (aussi baptisée quantité(s) d’intérêt). On notera x le vecteur des para-
mètres d’entrée, qui décrivent la géométrie du système (longueur des éléments,
forme des sections droites, etc.), le comportement (modules d’élasticité, para-
mètres des lois de comportement) et les chargements appliqués. La réponse
y = M(x) est en général vectorielle et comprend, au sens large, des com-
posantes de type déplacements, contraintes, déformations, variables internes
(d’écrouissage, d’endommagement, etc.), mais également des quantités post-
traitées (amplitudes de cycles extraits par la méthode Rainflow, dommage cu-
mulé, etc.). Si nécessaire, il faut également définir le(s) critère(s) portant sur les
quantités d’intérêt (seuil admissible, dans le cadre d’une analyse de fiabilité).

5.2.2. Modèle probabiliste des paramètres d’entrée

Le modèle et ses paramètres d’entrée ayant été définis, il faut s’interroger


Approche probabiliste de la fatigue des structures 5

sur ceux d’entre eux qui sont incertains et en proposer une modélisation proba-
biliste. Les sources d’incertitudes, qui peuvent être multiples, sont en général
regroupées en deux catégories :
– les incertitudes dites épistémiques, qui sont dues à une méconnaissance
(imprécision des mesures, manque de données ne conduisant pas à un échan-
tillon statistique de taille suffisante, etc.). Celles-ci sont en général réductibles
au sens où une acquisition de données supplémentaires ou plus précises permet
(au moins par la pensée) de les diminuer ;
– les incertitudes dites aléatoires, qui sont intrinsèques au paramètre ob-
servé et ne sont donc pas réductibles. C’est typiquement le cas pour la quantité
« nombre de cycles à rupture d’un matériau sous sollicitation cyclique d’am-
plitude donnée » : plus on testera d’éprouvettes dans les mêmes conditions ex-
périmentales, plus on aura de chance de trouver des valeurs extrêmes (basses
ou hautes) de ce nombre de cycles. Cette incertitude aléatoire peut également
montrer une variabilité spatiale comme c’est le cas pour les propriétés des
géomatériaux.

La construction d’un modèle probabiliste des paramètres (étape B) consiste


à définir la loi de probabilité du vecteur aléatoire X des paramètres d’entrée.
Lorsque l’on ne dispose pas de données permettant de modéliser la variabilité
d’un paramètre, on peut avoir recours au jugement d’expert : on suppose une
forme pour la distribution du paramètre considéré (par exemple loi gaussienne,
uniforme, lognormale, Weibull, etc.) puis on fixe à dires d’expert la moyenne
et l’écart-type de la loi. On peut s’appuyer pour ce faire sur des données bi-
bliographiques [JCS 02].

Lorsque l’on dispose d’échantillons de données, on utilise les techniques


classiques d’inférence statistique [SAP 06]. Il convient en général de chercher
la meilleure loi dans différentes familles (par exemple, par la méthode du maxi-
mum de vraisemblance) puis de faire des tests d’adéquation pour valider ou
non les choix. Pour les problèmes de fatigue, ce genre d’analyse statistique est
6 Fatigue des matériaux et des structures

mené pour traiter les données d’essais en vue d’établir des courbes de Wöh-
ler probabilistes, comme on le verra à la section 5.3. Lorsque les échantillons
disponibles sont de petite taille, on peut les combiner avec une information a
priori sur la distribution (de type jugement d’expert) en utilisant les statistiques
bayésiennes [DRO 04, ROB 92].

Il peut arriver que les paramètres dont on souhaite modéliser la variabi-


lité ne soient pas accessibles directement à la mesure (par exemple les para-
mètres d’un modèle d’amorçage de fissure), mais que cette variabilité puisse
s’appréhender au travers de mesures de quantités d’intérêt qui en dépendent
(nombre de cycles à rupture). Il convient alors d’avoir recours à des méthodes
inverses probabilistes. Ces problèmes inverses sont encore largement ouverts,
et font l’objet de recherches récentes notamment dans le domaine de la fatigue
[PER 08, SCH 07]. Quelle que soit l’approche retenue, l’étape B produit une
description probabiliste des données d’entrée sous la forme de la densité de
probabilité fX (x) du vecteur aléatoire des paramètres d’entrée X (voir l’an-
nexe A pour les notions élémentaires de probabilités).

5.2.3. Méthodes de propagation

Une fois le modèle mécanique et le modèle probabiliste de ses paramètres


d’entrée établis, on s’intéresse à la propagation des incertitudes (étape C de
la figure 5.1). Il s’agit de caractériser la réponse aléatoire du modèle, notée de
façon générique Y = M(X)1.

Selon l’information recherchée sur Y (supposé être une quantité scalaire


ici pour simplifier la discussion), on distingue conventionnellement différents
types d’analyses, pour lesquelles des méthodes spécifiques ont été proposées
(figure 5.2) :

1. Si la variabilité de certains paramètres du modèle est nulle ou négligeable, on peut les consi-
dérer comme déterministes. Les regroupant dans un vecteur d, on notera alors Y = M(X , d).
Approche probabiliste de la fatigue des structures 7

Figure 5.2. Classification des méthodes de propagation d’incertitudes

– l’analyse de la tendance centrale, dans laquelle on s’intéresse essentielle-


ment à la moyenne µY et à la variance σY2 de la quantité d’intérêt Y (éventuel-
lement aux moments statistiques d’ordre supérieur). Si la distribution (c’est-à-
dire la densité de probabilité) de la réponse était gaussienne, ces deux scalaires
suffiraient à la caractériser. Cette hypothèse est cependant généralement fausse
en pratique, et il convient de n’utiliser les moments statistiques que pour ce
qu’ils sont, sans vouloir en déduire des informations sur la distribution de Y ;
– l’analyse de fiabilité, dans laquelle on s’intéresse à la probabilité que la
réponse Y dépasse un certain seuil ȳ. Il s’agit alors d’estimer la forme de la
queue de la distribution de Y . La probabilité associée (appelée probabilité de
défaillance) est en général faible, de l’ordre de 10−2 à 10−8 ;
– l’analyse de distribution, dans laquelle on cherche à caractériser complè-
tement la densité de probabilité de Y .

A chacune des classes de problèmes correspondent des méthodes spéci-


fiques, qui sont énumérées sans souci d’exhaustivité ci-après. Le lecteur cu-
rieux pourra trouver un état de l’art plus complet dans [SUD 07].
8 Fatigue des matériaux et des structures

– La méthode de Monte Carlo est la plus connue des méthodes de pro-


pagation d’incertitudes [RUB 81]. Elle permet, au moins théoriquement, de
résoudre les différents problèmes énoncés ci-dessus. Elle s’appuie sur la si-
mulation de nombres aléatoires par des algorithmes spécifiques qui génèrent
des échantillons de paramètres d’entrée conformes au modèle probabiliste
construit à l’étape B (i.e. selon la distribution fX ). En général efficace pour
le calcul des premiers moments statistiques, elle s’avère coûteuse et en pra-
tique inopérante dans le contexte de la fiabilité ou de l’analyse de distribution.
– La méthode des perturbations, largement utilisée en mécanique dans les
années 80, s’appuie sur un développement de Taylor du modèle M autour de la
valeur nominale des paramètres x0 et permet d’estimer moyenne et écart-type
des quantités d’intérêt très efficacement. Elle nécessite de calculer les gradients
du modèle M et redevient d’actualité depuis que ceux-ci sont implémentés
directement dans les codes de calcul aux éléments finis (par exemple dans
Code_Aster [EDF 06]).
– La résolution des problèmes de fiabilité (estimation de probabilité de dé-
passement de seuil) a conduit historiquement à des méthodes spécifiques de-
puis les années 70. Les méthodes FORM/SORM (First resp. Second order re-
liability method) sont bien établies depuis les années 80 et d’application cou-
rante dans certains secteurs industriels (offshore, nucléaire) depuis une dizaine
d’années. Ce sont des méthodes d’approximation de la queue de distribution,
qui ne permettent pas directement d’estimer la qualité du résultat obtenu. Elles
sont donc en général couplées à des méthodes de simulation avancées (simula-
tion directionnelle, tirages d’importance (importance sampling), subset simu-
lation, etc.).
– Initialement introduites dans la méthode des éléments finis stochastiques
spectraux [GHA 91], les représentations de la réponse Y par chaos polyno-
mial sont aujourd’hui une piste prometteuse pour le traitement des incerti-
tudes. Le principe est de considérer la réponse aléatoire Y dans un espace
de variables aléatoires adéquat, dans lequel on construit une base. La réponse
Y est alors complètement connue par ses « coordonnées » dans cette base,
Approche probabiliste de la fatigue des structures 9

qui sont les coefficients du développement sur le chaos polynomial. Ces co-
efficients peuvent être notamment calculés par des méthodes dites non intru-
sives, c’est-à-dire à partir d’un nombre limité d’évaluations du modèle, soit
Y = {y (i) = M(x(i) ), i = 1, . . . , N }. Le post-traitement analytique des
coefficients fournit ensuite à un coût de calcul quasi nul la distribution de
Y , ses moments statististiques, les probabilités de dépassement de seuil, etc.
[SUD 07].
– La plupart des méthodes de propagation d’incertitudes fournissent
comme sous-produit (c’est-à-dire avec pas ou très peu de calculs supplémen-
taires) des informations sur l’importance relative des paramètres d’entrée du
modèle : on appelle ces sous-produits facteurs d’importance ou indices de sen-
sibilité selon les méthodes. Cette phase de hiérarchisation des paramètres en
fonction de leur importance est baptisée « étape C’ » sur la figure 5.1.

5.2.4. Conclusion

Dans cette première partie introductive, on s’est attaché à définir un cadre


général de traitement des incertitudes dans les modèles mécaniques. On a dé-
fini les différents ingrédients nécessaires puis passé en revue les méthodes de
calcul les plus courantes. Le schéma général va maintenant être explicité pour
différents problèmes liés à la fatigue des matériaux et des structures.

5.3. Etablissement de courbes S/N probabilistes

5.3.1. Introduction

Le traitement des données d’essais de fatigue sur éprouvettes permet d’in-


terpréter les points expérimentaux sous la forme de courbes dites de Wöhler
dans le plan (amplitude – nombre de cycles à rupture), cf. volume 1, chapitre 2.
Au niveau français, le traitement statistique proprement dit fait l’objet d’une
norme [AFN 91] (notamment inspirée des travaux de Bastenaire [BAS 60]),
qui explicite différentes méthodes pour obtenir la limite d’endurance par la
10 Fatigue des matériaux et des structures

méthode de l’escalier (paragraphe 5), la courbe de Wöhler médiane (para-


graphe 6), ou des courbes S/N probabilisées (méthode ESOPE, paragraphe 8).
Cette dernière est résumée dans le paragraphe 5.3.2. On propose ensuite une
approche globale pour l’établissement de courbes S/N probabilisées. Elle s’ap-
puie sur les développements de Guédé [GUE 05], Perrin [PER 08] et Pascual
et Meeker [PAS 97, PAS 99]. Elle a été utilisée récemment dans un contexte
industriel par EDF et par EADS [SCH 06, SCH 07].

Dans les différentes approches, on considère un échantillon d’observations


(nuage de points) :
E = {(Si , Ni ), i = 1, . . . , Q} (5.1)

où Ni désigne le nombre de cycles à rupture mesuré sous une sollicitation


alternée d’amplitude Si et Q est la taille de l’échantillon. On considère que
l’échantillon comporte des essais effectués dans des conditions suffisamment
proches pour qu’il soit licite de traiter tous les points expérimentaux ensemble.
On tiendra également compte de données censurées, c’est-à-dire d’essais pour
lesquels on n’a pas observé la rupture au bout de Ni cycles, instant où l’essai
a été interrompu : on notera Ni∗ ces dernières.

5.3.2. Méthode ESOPE

La méthode ESOPE recommandée par la norme AFNOR A 03-405 para-


graphe 8 [AFN 91] est fondée sur l’hypothèse suivante : dans un échantillon
E tel que défini plus haut, on suppose que la fraction F (S, N ) des éprouvettes
ayant rompu avant N cycles d’amplitude S a la forme bien particulière sui-
vante :
S − µ(N )
 
F (S, N ) = Φ (5.2)
σ
où σ est un paramètre de dispersion, Φ est la fonction de répartition gaussienne
(voir Eq.(5.31)) et µ(N ) est une courbe dont on choisit la forme et dont on va
estimer les paramètres à partir de E. Remarquons que la courbe de durée de vie
médiane (correspondant à l’ensemble des points (N, S) tels que F (S, N ) =
Approche probabiliste de la fatigue des structures 11

0, 5) a pour équation S = µ(N ) d’après (5.2), puisque Φ−1 (0, 5) = 0. Cette


courbe médiane donne pour chaque niveau de sollicitation S la valeur N50 %
telle qu’il y ait autant de chance pour une éprouvette sollicitée sous chargement
S de rompre avant ou après N50 % cycles.

Sous un autre point de vue, la quantité F (S, N ) est une estimation de la


fonction de répartition FNS (N ; S) de la variable aléatoire NS (ω) définie2
comme le nombre de cycles à rupture du matériau considéré, sous amplitude S.
Par conséquent, d’après (5.2) les courbes d’iso-probabilité p de rupture notées
Np (S) et définies par :

P (NS (ω) ≤ Np (S)) = p (5.3)

sont définies dans le plan (N, S) par l’équation :

S = µ(N ) + σ Φ−1 (p) (5.4)

On les obtient donc en décalant verticalement la courbe médiane de σ Φ−1 (p).


En pratique, on se donne une forme paramétrique pour cette durée de vie mé-
diane, par exemple :
µ(N ) = a + b N c (5.5)

Comme le propose la norme AFNOR A 03-405, on estime ensuite les pa-


ramètres a, b, c par la méthode du maximum de vraisemblance (voir para-
graphe 5.7.3) : en combinant les équations (5.2) et (5.5), il vient :

S − [a + b N c ]
 
FNS (N ; S) = Φ (5.6)
σ

dont on peut déduire la densité de probabilité de la durée de vie fNS (N ; S).


On exprime ensuite la vraisemblance des paramètres a, b, c, et l’on estime ces
paramètres en maximisant cette quantité.

2. Dans tout le chapitre, la notation ω souligne le caractère aléatoire de la quantité considérée.


Quand il n’y pas d’ambiguité, ω pourra être omis pour alléger les expressions.
12 Fatigue des matériaux et des structures

Remarque L’équation (5.6) est souvent interprétée par abus de langage


de la façon suivante : « la variabilité de la contrainte S, pour une durée de vie
fixée N est gaussienne, d’écart-type σ ». Cette assertion n’a en fait pas de sens,
puisqu’expérimentalement ce n’est pas N mais l’amplitude de chargement S
qui est fixée (et qui n’a donc rien d’aléatoire !), et qu’inversement c’est bien la
durée de vie N sous chargement S qui est aléatoire, car liée à l’apparition de
mécanismes de fissuration à l’échelle microscopique qu’on ne peut pas décrire
par un formalisme déterministe à l’échelle macroscopique des essais, comme
on l’a vu dans la discussion introductive.

5.3.3. Méthode Guédé-Perrin-Pascual-Meeker (GPPM)

La méthode ESOPE décrite ci-dessus ne donne pas explicitement la loi des


variables aléatoires NS (ω) modélisant la durée de vie des éprouvettes, et n’est
donc pas directement exploitable dans un calcul probabiliste complet d’une
structure en fatigue, comme on le verra ci-après. Il est donc nécessaire de po-
ser le problème sous un angle nouveau, celui de la modélisation directe des
quantités physiquement incertaines (au sens de l’incertitude aléatoire définie
plus haut), à savoir le nombre de cycles à rupture des éprouvettes sous am-
plitude S. On cherche ainsi à caractériser conjointement la loi de ces variables
aléatoires NS (ω). Plusieurs formulations ont été proposées au cours de la thèse
de Guédé [GUE 05, SUD 03a] et complétées par Perrin [PER 05]. Le forma-
lisme final s’avère très proche de celui proposé indépendamment par Pascual
et Meeker [PAS 97, PAS 99], d’où l’acronyme GPPM.

5.3.3.1. Hypothèses de Guédé


La méthode de Guédé comprend les étapes suivantes :
– le choix de la distribution pour les variables NS (ω) : une loi lognormale
est classiquement postulée (le logarithme du nombre de cycles à rupture est
supposé suivre une loi gaussienne). Il est important de souligner que d’autres
choix sont possibles (en particulier une loi de Weibull). L’hypothèse doit être
validée a posteriori par l’utilisation de tests statistiques d’adéquation ;
Approche probabiliste de la fatigue des structures 13

– la description, en fonction de S, des paramètres de la loi de NS (ω). Les


travaux initiaux de Sudret et al. [SUD 03a] supposent que la moyenne λ(S) de
ln NS s’exprime comme suit (formule de Stromeyer) :

λ(S) = A ln(S − SD ) + B (5.7)

On peut ensuite considérer soit un écart-type constant [LOR 05] (ce qui peut
être raisonnable si on s’intéresse à un échantillon ne comportant que des points
dans le domaine oligocyclique), soit un écart-type variable en fonction de l’am-
plitude de sollicitation S :
σ(S) = δ λ(S) (5.8)

Ce dernier choix permet de rendre compte de la dispersion plus grande des


données habituellement observée dans le domaine à grand nombre de cycles ;
– le type de dépendance entre les variables aléatoires NS (ω) pour diffé-
rentes valeurs de S. L’hypothèse de parfaite dépendance est retenue : elle
correspond à l’idée intuitive que si l’on pouvait tester la même éprouvette à
différents niveaux de sollicitations (ce qu’on ne peut pas réaliser en pratique
puisque les essais sont destructifs), la résistance à la fatigue serait uniformé-
ment bonne ou mauvaise, c’est-à-dire que le nombre de cycles à rupture ob-
servé serait, indépendamment de S, éloigné dans les mêmes proportions de la
valeur médiane (en plus ou en moins).

5.3.3.2. Identification du modèle

Les hypothèses précédentes permettent d’écrire la variable aléatoire NS (ω)


comme suit :

ln NS (ω) = λ(S) + σ(S) ξ(ω) = (A ln(S − SD ) + B)(1 + δ ξ(ω)) (5.9)

où ξ(ω) est une variable gaussienne centrée réduite (i.e. de moyenne nulle et
d’écart-type 1). À ce stade, le modèle probabiliste dépend donc des 4 para-
mètres A, B (allure de la courbe médiane), SD (asymptote, que l’on interprète
comme une limite d’endurance à l’infini) et δ (augmentation de la dispersion
14 Fatigue des matériaux et des structures

dans le domaine polycyclique). Le fait d’avoir une seule variable ξ(ω) dans
(5.9) (et non pas une variable ξS (ω) pour chaque amplitude S) traduit l’hypo-
thèse de parfaite dépendance posée précédemment. Des équations (5.7)-(5.9),
on tire la densité de probabilité de la variable NS (ω) :

fNS (n, S; A, B, SD , δ) =
 (5.10)
ln n − [A ln(S − SD ) + B]

1
ϕ
δ [A ln(S − SD ) + B] n δ [A ln(S − SD ) + B]
2 √
où ϕ(x) = e−x /2 / 2π désigne la densité de probabilité gaussienne centrée
réduite.

Si l’on dispose maintenant d’un échantillon E (Eq.(5.1)), on peut exprimer


la vraisemblance des paramètres A, B, SD , δ sur cet échantillon :
Q
Y
L(A, B, SD , δ; E) = fNS (Ni , Si ; A, B, SD , δ) (5.11)
i=1

La méthode du maximum de vraisemblance consiste à estimer les paramètres


inconnus A, B, SD , δ en maximisant la quantité précédente (ou en minimi-
sant la log-vraisemblance −2 ln L). L’interprétation intuitive de la méthode est
simple : elle conduit à choisir les paramètres qui maximisent la probabilité
d’avoir observé l’échantillon dont on dispose. Notons que les données censu-
rées Ni∗ (pas de rupture observée avant Ni cycles d’amplitude Si ) peuvent être
prises en compte dans l’équation (5.11) en remplaçant la densité de probabilité
fNS (N i, Si ; A, B, SD , δ) par 1 − FNS (Ni∗ , Si ; A, B, SD , δ), où la fonction de
répartition FNS est définie par :
ln n − [A ln(S − SD ) + B]
 
FNS (n, S; A, B, SD , δ) = Φ (5.12)
δ [A ln(S − SD ) + B]
et Φ(x) est la fonction de répartition gaussienne centrée réduite.

Une fois les paramètres identifiés à partir de l’échantillon (notons les dé-
sormais avec un chapeau), les courbes S/N probabilisées s’obtiennent natu-
rellement à partir de (5.9). La courbe d’iso-probabilité de rupture p a pour
Approche probabiliste de la fatigue des structures 15

équation :
Np (S) = (Â ln(S − ŜD ) + B̂)(1 + δ̂ ξp ) (5.13)

où ξp = Φ−1 (p) est le quantile de niveau p de la loi gaussienne centrée réduite.


On peut alors tracer aisément la courbe médiane (ξp = 0) et, par exemple, les
quantiles à 5 % et 95 % (ξp = ±1, 645).

5.3.3.3. Méthode GPPM


Dans ce qui précède, le paramètre SD est un paramètre déterministe de ca-
lage des courbes S/N sur les données. On peut s’interroger sur la signification
de ce paramètre :
– on peut interpréter SD simplement comme une limite de fatigue détermi-
niste, c’est-à-dire une valeur d’amplitude telle que, si l’on effectuait des essais
à nombre de cycles infini et à amplitude inférieure à SD on n’observerait ja-
mais de rupture. C’est ce que l’on a considéré dans le paragraphe précédent. Il
en résulte alors que les courbes d’iso-probabilité ont toutes la même asymptôte
horizontale en SD ;
– on peut aussi considérer que la limite de fatigue est en fait un véritable
paramètre matériau, différent pour chaque éprouvette : ce serait alors l’ampli-
tude critique telle que, pour l’éprouvette considérée, il n’y ait jamais rupture
pour toute sollicitation cyclique d’amplitude inférieure à cette valeur. Dans ce
cadre, il est alors naturel de considérer SD comme une variable aléatoire, dont
la valeur est différente (et bien sûr inconnue) pour chaque éprouvette testée.
On peut alors parler de loi, de moyennne et d’écart-type de la limite de fatigue
du matériau, et essayer de la déterminer : c’est l’objet du modèle GPPM.

Précisément, on conserve les hypothèses du paragraphe 5.3.3.1 et on sup-


pose maintenant que le paramètre SD est une variable aléatoire, de densité
de probabilité notée fSD (sD ; θ), où θ est le vecteur des paramètres de la loi
(θ = (λSD , ζSD ) pour une loi lognormale). La densité de probabilité don-
née dans l’équation (5.10) devient alors conditionnelle à ces paramètres, on la
note fNS |SD (n, sD , S; A, B, δ). Pour calculer la vraisemblance (Eq.(5.11)) il
16 Fatigue des matériaux et des structures

est nécessaire d’exprimer la loi fNS non conditionnelle, ce que l’on obtient par
intégration :
Z
fNS (n, S; A, B, δ, θ) = fNS |SD (n, sD , S; A, B, δ) fSD (sD ; θ) dsD
(5.14)
On aboutit finalement à un problème de maximum de vraisemblance, dont la
résolution fournit conjointement les estimateurs des paramètres pilotant les
courbes d’iso-probabilité de rupture Â, B̂, δ̂ et de la loi de la limite de fatigue
θ̂ (voir les détails dans [PER 08]).

5.3.4. Validation des hypothèses

Dans la méthode ESOPE comme dans l’approche GPPM, des hypothèses


sont faites sur la forme des distributions. La théorie des tests d’adéquation
statistiques [SAP 06, chapitre 14] permet de valider ou non ces hypothèses,
une fois l’estimation des paramètres de chaque modèle effectuée. Précisément
ces hypothèses (baptisées « hypothèse nulle » H0 dans le formalisme des tests)
sont les suivantes :
– méthode ESOPE : la variable aléatoire S − [a + b N c ] suit une loi gaus-
sienne centrée d’écart-type σ (voir Eqs.(5.2),(5.5)). Pour chaque point de
l’échantillon {(Ni , Si ), i = 1, . . . , Q}, on calcule la quantité précédente et
l’on obtient donc un échantillon {ξi , i = 1, . . . , Q} sur lequel on teste H0 ;
– méthode de Guédé : la variable ((ln NS (ω)/[A ln(S − SD ) + B]) − 1) /δ
(baptisée ξ(ω)) suit une loi gaussienne centrée réduite. Pour chaque point
de l’échantillon {(Ni , Si ), i = 1, . . . , Q}, on calcule la quantité précédente
et l’on obtient donc un échantillon {ξi , i = 1, . . . , Q} dont on teste la
normalité ;
– méthode GPPM : pour chaque amplitude S, la variable aléatoire NS (ω)
suit la distribution donnée par l’équation (5.14).

Il est donc possible de comparer quantitativement les différentes méthodes


d’ajustement et de valider a posteriori les hypothèses faites.
Approche probabiliste de la fatigue des structures 17

5.3.5. Exemple d’application

Pour illustrer les différentes méthodes présentées ci-dessus, on reprend les


résultats de Perrin [PER 08], qui a traité un échantillon de 153 résultats d’es-
sais sur éprouvettes en acier austénitique à 20° C. Comme on le voit sur la fi-
gure 5.3, les différentes approches donnent des résultats très proches en termes
de courbe médiane.

10000
Rupture
Non rupture
Guédé
8000 ESOPE
GPPM
Amplitude (MPa)

6000

4000

2000

0
1 2 3 4 5 6 7
10 10 10 10 10 10 10
Nombre de cycles à rupture

Figure 5.3. Traitement statistique d’essais de fatigue sur éprouvettes en acier austénitique –
courbes médianes obtenues par la méthode ESOPE et les modèles Guédé et GPPM

Les courbes des quantiles à 2,5 % et 97,5 % sont donnés sur la figure 5.4. On
observe cette fois une grande différence dans l’allure générale des intervalles
de confiance associés. La méthode ESOPE semble sous-estimer la variabilité
à faible nombre de cycles.

On peut également tracer, pour différentes amplitudes S, la densité de pro-


babilité de la durée de vie NS (ω) par les différentes méthodes [PER 08]. On
note en particulier que sur l’échantillon de points considéré, les tests d’adé-
quation permettent d’infirmer la validité du modèle ESOPE, contrairement aux
18 Fatigue des matériaux et des structures

Méthode ESOPE
6000
Rupture
Non rupture
5000 Quantile 2,5%
Quantile 50%
Quantile 97,5%
Amplitude (MPa)

4000

3000

2000

1000

0
1 2 3 4 5 6 7
10 10 10 10 10 10 10
Nombre de cycles à rupture

Méthode Guédé
6000
Rupture
Non rupture
5000 Quantile 2,5%
Quantile 50%
Quantile 97,5%
Amplitude (MPa)

4000

3000

2000

1000

0
1 2 3 4 5 6 7
10 10 10 10 10 10 10
Nombre de cycles à rupture

Méthode GPPM
6000
Rupture
Non rupture
5000 Quantile 2,5%
Quantile 50%
Quantile 97,5%
Amplitude (MPa)

4000

3000

2000

1000

0
1 2 3 4 5 6 7
10 10 10 10 10 10 10
Nombre de cycles à rupture

Figure 5.4. Traitement statistique d’essais de fatigue sur éprouvettes en acier austénitique –
courbes des quantiles à 2,5 % et 97,5 % pour les différentes méthodes
Approche probabiliste de la fatigue des structures 19

deux autres. Les courbes médianes et de quantiles obtenues par la méthode de


Guédé et la méthode GPPM sont très similaires, de même que les densités
de probabilité de la durée de vie pour des niveaux d’amplitudes grands. La
différence entre les approches apparaît pour des niveaux proches de la limite
d’endurance. Celle-ci est estimée à la valeur (fixe) de 236,9 MPa par la mé-
thode de Guédé, et par une variable lognormale de moyenne de 257,8 MPa et
d’écart-type 28,4 MPa par la méthode GPPM.

5.3.6. Conclusion

Le traitement statistique des données d’essais est une étape incontournable


dans le processus de dimensionnement à la fatigue. On a rappelé dans cette
section les principes de la méthode ESOPE qui est la plus connue, notamment
auprès des industriels. Une formulation alternative (baptisée GPPM) basée sur
l’inférence directe des distributions des durées de vie NS (ω) a été proposée
et permet notamment de considérer une limite d’endurance aléatoire, dont les
paramètres sont estimés conjointement avec ceux décrivant la courbe de Wöh-
ler médiane. Cette approche permet en particulier de traiter d’un coup tout un
nuage de points expérimentaux (y compris les non rompus) sans qu’il soit né-
cessaire d’avoir un certain nombre de niveaux d’amplitude bien identifiés et de
nombreux points par niveaux, au contraire de la méthode ESOPE qui est ba-
sée sur l’estimation de la fraction d’éprouvette rompues avant N cycles, pour
chaque niveau d’amplitude S.

5.4. Dimensionnement probabiliste à l’amorçage

5.4.1. Introduction

L’objectif de l’établissement de courbes de Wöhler à partir de données sur


éprouvettes est en général une première étape dans le dimensionnement de
structures à la fatigue, qui permet simplement de caractériser l’endurance du
matériau. Très schématiquement, pour dimensionner une pièce, il faut ensuite
20 Fatigue des matériaux et des structures

caractériser les sollicitations appliquées (chargement cyclique, périodique ou


aléatoire) et leurs effets (calcul mécanique des contraintes, extraction des cycles
de contraintes), puis calculer l’endommagement généré par ces cycles de contraintes.
Dans un cadre d’analyse probabiliste, on va retrouver les mêmes étapes et l’on
va s’efforcer de prendre en compte pour chacune les incertitudes de la façon la
plus cohérente possible.

Pour ce faire, on prend exemple dans cette section sur le schéma de dimen-
sionnement déterministe à la fatigue de composants de centrales nucléaires
(code RCC-M [AFC 00]), et de sa transposition à un cadre probabiliste (tra-
vaux de Guédé [GUE 05, SUD 05]. Conformément au schéma général de trai-
tement des incertitudes présenté à la section 5.2.1, on va successivement dé-
crire le modèle déterministe réglementaire du RCC-M (étape A), caractériser
les différentes sources d’incertitudes (étape B) puis propager les incertitudes à
travers le modèle pour en déduire la fiabilité de la pièce soumise à la fatigue.
On illustrera la démarche complète sur le calcul d’une tuyauterie soumise à de
la fatigue thermique.

Il est important de noter que la démarche globale est indépendante des mo-
dèles utilisés à chaque étape du calcul déterministe, qui sont ici très simpli-
fiés. La même approche générale a notamment été utilisée récemment avec des
critères de fatigue multi-axiaux par Schwob [SCH 06, SCH 07] en collabora-
tion avec EADS et par [PER 06] en collaboration avec Renault. On peut noter
également que la méthode dite contrainte - résistance [THO 99] développée
notamment dans l’industrie automobile par PSA Peugeot Citroën se rattache à
ce schéma général.

5.4.2. Modèle déterministe

On reprend ici les principales étapes de la justification réglementaire de


tuyauteries de centrales nucléaires soumises à la fatigue [AFC 00] :
Approche probabiliste de la fatigue des structures 21

– description du chargement : on s’intéresse à un problème de fatigue ther-


mique due aux fluctuations de température du fluide contenu dans l’élément de
tuyauterie. Il est donc nécessaire de préciser, pour chaque séquence de fonc-
tionnement particulier, l’historique de température en paroi interne de la tuyau-
terie. Cette historique peut provenir d’un calcul de mécanique des fluides, de
mesures sur maquette extrapolées, etc. ;
– modèle mécanique : à partir de la description de la géométrie de la
structure (rayon interne, épaisseur, etc.), des propriétés matériaux (module
d’Young, coefficient de Poisson, paramètres de lois de comportement élas-
toplastiques), des conditions aux limites (coefficient d’échange thermique
fluide/structure) et du chargement, on calcule les champs de déformations et
de contraintes en fonction du temps ;
– extraction de cycles de fatigue : du tenseur des contraintes on déduit un
historique de contrainte équivalente (obtenu ici par le critère de Tresca), dont
on extrait les cycles par la méthode Rainflow [AMZ 94]. On en déduit une
séquence d’amplitudes Si , i = 1, . . . , Nc . Les valeurs obtenues sont corrigées
pour tenir compte de l’effet de la contrainte moyenne (droite de Goodman dans
le diagramme de Haigh) ;
– choix de la courbe de conception : dans le code RCC-M, la courbe de
dimensionnement Nd (S) s’obtient en pénalisant la courbe de Wöhler médiane
Nbf (S) obtenue à partir des essais sur éprouvettes par des coefficients (appelés
également facteurs de marge) qui tiennent empiriquement compte de tous les
facteurs conduisant à une durée de vie à l’amorçage réduite pour la structure
par rapport aux éprouvettes, et visant à être conservatif. Le code RCC-M définit
ainsi la courbe de dimensionnement par :

Nd (S) = min(Nbf (S)/γN , Nbf (γ S S)) (5.15)

Les facteurs de marge valent respectivement γ N = 20 (pénalisation du nombre


de cycles dans le domaine oligocyclique) et γ S = 2 (majoration des contraintes
appliquées dans le domaine à grand nombre de cycles) ;
22 Fatigue des matériaux et des structures

– règle de cumul de dommage : la règle de cumul de dommage linéaire de


Miner est appliquée [MIN 45] : on considère que chaque cycle d’amplitude
Si génère un dommage élémentaire équivalent à di = 1/Nd (Si ), et que ce
dommage se cumule additivement pour tous les cycles extraits par la méthode
Rainflow :
Nc
X Nc
X
D= di = 1/Nd (Si ) (5.16)
i=1 i=1

Le critère de dimensionnement impose que le dommage cumulé reste inférieur


à 1 pour la durée de service envisagée pour l’équipement. Lorsque le charge-
ment appliqué à la structure est constitué de séquences supposées identiques,
on peut calculer le dommage cumulé Dseq associé à une séquence (qui com-
prend elle-même un certain nombre de cycles de contrainte) et en déduire une
durée de vie en fatigue de la structure définie par Td = 1/Dseq , exprimée en
nombre de séquences admissibles.

Les différentes étapes du calcul sont représentées schématiquement sur la fi-


gure 5.5.

5.4.3. Modèlisation probabiliste des incertitudes

La chaîne de calcul présentée au paragraphe précédent, bien que simplifiée,


fait intervenir de nombreux paramètres, qui sont en pratique mal connus (par
exemple le coefficient d’échange fluide/structure) ou intrinsèquement aléa-
toires (la durée de vie des éprouvettes). Il est donc nécessaire de répertorier
toutes les sources d’incertitudes, puis de les modéliser dans un cadre probabi-
liste cohérent en fonction des données disponibles (étape B du schéma général,
figure 5.1). Reprenant dans l’ordre les étapes du calcul, on va s’intéresser suc-
cessivement aux paramètres suivants.
– chargement thermique : si l’on souhaite concevoir un élément de tuyau-
terie pour une gamme de fonctionnement spécifiée, on définira un signal ther-
mique de dimensionnement, soit à partir de mesures sur structures réelles ou
Approche probabiliste de la fatigue des structures 23

Figure 5.5. Schéma déterministe simplifié de dimensionnement à la fatigue


thermique des tuyauteries de centrales nucléaires

maquettes, soit à partir de scénarios de fonctionnement et de calculs thermo-


hydrauliques associés. L’incertitude peut être prise en compte par la modélisa-
tion par processus aléatoire de la température du fluide. Pour ce faire, on peut
identifier les propriétés du processus à partir de séries de mesures suffisam-
ment longues (soit dans le domaine temporel, soit dans le domaine fréquentiel
par l’intermédiaire de la densité spectrale de puissance). On peut également
simplifier le problème en se donnant une trajectoire temporelle représentative
des fluctuations thermiques, que l’on vient moduler par un coefficient modélisé
par une variable aléatoire ;
– modèle mécanique : les paramètres entrant classiquement dans la défini-
tion du modèle mécanique (dimensions géométriques, propriétés élastiques ou
élastoplastiques des matériaux) présentent une variabilité que l’on peut modé-
liser par des variables aléatoires. L’incertitude sur la géométrie est reliée aux
spécifications de fabrication de la tuyauterie. Les incertitudes sur les propriétés
24 Fatigue des matériaux et des structures

matériaux peuvent être appréhendées par des essais sur les matériaux considé-
rés ou à défaut, à partir de données bibliographiques [JCS 02] ;
– courbe de conception : la courbe de conception a été définie plus haut à
partir d’une part de la courbe de Wöhler médiane des éprouvettes et d’autre
part de facteurs de marge. On a donné dans la section 5.3 une méthodologie
rigoureuse d’analyse statistique permettant d’obtenir les courbes de Wöhler
probabilisées. Il faut maintenant discuter le contenu des facteurs de marge.

Les facteurs γ N = 20 et γ S = 2 définis plus haut sont introduits dans le


dimensionnement déterministe pour couvrir de façon conservative deux effets
de nature très différentes, la dispersion naturelle de la durée de vie en fatigue
des éprouvettes d’une part, et la réduction de durée de vie entre l’éprouvette
de laboratoire et la structure dans son environnement réel d’autre part. On peut
donc décomposer ces facteurs comme suit :

γ N = γdisp
N N
· γpassage
(5.17)
γ S = γdisp
S S
· γpassage
.
Dans ces expressions, γdisp .
et γpassage correspondent à la part associée à cha-
cun des effets. On trouve des décompositions empiriques de ces facteurs dans
N
la littérature, par exemple γdisp = 2 pour γ N = 20 and γdisp
S = 1.19 pour
γ S = 2 [COL 98]. Cependant, aucun consensus réel n’existe sur le sujet,
les données étant essentiellement empiriques et très liées au type de matériau
S
testé. Les compléments γpassage N
and γpassage sont appelés facteurs de pas-
sage éprouvette - structure et permettent de tenir compte de façon forfaitaire
de l’effet de taille de la structure, de l’état de surface et de l’environnement
(notamment chimique, en température, etc.).

Il va de soi que les facteurs de passage ainsi définis ne sont pas mesurables.
Il faudrait en effet connaître à la fois la durée de vie à l’amorçage d’une éprou-
vette et d’une structure constituée d’un matériau strictement identique (au sens
de sa microstructure) pour obtenir, par comparaison, le facteur de passage as-
socié, ce qui n’est physiquement pas réalisable. Pour avoir une représentation
Approche probabiliste de la fatigue des structures 25

probabiliste rigoureuse des facteurs de passage, il est donc nécessaire d’avoir


recours à des méthodes inverses probabilistes, qui permettent d’estimer ces
facteurs et leur dispersion à partir de données de durée de vie à l’amorçage
d’un échantillon d’éprouvettes et d’un ensemble de structures similaires (par
exemple des maquettes de tuyauterie caractéristiques du système réel consi-
déré, comme par exemple les essais INTHERPOL [CUR 04, CUR 05]). Le
détail de cette technique d’identification dépasse le cadre de ce chapitre : le
lecteur pourra se reporter à [PER 07a] pour les détails.

5.4.4. Dommage cumulé aléatoire

Le dommage cumulé D peut être considéré comme le résultat scalaire de


la chaîne de calcul résumée sur la figure 5.5. Lorsqu’on considère maintenant
comme aléatoires les paramètres d’entrée de chaque sous-modèle de la chaîne
de calcul (modèle thermo-mécanique, extraction des cycles, courbe de dimen-
sionnement, etc.), le dommage cumulé devient aléatoire. La définition naturelle
du dommage élémentaire aléatoire associé à un cycle d’amplitude S fixée est :
h i
d(S, ω) ≡ 1/N struc (S, ω) = 1/ min NS (ω)/γpassage
N
, Nγpassage
S (ω)
(5.18)
Dans cette équation, N struc (S, ω) est la durée de vie de la structure sous char-
gement d’amplitude constante S, qui est reliée à la courbe de Wöhler probabi-
liste NS (ω) par les facteurs de passage. Si le calcul thermo-mécanique suivi du
comptage Rainflow conduit à un nombre de cycles Nc (potentiellement aléa-
toire), le dommage cumulé aléatoire D(ω) est alors défini par :
Nc
X
D(ω) = d(Si (ω), ω) (5.19)
i=1

Dans cette expression, le caractère aléatoire du dommage provient à la fois :


– de l’aléa sur le chargement, qui est propagé à travers le modèle mécanique
dans le calcul de l’amplitude des cycles {Sk (ω), k = 1, . . . , Nc }, amplitudes
qui deviennent donc elles-mêmes des variables aléatoires ;
26 Fatigue des matériaux et des structures

– de l’aléa sur l’endurance du matériau, à travers la courbe de Wöhler.

Dans le cas d’un chargement aléatoire stationnaire, pour des séquences de


chargement suffisamment longues, le nombre de cycles extraits Nc devient
grand et on peut le considérer en première approximation comme déterministe
[TOV 01]. On peut alors représenter les amplitudes des cycles extraits de façon
continue par leur densité de probabilité fS (s). Celà conduit à une définition
« continue » du dommage cumulé aléatoire :

Z∞  
Nc fS (s) dS 1
D(ω) = = Nc ES (5.20)
N struc (S, ω) N struc (S, ω)
0

où ES [.] désigne l’espérance mathématique par rapport à la densité de pro-


babilité des amplitudes fS (s). Sous les hypothèses de cumul linéaire et d’un
grand nombre de cycles extraits indépendants, on peut montrer que le dom-
mage cumulé défini par l’équation (5.19) converge vers celui défini par l’équa-
tion (5.20) [SUD 03b]. On voit par ailleurs dans l’équation (5.20) que, sous
ces hypothèses, l’aléa sur le dommage ne provient plus que de l’aléa sur la du-
rée de vie N struc (S, ω) (donc de l’endurance aléatoire du matériau) puisque
la part provenant du chargement aléatoire se retrouve moyennée. Cette conclu-
sion peut ne plus être valable pour des chargements instationnaires, comme
c’est le cas par exemple dans l’industrie offshore.

La formulation continue précédente s’applique bien à une approche en fré-


quence du calcul de dommage de fatigue. A partir de la densité spectrale de
puissance (DSP) du chargement, et si le modèle mécanique est linéaire, on
peut obtenir la DSP de la contrainte équivalente résultante. Des formules em-
piriques telles que celles de Dirlik [BEN 06, DIR 85] permettent alors de re-
construire la densité de probabilité des cycles extraits par la méthode Rainflow,
qui peut être enfin injectée dans (5.20). Le lecteur intéressé pourra consulter
le détail de l’ensemble de la méthode dans les travaux de Guédé [GUE 05,
chapitre 6],[GUE 07].
Approche probabiliste de la fatigue des structures 27

5.4.5. Application au dimensionnement d’une tuyauterie

5.4.5.1. Définition du problème et modèle déterministe (étape A)

A titre d’illustration des différents concepts présentés dans cette section, on


considère un tronçon de tuyauterie typiquement rencontré dans un circuit de
réacteur à eau pressurisée. On reprend ici les résultats de Guédé ([GUE 05],
chapitre 7). Le lecteur pourra se reporter à cette référence pour une analyse pa-
ramétrique approfondie du problème sous différents chargements, ainsi qu’une
comparaison des approches probabilistes dans les domaines temporel et fré-
quentiel.

On considère une section de tuyauterie de rayon Rint et d’épaisseur t, sou-


mise à une température de fluide en peau interne modélisée par un processus
aléatoire Gaussien θ(t, ω), dont la moyenne vaut 130° C, l’écart-type 20° C. Ce
processus est un pseudo-bruit blanc de densité spectrale de puissance constante
sur l’intervalle [0,5 Hz]. A partir de ces données on simule une trajectoire θ(t)
sur un intervalle de temps suffisamment long (ici [0,360 s]) et l’on considère
ensuite que ce signal se reproduit périodiquement. À titre indicatif, les dix pre-
mières secondes du signal sont représentées sur la figure 5.6. On considère
dans la suite une durée de service de Nseq = 10 000 séquences de 360 se-
condes.

En zone courante, les contraintes dans la tuyauterie peuvent être calculées


par un modèle 1D axisymétrique en déformations planes généralisées (la com-
posante de déformation εzz est supposée constante dans l’épaisseur). Confor-
mément au code RCC-M, on effectue un calcul élastique. La température du
fluide est transmise à la tuyauterie en peau interne à travers un coefficient
d’échange fluide/structure. La peau externe de la tuyauterie est isolée (calori-
fuge). Compte tenu de la forme simplifiée du modèle, le tenseur des contraintes
obtenu est diagonal et les composantes sont en phase. Il suffit donc de consi-
dérer l’historique de contrainte orthoradiale σθθ (t) pour effectuer le comp-
tage Rainflow. Les amplitudes de cycles extraits sont corrigées par la droite
28 Fatigue des matériaux et des structures

Figure 5.6. Dimensionnement probabiliste d’une tuyauterie


à la fatigue thermique : historique de température

de Goodman dans le diagramme de Haigh pour tenir compte de la contrainte


moyenne.

5.4.5.2. Modèle probabiliste (étape B)

Les différentes variables aléatoires modélisant les incertitudes sur les para-
mètres du modèle sont rassemblées dans le tableau 5.1. Le choix des lois de
probabilité et de leurs paramètres (étape B) a été effectué comme suit3 :
– Les propriétés des matériaux sont modélisées par des lois lognormales
habituellement bien adaptées à ce type de paramètres (elles respectent notam-
ment la positivité). Les coefficients de variation sont fixés à dires d’expert. Les
paramètres géométriques sont également modélisés par des lois lognormales,
avec un coefficient de variation volontairement grand.
– Les variables physiquement bornées (coefficient de Poisson, facteur de
passage) sont modélisées par des loi Bêta.

3. NB : les données prises pour le calcul (et notamment les dispersions des paramètres) ne sont
pas représentatives de structures réelles.
Approche probabiliste de la fatigue des structures 29

Paramètre Distribution Moyenne C.V †


Rayon interne Rint lognormale 127,28 mm 5%
Épaisseur t lognormale 9,27 mm 5%
Capacité calorifique ρCp lognormale 4 024 000 J/kg 10 %
−1 −1
Conductivité thermique λ lognormale 16,345 W.m .K 10 %
Coefficient d’échange H lognormale 20 000 W.K−1 .m−2 30 %
Module d’Young E lognormale 189 080 MPa 10 %
Coefficient de Poisson ν Bêta [0,2 ; 0,4] 0,3 10 %
−6
Coefficient de dilatation α lognormale 16,95 10 10 %
Limite élastique Sy lognormale 190 MPa 10 %
Résitance ultime Su lognormale 496 Mpa 10 %
N
Facteur de passage γpassage Bêta [7 ; 11] 9,39 10 %
S
Facteur de passage γpassage Bêta [1 ; 2] 1,68 10 %
Dispersion des données gaussienne 0 écart-type : 1
éprouvettes ξ (Eq.(5.9))

coefficient de variation, égal au rapport de l’écart-type à la moyenne.
Tableau 5.1. Dimensionnement probabiliste à la fatigue thermique :
modèle probabiliste des paramètres

– La courbe de Wöhler probabilisée (Eq.(5.9)) a été établie par la méthode


de Guédé (paragraphe 5.3.3.1) et s’exprime ici comme suit :

N (S, ω) = exp [(−2, 28 log(S − 185, 9) + 24, 06 ) (1 + 0, 09 ξ (ω))]


(5.21)
où N (S, ω) est la durée de vie à l’amorçage des éprouvettes.

5.4.5.3. Analyse de fiabilité (étape C) et de hiérarchisation (étape C’)

On étudie la probabilité d’amorçage d’une fissure pour un nombre nombre


de séquences de fonctionnement Nseq . Pour ce faire, on définit la fonction
d’état limite g suivante (les valeurs négatives de g correspondent aux valeurs
des paramètres entraînant l’amorçage) :

g (Nseq , X) = 1 − Nseq dseq (X) (5.22)


30 Fatigue des matériaux et des structures

Paramètre Facteur d’importance ( %)


Dispersion des données éprouvettes ξ 40,3
Coefficient d’échange H 20,8
S
Facteur de passage γpassage 13,7
Module d’Young E 8,9
Coefficient de dilatation α 8,9
Autres variables 7.4

Tableau 5.2. Dimensionnement probabiliste à la fatigue thermique :


facteurs d’importance

où dseq (X) désigne le dommage cumulé aléatoire associé à une séquence de


360 secondes de fonctionnement, et X désigne le vecteur des variables aléa-
toires listées dans le tableau 5.1 et qui interviennent dans le calcul de dseq .

En utilisant la méthode FORM (annexe A), on obtient une probabilité d’amor-


çage Pf = 8, 59.10−2 pour une durée de service de 10 000 séquences. Ce ré-
sultat est confirmé par des tirages d’importance, qui donnent finalement Pf =
7, 65.10−2 .

La méthode FORM utilisée pour le calcul de la probabilité d’amorçage


fournit également les facteurs d’importance des différentes variables aléatoires,
ce qui permet de hiérarchiser les paramètres d’entrée du modèle. Ces facteurs
normalisés (exprimés en pourcentage) sont listés par ordre décroissant dans le
tableau 5.2.

Au delà des strictes valeurs numériques de ces facteurs d’importance (qui


dépendent en particulier des lois de probabilité choisies pour les paramètres
d’entrée), les ordres de grandeur ainsi que le classement obtenu appellent des
commentaires : il apparaît clairement que le paramètre prépondérant pour ex-
pliquer la variabilité de la durée de vie à l’amorçage sur la structure est ici la
dispersion de l’endurance des éprouvettes (modélisée à travers les courbes de
Wöhler probabilisées). Viennent ensuite le coefficient d’échange fluide/structure,
S
le facteur de passage γpassage majorant les amplitudes de contrainte, enfin le
Approche probabiliste de la fatigue des structures 31

module d’Young et le coefficient de dilatation. Les autres paramètres ont une


importance négligeable, ce qui signifie que leur variabilité ne contribue pas
à la variabilité du dommage cumulé (et donc à la probabilité d’amorçage) :
en conséquence ils peuvent être considérés comme déterministes dans ce type
d’analyse.

5.4.6. Conclusion

Dans cette section, on a proposé un cadre général de traitement des in-


certitudes pour le dimensionnement vis-à-vis de l’amorçage de structures sol-
licitées en fatigue, en mettant l’accent sur la prise en compte cohérente de
toutes les sources d’incertitudes apparaissant dans la chaîne de calcul. A titre
d’exemple, on a estimé la probabilité d’amorçage de fissure dans une tuyaute-
rie sollicitée en fatigue thermique. On obtient en particulier une quantification
de l’influence de chaque paramètre incertain sur cette probabilité. S’il faut être
prudent sur les valeurs proprement dites, on peut tout de même tirer les conclu-
sions qualitatives utiles pour la compréhension du problème.

5.5. Modèles probabilistes de propagation

5.5.1. Introduction

Tout comme l’amorçage, la propagation de fissures pré-existantes sous char-


gement cyclique présente un caractère aléatoire marqué. Une étude expéri-
mentale approfondie de Virkler et al. [VIR 78] sur des éprouvettes en alumi-
nium 2024-T3 montre clairement la dispersion de la vitesse de propagation
d’une fissure dans des éprouvettes identiques (figure 5.7) : 68 plaques rectan-
gulaires de longueur L = 558, 8 mm, de largeur w =152,4 mm et d’épaisseur
t =2,54 mm) préfissurées (taille initiale a0 = 9 mm) sont sollicitées en trac-
tion alternée (∆σ = 48, 28 MPa, R = 0.2). Les essais sont arrêtés lorsque
la longueur de fissure atteint 49, 8 mm. On observe que cette longueur finale
32 Fatigue des matériaux et des structures

est atteinte entre 223 000 et 321 000 cycles selon les éprouvettes, avec une
répartition intermédiaire à peu près continue.

50

45

40
longueur de fissure (mm)

35

30

25

20

15

10

5
0 0.5 1 1.5 2 2.5 3 3.5
Nombre de cycles x 10
5

Figure 5.7. Propagation de fissures – courbes expérimentales


de propagation de Virkler et al. [VIR 78]

L’observation de la figure 5.7 montre deux types d’aléa dans la propagation


de fissures :
– une dispersion des courbes, qui ne sont pas superposables dans leur allure
globale ;
– pour chaque courbe, une irrégularité locale, qui montre que les incréments
de taille de fissure le long d’une trajectoire donnée sont eux-mêmes aléatoires.
Approche probabiliste de la fatigue des structures 33

5.5.2. Modèle déterministe

La propagation de fissures sous chargement cyclique est couramment mo-


délisée par la loi de Paris-Erdogan [PAR 63] (volume 1, chapitre 6) :

da
= C (∆K)m (5.23)
dN
Dans cette expression, a est la longueur de la fissure, ∆K est l’amplitude du
facteur d’intensité de contraintes pour un cycle d’amplitude ∆σ et (C, m) sont
les paramètres caractéristiques du matériau étudié. Dans le cas d’une plaque
de largeur w ayant une fissure en son centre, l’amplitude du facteur d’intensité
de contraintes est donnée par :
a√ a 1 a
∆K = ∆σ F πa F =q pour < 0.7
w w cos π wa
 w
(5.24)
a

où F w est le facteur de correction de Feddersen.

Pour reproduire par la simulation la dispersion globale des courbes expéri-


mentales, on peut simplement rendre aléatoire les paramètres de la loi de Paris
(5.23) : c’est l’approche retenue dans la suite de ce chapitre. Pour chaque réa-
lisation des paramètres (C , m), on obtient une courbe régulière, qui reproduit
bien l’allure générale des courbes expérimentales. Par contre, la modélisation
des irrégularités de ces courbes nécessite une modification de la loi de Paris-
Erdogan par l’introduction d’un processus aléatoire modulant les incréments
de taille au cours de la propagation elle-même. Ce type d’approche a été étu-
dié notamment par Ditlevsen et Olesen [DIT 86], Yang et Manning [YAN 96],
voir également [ZHE 98] pour une revue détaillée.

5.5.3. Modèle probabiliste des données

Pour chaque courbe de propagation de fissure, on peut estimer par recalage


le meilleur couple de paramètres (C, m) permettant de reproduire la trajectoire
34 Fatigue des matériaux et des structures

Paramètre Distribution Bornes Moyenne Coef. de variation


m normale tronquée [−∞ ; 3, 2] 2,874 5,7 %
log C normale tronquée [−28 ; +∞] -26,155 3,7 %
Coefficient de corrélation : ρ = −0, 997

Tableau 5.3. Propagation de fissures – lois de probabilité des paramètres


(log C , m) de la loi de Paris pour les essais de Virkler [KOT 98]
(da/dN en mm/cycles)

observée. La dispersion des trajectoires se retrouve alors naturellement à tra-


vers l’échantillon des 68 couples ainsi déterminés. On peut faire un traitement
statistique de cet échantillon pour inférer les densités de probabilité les mieux
adaptées. Kotulski [KOT 98] montre qu’on peut raisonnablement représenter
les paramètres m et log C par des lois normales tronquées (tableau 5.3).

−22

−23

−24
log C

−25

−26

−27

−28
2.2 2.4 2.6 2.8 3 3.2
m

Figure 5.8. Propagation de fissures – échantillon des paramètres de la loi


de Paris-Erdogan pour les essais de Virkler (da/dN en mm/cycles)
Approche probabiliste de la fatigue des structures 35

On observe en particulier la très forte corrélation entre les deux paramètres


m et log C (figure 5.8), ce qui laisse à penser qu’il y a en fait un unique pa-
ramètre sous-jacent dont la variabilité d’une éprouvette à l’autre explique de
façon pertinente la dispersion des courbes de propagation.

5.5.4. Prédiction de la propagation

A partir du modèle de Paris et de la description probabiliste des paramètres


de propagation donnés dans le tableau précédent, on peut obtenir par simu-
lation de Monte Carlo un faisceau de courbes de propagation et établir ainsi
un intervalle de confiance sur la longueur de fissure en fonction du nombre de
cycles de chargement appliqués. La figure 5.9 montre la courbe de propagation
mediane obtenue ainsi que les quantiles à 2,5 et 97,5 %.

40
intervalle de confiance à 95%
médiane
35
Longueur de fissure (mm)

30

25

20

15

10

0
0 50000 100000 150000 200000
Nombre de cycles N

Figure 5.9. Propagation de fissures – prédiction de la courbe médiane de


propagation et de l’intervalle de confiance à 95 %

On observe que la dispersion simulée est du même ordre de grandeur que


celle observée sur les courbes expérimentales, ce qui valide le traitement sta-
tistique des données sur (log C , m) réalisé précédemment (voir également
36 Fatigue des matériaux et des structures

[BOU 08] pour une investigation détaillée de l’influence de la corrélation entre


log C et m sur les prédictions).

Les résultats présentés sur la figure 5.9 sont cependant peu informatifs
dans un contexte industriel ou l’on souhaiterait avoir la meilleure prédiction
de la longueur de fissure en fonction du temps. Le graphe permet simple-
ment de conclure qu’une fissure de taille initiale 9 mm atteindra au bout de
200 000 cycles une taille comprise entre 23,5 et 35,8 mm avec une probabi-
lité de 95 %. Il va de soi qu’une meilleure estimation serait souhaitable pour
prévoir par exemple de façon optimale un plan d’inspection. La section sui-
vante va montrer comment on peut combiner les résultats précédents avec des
mesures effectuées sur une structure d’intérêt au cours de la phase initiale de
propagation, de façon à réduire l’intervalle de confiance de la prédiction.

5.5.5. Actualisation bayésienne pour la propagation de fissure

5.5.5.1. Introduction

Les statistiques bayésiennes permettent de combiner des informations dites


a priori sur des paramètres d’un modèle ou d’une loi de probabilité et un
échantillon de réalisations de ce modèle. Le lecteur non familier avec ces no-
tions pourra se reporter à l’annexe A pour une courte introduction sur ce sujet.
Dans le contexte de la mécanique probabiliste, on peut appliquer les approches
bayésiennes pour combiner de façon cohérente, d’une part les prédictions d’un
modèle dont les paramètres d’entrée incertains sont modélisés par des variables
aléatoires, d’autre part des mesures de la réponse du système mécanique réel
ainsi modélisé. Pour l’exemple précis de la propagation de fissures, on va ainsi
pouvoir introduire des mesures de longueur de fissures obtenues pour diffé-
rents nombres de cycles et la prédiction faite a priori à la section précédente
(dont on a vue qu’elle était trop dispersée pour être suffisamment informative).
Approche probabiliste de la fatigue des structures 37

5.5.5.2. Ingrédients pour une approche bayésienne de la propagation des fis-


sures

Le modèle mécano-probabiliste de propagation développé au paragraphe 5.5.4


comprend le modèle de propagation (loi de Paris-Erdogan) et le modèle proba-
biliste des paramètres (tableau 5.3). Les lois normales tronquées ainsi retenues
sont considérées comme une information dite a priori (dans le vocabulaire
bayésien) sur les paramètres de propagation pour l’aluminium 2024-T3.

On s’intéresse maintenant à une éprouvette particulière, et pour l’illus-


tration, l’essai ayant conduit à la propagation la plus lente est retenu. La fi-
gure 5.10 montre clairement que cet essai est atypique, puisque la courbe de
propagation est largement à l’extérieur du faisceau de prédictions à 95 % de
confiance.

40
Intervalle de confiance à 95%
35 médiane
courbe expérimentale
Longueur de fissure (mm)

30

25

20

15

10

0
0 50000 100000 150000 200000
Nombre de cycles N

Figure 5.10. Propagation de fissures – prédiction a priori de la propagation (courbe médiane


et intervalle de confiance à 95 %) et courbe expérimentale de propagation la plus lente
38 Fatigue des matériaux et des structures

Pour confronter les observations aux prédictions, il convient de définir un


écart dit de mesure/modèle, qui tient compte du fait qu’une mesure d’une quan-
tité physique n’est jamais exacte et que tout modèle mathématique de la réalité
est forcément plus ou moins imparfait. On notera, pour chaque observation
(supposée être ici une quantité scalaire) :

yobs = M(x̃) + e (5.25)

où yobs est la valeur mesurée et M(x̃) est la prédiction du modèle pour la


« vraie valeur » x̃ du vecteur des paramètres d’entrée. Cette vraie valeur est en
pratique elle-même inconnue, mais on suppose qu’elle est une réalisation par-
ticulière du vecteur X. L’écart e est lui-même une réalisation d’une variable
aléatoire de loi supposée connue (en général gaussienne, de moyenne nulle et
d’écart-type σe fixé). Ces hypothèses conduisent à considérer que yobs est une
réalisation d’une variable aléatoire Yobs dont on a défini la loi conditionnelle-
ment à X = x̃ :
Yobs |X = x̃ ∼ N M(x̃); σe2

(5.26)

L’équation précédente permet ensuite de formuler une fonction de vraisem-


blance pour les observations, et dans le cadre bayésien, de calculer une loi de
probabilité a posteriori pour le vecteur X.

5.5.5.3. Méthodes bayésiennes d’actualisation

Les aspects théoriques de l’actualisation bayésienne de modèles méca-


niques par les observations dépassent le cadre de ce chapitre. Le lecteur in-
téressé pourra se reporter à [PER 08] pour les détails. Pour résumer, on peut
distinguer deux grandes classes de méthodes de résolution pour le problème
qui nous préoccupe :
– les méthodes qui vont actualiser le modèle probabiliste a priori des para-
mètres d’entrée du modèle (ici, les lois de probabilité de log D et m) à partir
des mesures de la réponse du système, et qui permettent donc d’estimer une
loi de probabilité a posteriori pour ces paramètres [PER 07b]. La propagation
Approche probabiliste de la fatigue des structures 39

de ce nouveau modèle probabiliste a posteriori va permettre de calculer un in-


tervalle de confiance actualisé sur la courbe de propagation. Du point de vue
algorithmique, les méthodes de Monte Carlo par Chaînes de Markov (MCMC)
[ROB 96] sont bien adaptées à la simulation de la loi a posteriori.
– les méthodes qui vont s’intéresser directement à l’actualisation de la ré-
ponse du modèle en définissant un intervalle de confiance sur celle-ci condi-
tionnellement aux observations. Ces méthodes s’appuient sur l’approximation
FORM en fiabilité des structures [PER 07c, SUD 06]

5.5.5.4. Application

On suppose avoir mesuré l’avancée de la fissure dans la première par-


tie de la propagation pour quelques valeurs de nombre de cycles (inférieur
à 100 000). Les méthodes bayésiennes vont permettre d’actualiser la prédic-
tion, c’est-à-dire de calculer un intervalle de confiance à 95 % pour la courbe
de propagation en tenant compte des observations effectuées. On prend ici en
compte 5 mesures reportées dans le tableau 5.4.

Longueur de fissure (mm) Nombre de cycles


9,4 16 345
10,0 36 673
10,4 53 883
11,0 72 556
12,0 101 080

Tableau 5.4. Propagation de fissures – longueurs de fissure mesurées en vue


de l’actualisation bayésienne

Le courbe médiane et l’intervalle de confiance à 95 % actualisés sont re-


présentés sur la figure 5.11. Il apparaît clairement que la prédiction actualisée
est cohérente avec les observations, et que l’intervalle de confiance est for-
tement réduit par rapport à la prédiction a priori. La longueur de fissure à
200 000 cycles prédite après actualisation à partir des 5 mesures est comprise
40 Fatigue des matériaux et des structures

avec une probabilité de 95 % entre 17,4 mm et 19,8 mm, la valeur mesurée


correspondant à la valeur haute.

Il est important de noter que le formalisme probabiliste intègre ici direc-


tement la notion d’erreur de modèle : en effet, les mesures expérimentales de
longueur de fissure sont très précises et l’erreur de mesure peut donc être consi-
dérée comme nulle. Par contre, le modèle de la loi de Paris simplifié ne per-
met clairement pas de reproduire les irrégularités de la courbe de propagation.
L’erreur de modèle introduite dans la méthode (d’écart-type σe = 0, 2 mm
pour l’application numérique) permet cependant d’obtenir un intervalle de
confiance satisfaisant, ce que ne permettrait pas de faire un simple lissage par
moindres carrés d’une courbe de Paris sur les cinq mesures du tableau (5.4).

40
IC à 95% a priori
médiane a priori
35
IC à 95% actualisé
médiane actualisée
Longueur de fissure (mm)

30 données d’actualisation
courbe expérimentale
25

20

15

10

0
0 50000 100000 150000 200000
Nombre de cycles N

Figure 5.11. Propagation de fissures – prédiction a priori et actualisée de la propagation


(courbe médiane et intervalle de confiance à 95 %). Les carrés correspondent aux mesures
utilisées pour l’actualisation, les étoiles au reste la courbe expérimentale considérée
Approche probabiliste de la fatigue des structures 41

5.5.6. Conclusion

Dans cette section, on a appliqué le cadre général de traitement des incer-


titudes à la propagation de fissures en utilisant le modèle classique de Paris-
Erdogan. On a pu constater que la dispersion observée sur la vitesse de pro-
pagation de fissures pour des éprouvettes identiques était bien reproduite en
propageant les incertitudes identifiées sur les paramètres (log C , m) à travers
ce modèle. L’intervalle de confiance à 95 % prédit a tendance à devenir très
large lorsque le nombre de cycles augmente. Cependant, on a pu montrer que
la prise en compte de données d’auscultation (ici, longueurs de fissure me-
surées en début de propagation) dans un cadre bayésien permet d’améliorer
considérablement les prédictions, d’une part en donnant une courbe médiane
actualisée conforme aux observations, d’autre part en réduisant l’intervalle de
confiance à 95 %.

Les approches probabilistes présentent l’avantage d’être applicables quelle


que soit la finesse du modèle physique sous-jacent. Ainsi, l’utilisation de la
méthode des éléments finis étendus (X-FEM) appliquée à la propagation de
fissures peut être couplée avec les méthodes de traitement d’incertitudes évo-
quées dans la section 5.2, voir par exemple [NES 06, NES 07].

5.6. Conclusion

Le caractère aléatoire du phénomène de fatigue dans les matériaux et les


structures est reconnu depuis de nombreuses années. Cependant, l’intégration
cohérente et rigoureuse de toutes les sources d’incertitudes dans le dimension-
nement de structures réalistes est un sujet d’intérêt récent. Dans ce chapitre,
on s’est attaché à décrire tout d’abord une méthodologie générale de traite-
ment des incertitudes applicable en mécanique, mais aussi à tout domaine où
la simulation numérique des phénomènes physiques est nécessaire (mécanique
des fluides, thermique, neutronique, électromagnétisme, chimie des procédés,
42 Fatigue des matériaux et des structures

etc.). On a montré comment ce cadre général s’applique bien au dimension-


nement à la fatigue de pièces mécaniques, soit sous l’angle de l’amorçage de
la fissuration (approche S/N ) soit pour l’étude de la propagation de fissures
existantes (approche de type Paris-Erdogan).

D’un point de vue plus général, il faut noter une certaine réticence cultu-
relle très française à l’utilisation des méthodes probabilistes dans l’industrie,
notamment pour la justification de la tenue des structures. La plupart des codes
de dimensionnement (nucléaire, aéronautique, génie civil) sont en effet de phi-
losophie essentiellement déterministe (calculs de dimensionnement conserva-
tifs du fait de l’introduction de « coefficients de sécurité »), même si certains
points des réglements (notamment le choix de valeurs caractéristiques pour les
paramètres de calcul) ont un contenu probabiliste. La fatigue étant un domaine
dans lequel les aléas sont présents à tous les niveaux (matériau, chargement,
etc.) et non réductibles, il apparaît nécessaire de disposer de méthodes prenant
en compte de façon cohérente toutes ces incertitudes pour une prévision plus
fine de la durée des vies des structures. Les approches présentées dans ce cha-
pitre fournissent des pistes de travail qu’il conviendra d’approfondir, notam-
ment par l’intégration de critères de fatigue plus élaborés (voir par exemple
[ALE 04, SCH 07]).

5.7. Annexe A : quelques rappels de probabilité

La présente annexe vise à préciser le vocabulaire probabiliste utilisé dans


tout le chapitre. Elle ne prétend ni à la rigueur mathématique, ni à l’exhaus-
tivité. Le lecteur soucieux de rafraîchir ou approfondir ses connaissances en
statistique et probabilités pourra se référer avec profit aux ouvrages de Lacaze
et al. [LAC 97] et Saporta [SAP 06].
Approche probabiliste de la fatigue des structures 43

5.7.1. Variables aléatoires

L’approche axiomatique classique de la théorie des probabilités consiste à


construire un espace de probabilité abstrait par la donnée d’un triplet (Ω, F, P),
où Ω désigne l’ensemble des résultats possible d’une expérience aléatoire, F
désigne une tribu d’évènements, c’est-à-dire un ensemble de sous-ensembles
de Ω stable par passage au complémentaire et union finie, et P () désigne une
mesure de probabilité, qui permet d’associer à chaque évènement A ∈ F sa
probabilité P (A), qui un réel compris entre 0 et 1.

Dans les problèmes de mécanique probabiliste, les variables aléatoires


(et par extension les vecteurs aléatoires) servent à modéliser l’incertitude qui
existe sur les paramètres du modèle mathématique décrivant le système méca-
nique. On définit une variable aléatoire (réelle) X(ω) comme une application
X : Ω 7−→ DX ⊂ R. Une réalisation d’une variable aléatoire x0 ≡ X(ω0 ) ∈
DX est une des valeurs possibles que peut prendre le paramètre modélisé par
X. On parle de variable discrète ou continue selon que le support DX (c’est-
à-dire l’ensemble des réalisations possibles de la variable) est dénombrable ou
continu.

Une variable aléatoire X(ω) est complètement définie par sa fonction de


répartition notée FX (x) : DX 7−→ [0 , 1] :

FX (x) = P (X(ω) ≤ x) (5.27)

La fonction de répartition calculée en x est donc la probabilité que la variable


aléatoire4 X prenne des valeurs inférieures ou égales à x. Pour une variable
aléatoire continue, on définit également la densité de probabilité par :
dFX (x)
fX (x) = (5.28)
dx

4. On omet dorénavant la dépendance en ω dans la notation en prenant la convention que les


lettres majuscules désignent des variables aléatoires.
44 Fatigue des matériaux et des structures

La quantité fX (x) dx s’interprète donc comme la probabilité qu’X prenne une


valeur comprise entre x et x + dx. Par définition, l’intégrale de fX sur son
domaine de définition vaut 1, c’est également la limite de FX (x) lorsque x
tend vers la borne supérieure de DX . Lorsqu’on dit modéliser les paramètres
incertains par une loi gaussienne, lognormale, uniforme, de Weibull, etc., cela
signifie qu’on prescrit la densité de probabilité (appelée aussi distribution ou
loi de probabilité par abus de langage). Par exemple, la loi uniforme sur un
intervalle [a , b] a pour densité de probabilité fU (x) = 1/(b − a) si x ∈ [a , b]
et 0 sinon. Une loi gaussienne (appelée aussi normale) N (µ σ) est définie par
la densité de probabilité suivante pour tout x ∈ R :

x−µ
 
1
fN (x) = ϕ (5.29)
σ σ

où ϕ(x) est la densité gaussienne centrée réduite qui s’écrit :

1 2
ϕ(x) = √ e−x /2 (5.30)

La fonction de répartition gaussienne centrée réduite, notée habituellement Φ


et définie par :
x
1
Z
2
Φ(x) = √ e−t /2 dt (5.31)
−∞ 2π
n’a pas d’expression analytique, mais est tabulée dans de nombreux logiciels
de calcul (Excel, Matlab, Scilab, etc.).

On utilise dans ce chapitre les distributions dites lognormales. Par défini-


tion, une variable aléatoire suit une loi lognormale si son logarithme suit une
loi gaussienne. On notera ainsi :

X ∼ LN (λ, ζ) : X = eλ+ζ ξ avec ξ ∼ N (0, 1) (5.32)

La densité de probabilité d’une variable LN (λ, ζ) s’écrit :

ln x − λ
 
1
fLN (x) = ϕ (5.33)
ζx ζ
Approche probabiliste de la fatigue des structures 45

La valeur « la plus probable » d’une variable aléatoire correspond à la réa-


lisation x0 qui maximise la densité de probabilité fX (x) : c’est ce que l’on
appelle le mode. Les lois de probabilité courantes présentes un seul maximum
(elles sont dites unimodales) mais il est possible de construire des loi multi-
modales.

5.7.2. Espérance, moments, quantiles

On définit l’espérance mathématique d’une variable aléatoire par :


Z
E [X] ≡ x fX (x) dx (5.34)
DX

C’est ce que l’on appelle communément la moyenne de X, qu’on note égale-


ment µX . Pourvu que l’intégrale soit définie, on peut définir de façon générale
l’espérance d’une fonction g(X) par :
Z
E [g(X)] ≡ g(x) fX (x) dx (5.35)
DX

Les moments statistiques mk (resp. moments centrés µk ) correspondent au cas


particulier où g(X) = X k (resp. g(X) = (X − µX )k , k ∈ N) :

Z
mk = xk fX (x) dx (5.36)
DX
Z
µk = (x − µX )k fX (x) dx (5.37)
DX

2 ≡ µ = E (X − µ )2 est le moment centré d’ordre 2.


 
La variance σX 2 X
L’écart-type de X noté σX est la racine carrée de la variance, et on appelle
coefficient de variation (exprimé en pourcentage) le ratio CVX = σX /µX .

Les quantiles d’une variable aléatoire sont définis à partir de la fonction de


répartion inverse. Précisément, le quantile xq d’ordre q est tel que :

xq : P (X ≤ xq ) = q (5.38)
46 Fatigue des matériaux et des structures

soit :
xq = FX−1 (q) (5.39)

si la fonction de répartition FX est strictement croissante.

5.7.3. Maximum de vraisemblance

L’étape B du schéma général de traitement des incertitudes consiste à pro-


poser un modèle probabiliste des incertitudes affectant les paramètres d’entrée
du modèle mécanique, c’est-à-dire proposer une loi de probabilité fX (x) pour
le vecteur X de ces paramètres.

On se limite ici au cas où les variables d’entrée peuvent être considérées


comme indépendantes (dans ce cas, fX (x) se réduit au produit des densités
de probabilité de chaque variable fXi ). Si l’on dispose d’un échantillon de
données E = {x(1) , . . . , x(Q) } d’un paramètre, on peut utiliser les techniques
d’inférence statistique pour déterminer une loi de probabilité cohérente avec
ces données. L’inférence paramétrique consiste à supposer une forme pour la
densité de probabilité fX (gaussienne, lognormale, etc.) et à estimer ensuite les
paramètres de cette densité pour qu’elle reproduise au mieux l’échantillon. Soit
f (X; θ) cette densité, dans laquelle f () est une fonction connue définissant
la famille de la loi (Eq.(5.29)) et θ est le vecteur des paramètres à estimer
(par exemple θ = (µ , σ)). La fonction de vraisemblance de l’échantillon est
définie par :
Q
Y
L(θ ; E) = f (x(i) ; θ) (5.40)
i=1
Une fois évaluée sur l’échantillon, cette fonction ne dépend plus que de θ.
Le principe de maximum de vraisemblance indique que le meilleur choix de
paramètres (noté θ̂) est alors celui qui maximise la fonction précédente, ou de
façon équivalente, minimise la log-vraisemblance :
" Q #
X
(i)
θ̂ = arg min [− log L(θ ; E)] = arg min − log f (x ; θ) (5.41)
θ θ
i=1
Approche probabiliste de la fatigue des structures 47

En pratique, à partir de l’observation de l’échantillon E par les outils de


statistique exploratoire comme les histogrammes [SAP 06, chapitre 5], on pro-
pose différentes choix pour f (X; θ). Puis on estime les meilleurs paramètres
pour chaque choix et on valide a posteriori les hypothèses en utilisant les
tests d’adéquation (test de Kolmogorov-Smirnov, Anderson-Darling, χ2 , etc.)
[SAP 06, chapitre 14]). On peut également sélectionner parmi les différents
modèles qui n’auraient pas été rejetés par les tests celui qui est le plus perti-
nent (critères de vraisemblance pénalisée AIC ou BIC [SAP 06, chapitre 19]).

Ces notions classiques d’inférence statistique peuvent être généralisées au


cas où l’on a une ou plusieurs variable(s) de contrôle des données de l’échan-
tillon, par exemple le niveau d’amplitude S pour les essais de fatigue (para-
graphe 5.3.3).

5.7.4. Inférence bayésienne

Les statistiques bayésiennes ont pour origine le théorème de Bayes, résul-


tat élémentaire de la théorie des probabilités qui, pour deux évènements quel-
conques A et B, s’énonce comme suit :
P (B|A) P (A)
P (A|B) = (5.42)
P (B)
où la quantité P (A|B) est la probabilité conditionnelle de A sachant B définie
par la quantité P (A ∩ B) /P (B). Le résultat précédent se généralise aisément
aux densités de probabilité (resp. conditionnelles) de variables aléatoires.

Une application pratique des statistiques bayésiennes est l’inférence de loi


de probabilité pour un échantillon de données de petite taille. En effet, la mé-
thode du maximum de vraisemblance présentée précédemment ne permet pas
dans ce cas d’obtenir une représentation satisfaisante des données (l’incerti-
tude sur θ̂ est en effet très grande). L’approche bayésienne consiste à intégrer
dans l’inférence une information dite a priori sur les paramètres θ à estimer.
On choisit donc non seulement une famille de loi f (X; θ) mais également une
48 Fatigue des matériaux et des structures

loi de probabilité pΘ (θ) (dite a priori) sur les paramètres θ, appelés dans ce
cadre les hyperparamètres : par exemple, on prendra f (X; θ) gaussienne de
moyenne µ et d’écart-type σ et on supposera en plus que la moyenne est a
priori comprise entre deux bornes, ce qui revient à modéliser l’hyperparamètre
µ par une variable uniforme entre ces deux bornes. On en déduit la loi dite
′′ en combinant la loi a priori et la vraisemblance de l’échan-
a posteriori fΘ
tillon E :
′′
fΘ (θ) = c L(θ ; E) pΘ (θ) (5.43)
où L est la fonction de vraisemblance définie en (5.40) et c est une facteur de
′′ est bien une loi de probabilité. Cette formule
normalisation assurant que fΘ
est identique dans son principe à (5.42) et peut se lire : “la loi de Θ sachant les
observations E est égale, à un facteur près, à loi de Θ a priori multipliée par la
loi des observations sachant Θ (i.e. la vraisemblance L(θ , E)).

Revenant au problème initial qui est de proposer la meilleure loi de pro-


babilité possible pour le paramètre X, on peut alors choisir la moyenne ou le
mode θ ′′ a posteriori de fΘ
′′ comme meilleur paramètre, et la loi de probabilité

f (X; θ ′′ ) pour X.

Dans le cadre de l’actualisation des prédictions d’un modèle Y = M(X)


par des observations Yobs = {y (1) , . . . , y (Q) } (voir paragraphe 5.5.5), le mo-
dèle probabiliste a priori porte sur X (qui joue le rôle des hyperparamètres Θ)
′′ à travers le modèle M.
et l’on propage in fine la loi a posteriori fX

5.7.5. Problème de fiabilité et méthode FORM

Un problème de fiabilité des structures est défini par la donnée d’un mo-
dèle mécanique de calcul M, d’un modèle probabiliste pour ses paramètres
d’entrée X, soit fX (x), et d’un critère de défaillance5 (voir [LEM 08] pour

5. Il faut entendre ici défaillance au sens large de « non remplissage d’une fonction assignée au
système » et pas forcément rupture ou ruine du système mécanique considéré.
Approche probabiliste de la fatigue des structures 49

une introduction pédagogique à la fiabilité des structures). Celui-ci se formule


mathématiquement à l’aide d’une fonction d’état limite ou fonction de perfor-
mance notée g(X) qui doit par convention prendre des valeurs négatives (resp.
positives) pour les réalisations de X telles que le système mécanique soit dé-
faillant (resp. non défaillant) pour le critère considéré. L’ensemble des x tels
que g(x) = 0 définit la surface d’état limite. Une situation courante corres-
pond au cas où l’on souhaite qu’une quantité d’intérêt y obtenue comme ré-
ponse d’un modèle ne dépasse pas un seuil donné ȳ. La « défaillance » corres-
pond alors au dépassement du seuil et la fonction d’état limite associée s’écrit :

g(X) = ȳ − M(X) (5.44)

La probabilité de défaillance est alors définie par :


Z
Pf ≡ P (g(X) ≤ 0) = P (M(X) ≥ ȳ) = fX (x) dx (5.45)
Df

où Df = {x : g(x) ≤ 0} désigne le domaine de défaillance. La méthode


de Monte Carlo permet d’estimer la probabilité de défaillance ci-dessus de fa-
çon algorithmiquement élémentaire : on effectue des tirages aléatoires du vec-
teur des paramètres d’entrée, c’est-à-dire qu’on crée un échantillon artificiel de
vecteurs d’entrée selon la distribution fX , soit X = {x(1) , . . . , x(N ) }. Pour
chaque tirage x(i) on évalue la réponse M(x(i) ) puis le critère g(x(i) ). On
estime la probabilité de défaillance par le nombre de tirages Nf ayant conduit
à une valeur négative de g(x(i) ) divisé par le nombre de tirages total N :
Nf
Pˆf = (5.46)
N
Cette méthode d’usage très général n’est pas applicable en pratique aux cas
(courants) où la probabilité recherchée est très faible (de 10−2 à 10−6 ) : il faut
en effet de l’ordre de N = 400 × 10k tirages pour estimer à 5 % près une
probabilité de l’ordre de 10−k . Ce coût de calcul n’est donc pas envisageable
lorsque chaque évaluation de M correspond à un calcul aux éléments finis.

La méthode FORM est une méthode d’approximation qui permet à moindre


coût d’estimer Pf . On commence par transformer le vecteur des paramètres X
50 Fatigue des matériaux et des structures

en un vecteur de variables aléatoires gaussiennes centrées réduites X = T (ξ),


ce qui permet d’écrire (5.45) comme suit :
Z
2 /2
Pf ≡ P (g(T (ξ)) ≤ 0) = (2π)−n/2 e−kξk dξ (5.47)
Df ={ξ:g(T (ξ))≤0}

où n est la dimension de ξ. Dans cette intégrale, l’intégrande diminue expo-


nentiellement avec k ξ k2 . C’est donc la région du domaine d’intégration (do-
maine de défaillance) la plus proche de l’origine de l’espace de ξ qui contri-
bue le plus à l’intégrale. On cherche donc dans un premier temps le point de
conception ξ ∗ , point du domaine de défaillance le plus proche de l’origine. On
linéarise ensuite la surface d’état limite autour de ξ ∗ . On montre alors que la
probabilité de défaillance est égale au premier ordre à :

Pf,FORM = Φ(−β) (5.48)

où β =k ξ ∗ k est l’indice de fiabilité de Hasofer-Lind. Pour un problème de


fiabilité dans lequel la dimension du vecteur d’entrée X est inférieure à 10, la
méthode FORM donne en général de bons résultats pour un nombre d’évalua-
tions de g (nécessaire à la recherche du point de conception ξ ∗ ) inférieur à 100,
indépendamment de l’ordre de grandeur de Pf . Cependant, la méthode FORM
ne fournit qu’une approximation de Pf dont on ne peut pas dire si elle est
proche ou non, conservative ou non. On utilise donc en général des techniques
complémentaires comme la simulation d’importance pour valider le résultat
obtenu par FORM [LEM 05].

5.8. Bibliographie

[AFC 00] AFCEN, Règles de Conception et de Construction des Matériels des Ilots Nu-
cléaires, (RCCM), juin 2000, Paris.

[AFN 90] AFNOR, Produits métalliques – Pratique des essais de fatigue oligocyclique, Rap-
port n°A03-403, AFNOR, 1990.

[AFN 91] AFNOR, Produits métalliques – Essais de fatigue : traitement statistique des don-
nées, Rapport n°A03-405, AFNOR, 1991.
Approche probabiliste de la fatigue des structures 51

[ALE 04] A LEXANDRE F., Aspects probabilistes et microstructuraux de l’amorçage des fis-
sures de fatigue dans l’alliage Inco 718, Thèse de doctorat, Ecole Nationale Supérieure des
Mines de Paris, 2004.

[AMZ 94] A MZALLAG C., G EREY J.-P., ROBERT J.-L., BAHUAUD J., « Standardization of
the Rainflow counting method for fatigue analysis », Int. J. Fatigue, vol. 16, p. 287-293,
1994.

[BAS 60] BASTENAIRE F., Etude statistique et physique de la dispersion des résistances et des
endurances à la fatigue, Thèse de doctorat, Faculté des Sciences de l’Université de Paris,
1960.

[BEN 06] B ENASCIUTTI D., T OVO R., « Comparison of spectral methods for fatigue analysis
of broad-band Gaussian random processes », Prob. Eng. Mech., vol. 21, n°287-299, 2006.

[BOU 08] B OURINET J.-M., L EMAIRE M., « FORM sensitivities to correlation : application
to fatigue crack propagation based on Virkler data », Proc. 4th Int. ASRANet Colloquium,
Athens, 2008.

[COL 98] C OLLECTIF, Re-evaluation of fatigue analysis criteria, Rapport n°EE/S 98.317,
Framatome, 1998, (Final report to CEC-DG XI contract B4-3070/95/000876/MAR/C2).

[CUR 04] C URTIT F., « INTHERPOL thermal fatigue tests », Proc. 3rd Int. Conf. Fatigue of
Reactor Components, NEA/CSNI/R, Séville, 2004.

[CUR 05] C URTIT F., S TÉPHAN J.-M., « Mechanical aspect concerning thermal fatigue ini-
tiation in the mixing zones piping », Trans. 18th Int. Conf. on Struct. Mech. in Reactor Tech.
(SMiRT 18), Beijing, China, 2005.

[DIR 85] D IRLIK T., Application of computers in fatigue analysis, Thèse de doctorat, Univer-
sity of Warwick, Grande Bretagne, 1985.

[DIT 86] D ITLEVSEN O., O LESEN R., « Statistical analysis of the Virkler data on fatigue crack
growth », Eng. Fract. Mech., vol. 25, p. 177-195, 1986.

[DIT 96] D ITLEVSEN O., M ADSEN H., Structural reliability methods, J. Wiley and Sons,
Chichester, 1996.

[DRO 04] D ROESBEKE J., F INE J., S APORTA G., Méthodes bayésiennes en statistique, Tech-
nip, Paris, 2004.

[EDF 06] EDF, R&D D IVISION, Code_Aster : Analyse des structures et thermo-mécanique
pour des études et des recherches, V.7, 2006, http ://www.code-aster.org.

[GHA 91] G HANEM R., S PANOS P., Stochastic finite elements – A spectral approach, Springer
Verlag, 1991, (Reedited by Dover Publications, 2003).
52 Fatigue des matériaux et des structures

[GUE 05] G UÉDÉ Z., Approche probabiliste de la durée de vie des structures soumises à la
fatigue thermique, Thèse de doctorat, Université Blaise Pascal, Clermont-Ferrand, 2005.

[GUE 07] G UÉDÉ Z., S UDRET B., L EMAIRE M., « Life-time reliability based assessment of
structures submitted to thermal fatigue », Int. J. Fatigue, vol. 29, n°7, p. 1359-1373, 2007.

[JCS 02] J OINT C OMMITTEE ON S TRUCTURAL S AFETY, JCSS probabilistic model code,
2002, http ://www.jcss.ethz.ch.

[KOT 98] KOTULSKI Z. A., « On efficiency of identification of a stochastic crack propagation


model based on Virkler experimental data », Arch. Mech., vol. 50, n°5, p. 829-847, 1998.

[KRE 83] K REE P., S OIZE C., Mécanique aléatoire, Dunod, Paris, 1983.

[LAC 97] L ACAZE B., M AILHES C., M AUBOURGUET M., T OURNERET J.-Y., Probabilités
et statistique appliquées, Cépaduès Editions, Toulouse, 1997.

[LEM 05] L EMAIRE M., Fiabilité des structures – Couplage mécano-fiabiliste statique, Her-
mès, Paris, 2005.

[LEM 08] L EMAIRE M., « Approche probabiliste du dimensionnement – Modélisation de l’in-


certain et méthode de Monte-Carlo », Techniques de l’ingénieur, BM 5003-5004, 2008.

[LOR 05] L ORÉN S., L UNDSTRÖM M., « Modelling curved S − N curves », Fatigue Fract.
Engng. Mat. Struct., vol. 28, p. 437-443, 2005.

[MEL 99] M ELCHERS R.-E., Structural reliability analysis and prediction, John Wiley &
Sons, Chichester, 1999.

[MIN 45] M INER M., « Cumulative damage in fatigue », J. Appl. Mech., , n°9, p. 159-164,
1945.

[NES 06] N ESPUREK L., B OURINET J.-M., G RAVOUIL A., M. L., « Some approaches to im-
prove the computational efficiency of the reliability analysis of complex crack propagation
problems », Proc. 3rd Int. ASRANet Colloquium, Glasgow, 2006.

[NES 07] N ESPUREK L., B OURINET J.-M., G RAVOUIL A., M. L., « Probabilistic approach
to crack propagation based on XFEM and FORM », Proc. Fatigue Design 2007, Senlis,
France, 2007.

[PAR 63] PARIS P., E RDOGAN F., « A critical analysis of crack propagation laws », Trans.
ASME, J. Basic Eng., p. 528-534, 1963.

[PAS 97] PASCUAL F., M EEKER W., « Analysis of fatigue data with runouts based on a mo-
del with non constant standard deviation and a fatigue limit parameter », J. Testing Eval.,
vol. 25, p. 292-301, 1997.
Approche probabiliste de la fatigue des structures 53

[PAS 99] PASCUAL F., M EEKER W., « Estimating fatigue curves with the random fatigue-limit
model », Technometrics, vol. 41, n°4, p. 277-290, 1999.

[PER 05] P ERRIN F., S UDRET B., P ENDOLA M., L EMAIRE M., « Comparison of two statis-
tical treatments of fatigue test data », Proc. Fatigue Design 2005, Senlis, France, 2005.

[PER 06] P ERRIN F., P ENDOLA M., M ORO T., M ORIN G., C ARDONA J.-M., « Complete
probabilistic framework in fatigue design : application to exhaust manifolds », T OPPING
B., M ONTERO G., M ONTENEGRO R., Eds., Proc. 8th Int. Conf. Comput. Struct. Tech.,
Civil-Comp Press, Las Palmas de Gran Canaria, 2006.

[PER 07a] P ERRIN F., S UDRET B., C URTIT F., S TÉPHAN J.-M., P ENDOLA M., « Efficient
Bayesian updating of structural fatigue design curve using experimental thermal fatigue
data », Proc. Fatigue Design 2007, Senlis, France, 2007.

[PER 07b] P ERRIN F., S UDRET B., P ENDOLA M., « Bayesian updating of mechanical mo-
dels – Application in fracture mechanics », Proc. 18e Congrès Français de Mécanique
(CFM’2007), Grenoble, 2007.

[PER 07c] P ERRIN F., S UDRET B., P ENDOLA M., DE ROCQUIGNY E., « Comparison of Mar-
kov chain Monte-Carlo simulation and a FORM-based approach for Bayesian updating of
mechanical models », Proc. 10th Int. Conf. on Applications of Stat. and Prob. in Civil
Engineering (ICASP10), Tokyo, Japan, 2007.

[PER 08] P ERRIN F., Intégration des données expérimentales dans les modèles probabilistes
de prédiction de la durée de vie des structures, Thèse de doctorat, Université Blaise Pascal,
Clermont-Ferrand, 2008.

[ROB 92] ROBERT C., L’analyse statistique bayésienne, Economica, Paris, 1992.

[ROB 96] ROBERT C., Méthodes de Monte Carlo par chaînes de Markov, Economica, Paris,
1996.

[RUB 81] RUBINSTEIN R.-Y., Simulation and the Monte Carlo methods, John Wiley & Sons,
Chichester, 1981.

[SAL 00] S ALTELLI A., C HAN K., S COTT E., Eds., Sensitivity analysis, J. Wiley & Sons,
Chichester, 2000.

[SAL 04] S ALTELLI A., TARENTOLA S., C AMPOLONGO F., R ATTO M., Sensitivity analysis
in practice – A guide to assessing scientific models, J. Wiley & Sons, Chichester, 2004.

[SAP 06] S APORTA G., Probabilités, analyse des données et statistique, Technip, Paris, 2nd
édition, 2006.
54 Fatigue des matériaux et des structures

[SCH 06] S CHWOB C., C HAMBON L., RONDE -O USTAU F., B ERNADOU J., « Probabilistic
assessment of fatigue life using a stress-based fatigue criterion », T OPPING B., M ONTERO
G., M ONTENEGRO R., Eds., Proc. 8th Int. Conf. Comput. Struct. Tech., Civil-Comp Press,
Las Palmas de Gran Canaria, 2006.

[SCH 07] S CHWOB C., Approche non locale probabiliste pour l’analyse en fatigue des zones
à gradient de contrainte, Thèse de doctorat, Ecole des Mines d’Albi Carmaux, 2007.

[SUD 03a] S UDRET B., G UÉDÉ Z., H ORNET P., S TÉPHAN J.-M., L EMAIRE M., « Probabi-
listic assessment of fatigue life including statistical uncertainties in the S-N curve », Trans.
17th Int. Conf. on Struct. Mech. in Reactor Tech. (SMiRT 17), Prague, Czech Republic,
2003, Paper M-232.

[SUD 03b] S UDRET B., G UÉDÉ Z., L EMAIRE M., « Probabilistic framework for fatigue ana-
lysis », M AES M., H UYSE L., Eds., Proc. 11th IFIP WG7.5 Conference on Reliability and
Optimization of Structural Systems, Banff, Canada, Balkema, Rotterdam, p. 251-257, 2003.

[SUD 05] S UDRET B., G UÉDÉ Z., « Probabilistic assessment of thermal fatigue in nuclear
components », Nuc. Eng. Des., vol. 235, p. 1819-1835, 2005.

[SUD 06] S UDRET B., P ERRIN F., B ERVEILLER M., P ENDOLA M., « Bayesian updating of
the long-term creep deformations in concrete containment vessels », Proc. 3rd Int. ASRANet
Colloquium, Glasgow, Grande Bretagne, 2006.

[SUD 07] S UDRET B., Uncertainty propagation and sensitivity analysis in mechanical models
– Contributions to structural reliability and stochastic spectral methods, 2007, Habilitation
à diriger des recherches, Université Blaise Pascal, Clermont-Ferrand, France.

[THO 99] T HOMAS J.-J., P ERROUD G., B IGNONNET A., M ONNET D., « Fatigue design and
reliability in the automotive industry », European Structural Integrity Society, vol. 23, p. 1-
11, 1999.

[TOV 01] T OVO R., « On the fatigue reliability evaluation of structural components under
service loading », Int. J. Fatigue, vol. 23, p. 587-598, 2001.

[VIR 78] V IRKLER D., H ILLBERRY B. M., G OEL P., « The statistical nature of fatigue crack
propagation », Trans. ASME, J. Eng. Mat. Tech., vol. 101, n°2, p. 148-153, 1978.

[YAN 96] YANG J., M ANNING S., « A simple second order approximation for stochastic crack
growth analysis », Eng. Fract. Mech., vol. 53, n°5, p. 677-686, 1996.

[ZHE 98] Z HENG R., E LLINGWOOD B., Stochastic fatigue crack growth in steel structrues
subjected to random loading, Rapport n°Contract report ITL-98-1 for the US Army Corps
of Engineers, The Johns Hopkins University, 1998.

Vous aimerez peut-être aussi