Vous êtes sur la page 1sur 25

See discussions, stats, and author profiles for this publication at: https://www.researchgate.

net/publication/259639225

« Reliabilitix », un outil d'optimisation de la maintenance basé sur la fiabilité

Conference Paper · April 2010

CITATIONS READS

0 1,449

3 authors:

Christophe Letot Guillaume Fleurquin


Université de Mons Université de Mons
37 PUBLICATIONS 269 CITATIONS 9 PUBLICATIONS 28 CITATIONS

SEE PROFILE SEE PROFILE

Pierre Dehombreux
Université de Mons
90 PUBLICATIONS 741 CITATIONS

SEE PROFILE

All content following this page was uploaded by Christophe Letot on 10 January 2014.

The user has requested enhancement of the downloaded file.


« Reliabilitix », un outil d’optimisation de la
maintenance basé sur la fiabilité

Christophe Letot*, Guillaume Fleurquin*, Pierre


Dehombreux*
* Université de Mons, Faculté Polytechnique de Mons
Service de Génie Mécanique & Pôle Risques
53 Rue du Joncquois, 7000 Mons – Belgique
christophe.letot@umons.ac.be, guillaume.fleurquin@umons.ac.be,
pierre.dehombreux@umons.ac.be

RÉSUMÉ. Afin d’optimiser les politiques d’intervention de maintenance, la connaissance de la


durée de vie résiduelle d’une machine est primordiale. En effet, si un remplacement anticipé
provoque des coûts d’intervention supplémentaires, l’attente de la défaillance de la machine
peut avoir des conséquences bien plus importantes, non seulement par le surcoût direct et
indirect des opérations de maintenance correctives, mais également par l’exposition aux
risques majeurs qu’un défaut de maintenance peut entraîner. Ce dernier aspect pose le
problème de la relation entre maintenance et risques, abordé dans d’autres contributions
(Hadni, 2009). Dans cet article, nous nous limiterons à une optimisation de la maintenance
basée sur la fiabilité, vis-à-vis de critères de coût et disponibilité. Cette approche est
expliquée et illustrée depuis l’étape de collecte des données jusqu’à la phase de
détermination de la périodicité de maintenance préventive optimale. Les données nécessaires
à l’estimation des lois de fiabilité peuvent provenir soit d’un historique d’événements soit de
mesures de dégradation réalisées lors d’inspection. Les outils mathématiques utilisés mettent
en œuvre des méthodes de régression, des méthodes de maximum de vraisemblance mais
également des méthodes de Monte Carlo pour la simulation du comportement des systèmes.
Chaque indicateur peut se voir affecter une incertitude liée à un niveau de confiance afin
d’aider le décideur à choisir la périodicité de maintenance la plus adaptée à sa stratégie. Un
cas d’étude théorique est étudié à l’aide de notre logiciel « Reliabilitix » pour illustrer la
méthodologie proposée.
MOTS-CLÉS : analyse statistique, défaillance, densité de probabilité, données de fiabilité,
données de maintenance, durée de vie, fiabilité, intervalle de confiance, lois de fiabilité,
maintenance préventive, prévision, probabilité, simulation de Monte Carlo, statistique,
stochastique, Weibull.
KEYWORDS : statistical analysis, failure, probability density, reliability data, maintenance
data, residual lifetime, reliability, confidence intervals, reliability laws, preventive
maintenance, prediction, probability, Monte Carlo simulation, statistic, stochastic, Weibull.
Christophe Letot, Guillaume Fleurquin, Pierre Dehombreux

1. Introduction

Dans le monde industriel actuel, les équipements sujets à des pannes et/ou
détériorations sont nombreux. Souvent critiques, ces équipements doivent être
maintenus afin de continuer à remplir les missions pour lesquelles ils ont été conçus.
La maintenance joue ainsi un rôle primordial permettant de garantir la disponibilité
pour la production. Toutefois, cette fonction a souvent été négligée car trop
fréquemment perçue comme une source de dépenses. Mais cet état d’esprit tend à
changer avec l’évolution des équipements et des techniques de production. Qui plus
est, les machines sont de plus en plus complexes et les industriels cherchent à les
exploiter à leur plein régime dans un souci de compétitivité et de respect des délais
tout en cherchant à garantir les exigences de qualité et de sécurité requises. Ces
objectifs peuvent difficilement être atteints sans une maintenance adéquate.
Une politique de maintenance se définit par un ensemble d’actions exécutées et
ordonnées selon une certaine stratégie. Dans le cadre de cette recherche, nous
développons une approche fiabiliste basée sur l’analyse de la fiabilité des
équipements en vue de la définition des actions de maintenance préventive à
entreprendre. D'une manière générale, la théorie de la fiabilité s'intéresse à
caractériser la durée de vie résiduelle d'un système (installation, équipement, …).
Quel est le risque d'observer l'arrêt d'une ligne de production suite à la défaillance
d'un de ses postes ? Quelle est l’incidence de dédoublement d’un élément ? Les
théories fiabilistes permettent d'apporter des réponses à ces différentes questions.
La suite de cet article s’organise de la façon suivante. Tout d’abord, nous
présentons la méthodologie suivie dans son ensemble. Par après, nous détaillons les
procédures de calcul des différentes étapes en les illustrant sur un système fictif.

2. Méthodologie

Les différentes étapes de la méthodologie envisagée sont reprises à la figure 1.

2.1. Représentation du système étudié en schémas blocs

De manière générale, un système est modélisé comme un ensemble d’éléments


dont l’état de bon fonctionnement conditionne celui du système. Pour ce faire, on a
recours à une analyse des modes de défaillance qui va conduire à un modèle
topologique du système où chaque élément est représenté par un bloc. Ceux-ci sont
associés en série lorsque la défaillance d’un seul élément provoque la défaillance de
l’ensemble. Par contre, pour qu’une association en parallèle soit défaillante, il faut
que tous ses éléments le soient également. D’autres types de configurations sont
envisageables, notamment pour modéliser une redondance ou un élément de secours.
« Reliabilitix », un outil d’optimisation de la maintenance basé sur la fiabilité

Erreur !2.3. Estimation de la loi de fiabilité de chaque composant

Décomposition du système
en schémas blocs

Historique des états


depuis la mise en
service
Collecte de données
Mesure de la
Incertitudes dégradation ou de
la performance

Incertitudes Méthodes de
régression
Données de Estimation des lois de
maintenance fiabilité pour chaque
(durée, coûts composant Méthodes du
intervention…) maximum de
Incertitudes vraisemblance
Incertitudes
Solution analytique
pour un système
Optimisation monobloc
- coûts
- disponibilité Simulation de
Monte Carlo dans
Incertitudes les autres cas

Figure I. Schéma synoptique de la méthodologie

2.2. Collecte de données

L’étape suivante consiste à collecter des données pour chaque machine du


système. Ces données peuvent soit provenir d’un historique d’événements ou de
mesures de dégradation.
Dans le premier cas, les états de la machine sont enregistrés depuis sa première
mise en service (mise en marche, première panne, en maintenance, remise en
marche, arrêt pour inspection, remise en marche, deuxième panne…). Il peut parfois
arriver que l’historique soit incomplet (données manquantes entre deux événements),
Christophe Letot, Guillaume Fleurquin, Pierre Dehombreux

les méthodes mises en œuvre doivent donc être capables de prendre en compte les
données censurées.
Dans le deuxième cas, les données de dégradation mesurées peuvent soit
provenir d’inspections ponctuelles réalisées manuellement ou être enregistrées en
continu à l’aide d’un dispositif de monitoring (Kilundu, 2009). On distingue
également les cas où la dégradation est directement mesurable des cas où elle est
mesurée de façon indirecte par l’intermédiaire de variables explicites de la
dégradation (co-variables). Par exemple, l’évolution de la fissuration d’un arbre de
machine peut être mesurée directement (taille de fissure) si ce dernier est accessible,
ou indirectement à l’aide de mesures de variables explicatives. A ce stade, on
distingue les variables actives (les causes) des variables passives (les conséquences)
qui sont corrélées à la dégradation. Dans le cas de l’arbre fissuré, la variable active
est le niveau de charge et la variable passive la vibration mesurée. Par ailleurs, la
notion de dégradation peut s’étendre aux notions de rentabilité, productivité, qualité.
Le principe est d’avoir un seuil de performance minimal en dessous duquel on
considère que le système est défaillant.

2.3. Estimation de la loi de fiabilité de chaque composant

La caractérisation de la fiabilité d’un équipement peut être obtenue selon trois


approches qui se distinguent par le type de données dont on dispose (figure 2). Ces
données peuvent correspondre à des temps de défaillance issus d’un historique de
panne (modèles statistique sur base d’un historique d’événements), à des mesures de
la dégradation physique prélevées au cours du temps dont on connait la loi de
dégradation (modèles physiques de défaillance), ou bien à l’évolution de variables
explicites de la dégradation (suivi d’un indicateur de dégradation) (Letot, 2009).
Les méthodes d’estimation des lois de fiabilité à partir de ces données sont soit
des méthodes de régression soit des méthodes de maximum de vraisemblance. Dans
le premier cas, le principe consiste à linéariser la loi de fiabilité paramétrique que
l’on souhaite ajuster et d’identifier les paramètres par simple régression linéaire.
Dans le second cas, l’idée est d’estimer les paramètres de la loi de fiabilité qui
maximisent la vraisemblance de retrouver les temps de défaillances observés. Ces
deux méthodes seront expliquées et illustrées en détails dans le chapitre 3.
L’approche basée sur la fiabilité permet également de la calculer la durée de vie
résiduelle moyenne de l’équipement, c'est-à-dire l’espérance du temps de bon
fonctionnement à un instant donné. Cette information est une donné essentielle pour
choisir une politique de maintenance appropriée.
« Reliabilitix », un outil d’optimisation de la maintenance basé sur la fiabilité

Figure II. Les trois approches pour l’estimation de la fiabilité et de la durée de vie

2.4. Optimisation de la maintenance

Lorsque la fiabilité de chaque composant a été identifiée, la dernière étape


consiste à déterminer la périodicité de maintenance préventive optimale (Fleurquin,
2007). Pour cela, des données de maintenance sont nécessaires. Parmi ces données
on recense :
- la possibilité de faire du correctif ou uniquement du préventif ;
- les coûts fixes du préventif et du correctif ;
- les coûts variables du préventif et du correctif, c'est-à-dire les coûts indirects
liés à la non production ;
- la durée des interventions de maintenance préventive et corrective ;
- la fréquence d’inspection de chaque composant ;
- le degré de réparation après une intervention de maintenance.
Si le système étudié est composé d’un seul élément bloc, une solution analytique
du problème d’optimisation existe. Dans le cas contraire, il est généralement
nécessaire d’avoir recours à des méthodes de simulation de Monte Carlo.
Christophe Letot, Guillaume Fleurquin, Pierre Dehombreux

2.5. Incertitudes sur les résultats

L’ensemble des résultats obtenus peuvent être quantifiés en termes d’incertitudes


sur la valeur espérée. Cet aspect est important pour le décideur. En effet, est-il
préférable de choisir une politique de maintenance préventive dont l’espérance du
coût estimé est faible mais avec un écart type élevé ? Ou bien au contraire n’est il
pas préférable de choisir une autre politique de maintenance dont l’espérance du
coût est certes légèrement plus élevée mais présentant un écart type plus faible afin
de maîtriser les incertitudes ? De la même façon, prédire la fiabilité d’un équipement
à un instant donné à d’autant plus de crédibilité si on peut lui associer des intervalles
de confiance. Cela permet au décideur de choisir la stratégie la plus adaptée au
risque qu’il accepte de prendre. Pour obtenir ces incertitudes, des méthodes de
simulation de Monte Carlo sont principalement utilisées. Connaissant la loi de
fiabilité, des temps de défaillance sont générés aléatoirement. A partir de ces temps,
le modèle de fiabilité est réajusté à chaque simulation. Nous obtenons ainsi des
valeurs différentes des paramètres de la loi sur base desquelles un ajustement
statistique est réalisé.

3. Cas d’étude théorique

Le système envisagé est un réducteur de vitesses. Les données et les graphiques


présentés ont été obtenus à l’aide de notre logiciel « Reliabilitix ».

Bloc
Joints d’étanchéité

Bloc
Roulements

Bloc
Arbre de sortie

Figure III. Système : réducteur de vitesse.


« Reliabilitix », un outil d’optimisation de la maintenance basé sur la fiabilité

On considère que le système étudié est constitué des éléments suivants :


- un arbre d’entrée ;
- les roulements de l’arbre d’entrée et de sortie ;
- les joints d’étanchéité à l’entrée et à la sortie ;
- le pignon et la roue dentée ;
- un arbre de sortie.
On considère les hypothèses suivantes :
- les roulements sont surveillés par un indicateur d’état de dégradation par
analyse d’huile ; ils sont remplacés lorsque le niveau de particules présentes dans
l’huile dépasse un seuil déterminé ;
- on suppose connaître un historique de temps de défaillance pour les joints
d’étanchéité ; ils sont chaque fois remplacés en même temps ;
- l’arbre de sortie est fortement sollicité, ce qui provoque une dégradation par
fissuration ; la loi régissant ce phénomène de dégradation est la loi de Paris ;
- l’arbre d’entrée et l’engrenage ne sont pas étudiés.

3.1. Structure du système

Sur base de ces hypothèses, la structure du système est composée de trois blocs
associés en série (figure 4).

1 2 3 4
Bloc Bloc Bloc
Roulements Joints d’étanchéité Arbre de sortie

Figure IV. Représentation en schémas blocs du réducteur

La fiabilité du système sera donc le produit de la fiabilité de ses composants. La


prise en compte de la configuration du système est réalisée dans un fichier excel à
l’aide d’une matrice de transition. Des nœuds fictifs relient les différents blocs. Si un
bloc est présent entre le nœud i et le nœud j, la valeur de la cellule de la matrice vaut
1. Les cellules restantes prennent la valeur 0. Dans le cas présent, cette matrice vaut :

ij 1 2 3 4
1 0 1 0 0
2 0 0 1 0
3 0 0 0 1
4 0 0 0 0
Christophe Letot, Guillaume Fleurquin, Pierre Dehombreux

3.2. Structure des données

3.2.1. Données sur les roulements


La quantité de particules présentes dans l’huile est un indicateur de l’état de
dégradation des roulements. L’évolution de cet indicateur est supposée être
normalisée et est donc comprise entre 0 (roulements neufs, aucune particule dans
l’huile) et 1 (seuil de particules présentes dans l’huile atteint). Voici l’historique de
cet indicateur pour des roulements neufs ayant fonctionné depuis 100 jours.

ième jour
0 5 8 16 18 21 30 32 34 39
d'inspection
niveau
0 0,01 0,04 0,1 0,11 0,15 0,21 0,22 0,23 0,26
indicateur
ième jour
46 51 56 69 71 79 86 91 96 100
d'inspection
niveau
0,3 0,33 0,34 0,4 0,42 0,46 0,49 0,54 0,56 0,6
indicateur

3.2.2. Données sur les joints d’étanchéité


On suppose connaître un historique de temps de défaillance pour les joints
d’étanchéité. On fait l’hypothèse que ces joints sont tous identiques et sont utilisés
dans les mêmes conditions de fonctionnement nominal. Voici l’historique des 20
temps de défaillance.

temps de 72 84 94 101 110 115 120 126 136 139


défaillance
en jours
141 149 155 159 166 172 184 193 204 223

3.2.3. Données sur l’arbre de sortie


L’arbre de sortie étant fortement sollicité est sujet à la fissuration par fatigue. On
suppose que l’évolution de la fissuration suit une loi de Paris. Les données ci-
dessous reprennent 20 valeurs de taille de fissure par million de cycles.

cycles [106] 1 2 3 4 5 6 7 8 9 10
taille [mm] 1,17 1,36 1,59 1,86 2,18 2,56 3,01 3,54 4,17 4,92
6
cycles [10 ] 11 12 13 14 15 16 17 18 19 20
taille [mm] 5,82 6,88 8,15 9,67 11,49 13,67 16,29 19,44 23,24 27,83
« Reliabilitix », un outil d’optimisation de la maintenance basé sur la fiabilité

3.3. Calcul de la fiabilité des composants et du système

3.3.1. Fiabilité des roulements


A partir des données sur les roulements, il est nécessaire de choisir un modèle
d’évolution de cet indicateur. De nombreux modèles existent. Citons les modèles
classiques de régression (linéaire, exponentiel, puissance, logarithmique…) ainsi que
les modèles stochastiques (processus de Wiener, processus Gamma). Dans le cas
présent, nous faisons l’hypothèse que l’évolution de l’indicateur suit un processus
Gamma G(t). La formulation du processus Gamma est la suivante :
G(t) est un processus Gamma stationnaire si :
 G(0)=0 ;
 G est un processus à accroissements indépendants ;
 quels que soient t>0 et h>0, la loi d’accroissement X(t+h)-X(t) est une
loi Gamma(αh,β) de densité :

  h  h1
f ( x)  x exp(  x)
( h)

où Γ(αh) = 
0
x h1 exp( x)dx
L’ajustement de ce modèle aux données de l’indicateur de dégradation s’effectue
à l’aide d’une méthode de maximum de vraisemblance (Feillée, 2010). Cette
méthode exprime la vraisemblance L sous la forme d’un produit des fonctions de
densité f(x) évaluées aux N valeurs observées. Pour faciliter les calculs, il est d’usage
d’avoir recours à une transformation logarithmique pour obtenir la log-
vraisemblance :

 N  N
ln L( xi |  ,  )  ln   f ( xi )    ln  f ( xi ) 
 i  i
N N
ln L( xi |  ,  )  N ln(  )  N ln(( ))  (  1) ln( xi )    xi
i i
En recherchant le maximum de cette fonction en prenant les dérivées partielles
par rapport à α et β, on obtient les estimateurs des paramètres α et β:
  '(ˆ ) 1 N
 N

 N ln(ˆ )  N
(ˆ )
 N ln 
N
 x    ln( x )
i i
 i i
 Nˆ
 ˆ  N

  i xi
La figure 5 représente la recherche du maximum de vraisemblance et les
paramètres estimés (α=4.65 et β=723.5).
Christophe Letot, Guillaume Fleurquin, Pierre Dehombreux

Figure V. Recherche du maximum de vraisemblance et paramètres estimés

Connaissant les paramètres du processus de dégradation qui a été ajusté aux


données, il reste maintenant à déterminer la fiabilité liée à l’évolution de ce
processus lorsqu’il franchira le seuil critique. Dans le cas présent, on peut montrer
que la loi de fiabilité d’un processus de dégradation évoluant selon une loi Gamma
dont le seuil de défaillance zc est connu est obtenue par (VanNoortwijk, 2009) :
 * zc

R(t ) 
 0
x t 1 exp( x)dx

 0
x t 1 exp( x)dx

La figure 6 représente les données mesurées (rouge) et 10 courbes simulées du


processus Gamma ajusté. La défaillance apparaît lorsque les courbes simulées
franchissent le seuil à 1, ce qui correspond à une concentration de particules dans
l’huile inacceptable. La figure 7 représente les fonctions de fiabilité prédite (en bleu
continu) et simulées (en rouge en escalier).
« Reliabilitix », un outil d’optimisation de la maintenance basé sur la fiabilité

Figure VI. Indicateur de dégradation. Les points représentent les données mesurées
tandis que les lignes en escalier représentent des simulations du processus Gamma
ajusté sur les données.

Figure VII. Lois de fiabilité obtenues par simulation du processus Gamma (en
escalier rouge) et par voie analytique (en continu bleu)
Christophe Letot, Guillaume Fleurquin, Pierre Dehombreux

3.3.2. Fiabilité des joints d’étanchéité


A partir de l’historique des temps de défaillance, un modèle de fiabilité est
ajusté. Les modèles de fiabilité les plus couramment utilisés sont le modèle
exponentiel, le modèle lognormal et le modèle de Weibull. Ceux-ci sont obtenus soit
par des méthodes de régression soit par des méthodes de maximum de
vraisemblance. Dans le cas présent, nous illustrons la démarche en ajustant un
modèle de Weibull par régression aux données.

3.3.2.1. Ajustement d’un modèle non paramétrique


La première étape consiste à ajuster un modèle non paramétrique aux données.
Le principe consiste à trier les N temps de défaillance par ordre croissant et de
compter le nombre i de défaillances cumulées après chaque temps ti. Un exemple est
l’estimateur non paramétrique par ajustement de rangs approché (Basile, 2007):
i  0,3
Fˆ (ti ) 
N  0, 4

3.3.2.2. Ajustement d’un modèle paramétrique


La seconde étape consiste à utiliser cet estimateur non paramétrique pour ajuster
le modèle paramétrique par régression. Le principe est de linéariser l’expression
analytique de la loi de fiabilité. Dans le cas de la loi de Weibull, nous avons (Basile,
2007) :

  t  ˆ 
Fˆ (t )  1  Rˆ (t )  1  exp     
  ˆ  
 
en passant deux fois le logarithme naturel, nous obtenons :

  1 
ln  ln 
 ˆ    ˆ ln(t )  ˆ ln(ˆ )
  1  F (t )  
l’identification des paramètres avec une droite Y=AX+B donne finalement :


 ˆ  A

ˆ  exp   B / ˆ 

La figure 8 représente la droite de régression obtenue à partir de l’estimateur non
paramétrique. La figure 9 reprend la loi de fiabilité obtenue, ainsi que le modèle non
paramétrique et les intervalles de confiance à 95%.
« Reliabilitix », un outil d’optimisation de la maintenance basé sur la fiabilité

Figure VIII. Droite de régression obtenue à partir de l’estimateur non


paramétrique. Les paramètres de Weibull sont obtenus par identification

β = 2,73
η = 176,9 jours
ΔtR0.8=72 jours
Incertitudes sur les
paramètres :
ΔRt150 = 0.6

2,73 ≤ β=3,87 ≤ 5 ,48


139,3 ≤ η = 157 ≤ 176,9

β = 3,87
η = 157 jours
ρ² = 99,1%
β = 2,73
η = 139,3 jours

Figure IX. Lois de fiabilité de Weibull en bleu continu, fiabilité non paramétrique
en escalier rouge et intervalles de confiance à 95% en vert continu.
Christophe Letot, Guillaume Fleurquin, Pierre Dehombreux

3.3.2.3. Calcul des intervalles de confiance (Basile, 2007)


Le calcul des intervalles de confiance peut être réalisé selon trois approches : la
méthode de Fisher, la méthode par maximum de vraisemblance et la méthode par
simulation. Dans le cas présent, nous expliquons la démarche de la méthode de
Fisher pour déterminer l’incertitude affectant le paramètre β. L’intervalle de
confiance normal repose sur l’hypothèse que la distribution de la variable aléatoire :

ˆ  
Z
 ˆ
est la loi normale centrée réduite. Dans ce cas, l’intervalle de confiance de niveau
α est déterminé par la relation :

ˆ  z1 /2ˆ ˆ    ˆ  z1 /2ˆ ˆ

Le problème consiste à estimer l’écart type de l’estimateur ˆ . Celui-ci est obtenu


en calculant la matrice Fisher. Cette dernière est calculée à partir des dérivées
secondes de la fonction de vraisemblance. L’inverse de cette matrice est la matrice
de variance-covariance.

3.3.3. Fiabilité de l’arbre de sortie


L’arbre de sortie est sujet à la fissuration, on suppose qu’il fonctionne sous une
contrainte de 60MPa, la fissure est observable lorsque sa taille a0 est de 1mm et
devient critique sa taille ac 100mm. Remarque importante, le modèle de fiabilité
présenté ici est valable à partir du moment où la fissure de 1 mm est observable. La
durée de vie réelle de l’arbre depuis sa mise en mise en service est donc plus grande.

3.3.3.1. Estimation des paramètres de la loi de Paris


La loi de Paris lie l’évolution de la taille d’une fissure au nombre de cycles sous
une variation de contrainte donnée par la relation (Letot, 2009) :
da

 C  max   min   a 
m

dN
où C et m sont spécifiques pour chaque matériau. Ces paramètres sont obtenus
par régression après avoir linéarisé la loi de Paris :
da m m
ln  ln C  m ln   ln a  ln 
dN 2 2
l’identification des paramètres avec une droite Y=AX+B donne finalement :
« Reliabilitix », un outil d’optimisation de la maintenance basé sur la fiabilité

 m  2A

  m 
C  exp  B  m ln   2 ln  
  
Dans le cas présent, nous obtenons m=2,0915 et C=1,12*10-11 [m/cycles
(1/2) -m
(MPa.m ) ].

3.3.3.2. Incertitudes sur les paramètres estimés


En pratique, l’estimation des paramètres est sujette à l’erreur. On considère donc
que ces paramètres ne sont pas déterministes mais qu’ils sont issus d’une distribution
statistique. Dans le cas présent, nous supposons que le paramètre C est tiré dans une
loi normale dont la moyenne correspond à la valeur estimée de C et dont l’écart-type
est fixé à 5% de la moyenne. La fonction de densité cumulée du paramètre C est
donc :

X 1  ( x  C )2 
P(C  X )   exp   dx

C 2  2 C 2 
La figure 10 représente des courbes de fissuration aléatoires en considérant la
distribution statistique du paramètre C.

3.3.3.3. Fiabilité analytique et par simulation


En utilisant cette hypothèse sur la distribution du paramètre C, nous pouvons
calculer l’expression analytique de la fiabilité en tenant compte de la loi de
dégradation.. La fiabilité est la probabilité que le nombre de cycles N soit inférieur
au nombre de cycles Nc où la taille de fissure atteint son niveau critique, soit :

R( N )  P( N C  N )
En intégrant la relation de Paris, nous obtenons l’expression de Nc :

ac ( m /2) 1  a0 ( m/2) 1


NC 
((m / 2)  1)(C m m /2 )
En isolant le paramètre C dans l’expression de la fiabilité, nous obtenons :

 ac ( m/2) 1  a0( m/2) 1 


R( N )  P  C  
 ((m / 2)  1)(  ) N 
m m /2
Christophe Letot, Guillaume Fleurquin, Pierre Dehombreux

Figure X. Données mesurées et 20 courbes de fissuration selon la loi de Paris


générées par Monte Carlo en considérant une distribution normale de 5% sur le
paramètre C.

Figure XI. Lois de fiabilité ; par simulation en escalier rouge à partir de 100
courbes de Paris générées ; par ajustement d’une loi lognormale en bleu ; par voie
analytique en vert.
« Reliabilitix », un outil d’optimisation de la maintenance basé sur la fiabilité

Connaissant la distribution de C, la fiabilité devient finalement :

   a  ( m /2)1  a  ( m /2)1   
2

  c 0
  C  
   ((m / 2)  1)(  ) n   dn
m m /2
N 1
R( N )   exp   

 C 2  2 C 2

 
 
La fiabilité par simulation est obtenue par une méthode de Monte Carlo en tirant
des valeurs du paramètre statistique dans sa distribution et en générant des courbes
de fissuration afin d’obtenir des temps de défaillance sur lesquels un modèle de
fiabilité lognormal est ajusté. La figure 11 représente les fiabilités obtenues.

3.3.4. Fiabilité du système


La fiabilité du système est le produit de la fiabilité de ses composants. Il est
nécessaire d’adopter une même base temporelle. Pour l’arbre de sortie, en faisant
l’hypothèse que ce dernier tourne à 200 tours/minute, l’équivalence vaut 1 jour =
288000 cycles.

Fiabilité des
roulements
Fiabilité de
l’arbre de sortie

Fiabilité du
système

Fiabilité des
joints

Figure XII. Fiabilité du système (courbe continue en bleu) et intervalles de


confiance à 95% (courbes continues en rouge). Les courbes discontinues
représentent la fiabilité des composants.
Christophe Letot, Guillaume Fleurquin, Pierre Dehombreux

3.3.5. Durée de vie résiduelle moyenne


Connaissant la fiabilité, la durée de vie résiduelle moyenne (Mean Residual Life)
est obtenue par (Smith, 2002) :
t

MRL(t ) 
0
R( y )dy
R(t )
Par exemple, la durée de vie résiduelle moyenne du système après 90 jours vaut
5,28 jours et les intervalles de confiance inférieur et supérieur à 95% valent
respectivement 3,92 jours et 8,22 jours comme représenté à la figure 13.

Figure XIII. Estimation de la durée de vie résiduelle moyenne du système après 90


jours de fonctionnement et intervalles de confiance à 95%.

3.4. Calcul de la périodicité optimale

Le calcul de la périodicité de maintenance préventive optimale peut être réalisé


par voie analytique si le système est monocomposant. Pour un système complexe, il
est généralement nécessaire d’avoir recours à des simulations de Monte Carlo.
« Reliabilitix », un outil d’optimisation de la maintenance basé sur la fiabilité

3.4.1 Système monocomposant

Pour un composant, l’expression analytique de sa disponibilité vaut (Basile,


2007) :
Tp

A | Tp 
0
R(t )dt


Tp
R(t )dt  F (Tp ).MTTRc  (1  F (Tp )).MTTR p
0

En dérivant cette relation par rapport à la périodicité de maintenance préventive


et en recherchant son maximum en égalant la nouvelle expression à 0, nous
obtenons :

Tp MTTRp
h(Tp )  R(t )dt  F (Tp ) 
0 MTTRc  MTTR p
Cette équation est alors résolue numériquement pour trouver la périodicité
optimale. Pour le calcul des coûts, l’équation est la suivante :

F (Tp )Cc  (1  F (Tp ))C p


Cm 
MUT | Tp
En dérivant cette équation et en l’égalant à 0, on trouve la périodicité optimale
Tp Cp
h(Tp )  R(t )dt  F (Tp ) 
0 Cc  C p
Les figures 14 et 15 illustrent cette méthode pour le composant relatif aux joints
d’étanchéité en considérant les données de maintenance suivantes :
- loi : Weibull (β=3,87, η=157 jours) ;
- maintenance corrective : OUI ;
- durée intervention corrective : 10 jours ;
- coûts intervention corrective : 2000€ ;
- maintenance préventive : OUI ;
- durée intervention préventive : 1 jour ;
- coûts intervention préventive : 200€.
Christophe Letot, Guillaume Fleurquin, Pierre Dehombreux
Coûts (€/jour)

Optimum
Tp = 51,1 jours
Coûts = 62,2€/jour

Tp (jours)
Figure XIV. Recherche du minimum des coûts
Disponibilité

Optimum
Tp = 51,1 jours
Disponibilité = 97%

Tp (jours)
Figure XV. Recherche du maximum de la disponibilité
« Reliabilitix », un outil d’optimisation de la maintenance basé sur la fiabilité

On peut constater que le maximum est bien marqué dans les deux cas. La
périodicité optimale de maintenance préventive pour le composant des joints
d’étanchéité est donc de 51 jours.

3.4.2 Système complexe

Concernant l’optimisation de la maintenance du système complet, la périodicité


de maintenance préventive optimale est obtenue par simulation. Les caractéristiques
des composants sont les suivantes :
composants roulements joints arbre
loi de fiabilité Weibull Weibull lognormal
β=12,77 ; β=3,87 ; μ=4,533 jours ;
paramètres de la loi
η=164,8 jours η=157 jours σ=0,052 jours
maintenance
OUI OUI OUI
corrective
durée intervention
10 jours 10 jours 10 jours
corrective
coûts intervention
1000 euros 1500 euros 2000 euros
corrective
maintenance
OUI OUI OUI
préventive
durée intervention
1 jour 1 jour 1 jour
préventive
coûts intervention
100 euros 150 euros 200 euros
préventive

Les figures 16 et 17 représentent l’évolution de la disponibilité et des coûts en


fonction de la périodicité d’inspection considérée. On peut remarquer que l’optimum
dans les deux cas se situe entre 40 et 60 jours. Si on observe la dispersion pour une
valeur de Tp donnée, on constate que celle-ci est minimale pour Tp=45 jours. On
optera donc pour une périodicité de maintenance préventive égale à 45 jours.
Christophe Letot, Guillaume Fleurquin, Pierre Dehombreux
Disponibilité

Tp (jours)
Figure XVI. Evolution de la disponibilité en fonction de la périodicité de
maintenance préventive. Optimum pour Tp=45 jours.
Coûts (€/jour)

Tp (jours)
Figure XVII. Evolution des coûts en fonction de la périodicité de maintenance
préventive. Optimum pour Tp=45 jours.
« Reliabilitix », un outil d’optimisation de la maintenance basé sur la fiabilité

4. Conclusion

L’objectif de cet article est de proposer une méthodologie générale permettant


aux personnes chargées de la maintenance de déterminer la périodicité de
maintenance préventive optimale. A cette fin, il est nécessaire de disposer de
données. Ces données peuvent soit provenir d’un historique de bon fonctionnement
de la machine, du suivi d’un indicateur de dégradation ou bien d’une mesure directe
de la dégradation dont l’évolution est connue. A partir de ces données, des modèles
de fiabilité sont ajustés soit par des méthodes de régression ou par des méthodes de
maximum de vraisemblance. Ces lois de fiabilité sont bornées par des intervalles de
confiance ce qui permet de quantifier une certaine dispersion sur la valeur annoncée
de la fiabilité. La fiabilité du système est alors obtenue à l’aide d’une combinaison
en série ou parallèle de la fiabilité de ses composants élémentaires. Une estimation
de la durée de vie résiduelle du système est alors possible, celle-ci peut être une fois
encore bornée par des intervalles de confiance. Finalement, la phase d’optimisation
proprement dite est réalisée par simulation en prenant en compte les données issues
de la maintenance. Il est évident que les résultats obtenus vont fortement dépendre
du ratio entre les coûts/durées d’indisponibilité de la maintenance préventive et les
coûts/durées d’indisponibilité de la maintenance corrective. L’exemple utilisé a
montré l’importance de calculer les intervalles de confiance sur les indicateurs afin
de permettre au gestionnaire de la maintenance de choisir une périodicité de
maintenance préventive la plus adaptée à sa stratégie. La méthode proposée peut être
utilisée sur n’importe quel système ou équipement du moment que l’on dispose de
données mesurables sur celui-ci.

5. Bibliographie

Basile O., Prise en compte de l’incertitude dans les modèles fiabilistes de maintenance
industrielle ; extensions aux sollicitations variables, Thèse de doctorat, Faculté
Polytechnique de Mons (Université de Mons), 2007.
Basile O., « Evaluation on the uncertainty affecting reliability models ». Journal for Quality
in Maintenance Engineering, Vol. 13 (2), pp.137-151, 2007.
Feillée J., Modélisation et prévision de la dégradation du fil de contact caténaire dans l’espace
et dans le temps, Thèse de doctorat, Université de Paris, 2010.
Fleurquin G., « OPTIMAIN : plateforme d’élaboration de stratégies de maintenance pour la
gestion des systèmes complexes ». Revue Française de Gestion Industrielle, Vol. 26 (1),
2007.
Hadni S., « La réduction du risque comme objectif dans l’élaboration d’un plan de
maintenance », Actes du 4ème congrès PENTOM, Autrans (France), 2009
Kilundu B., « Early Detection of Bearing Damage by Means of Decision Trees ». Journal of
Automation, Mobile Robotics & Intelligent Systems, Vol. 3 (3), pp. 70-74, 2009.
Christophe Letot, Guillaume Fleurquin, Pierre Dehombreux

Letot C., « Degradation models for reliability estimation and mean residual lifetime »,
Proceedings of the 8th National Congress on Theoretical and Applied Mechanics, pp.
618-625, Brussels, Belgium, 2009.
Letot C., « Modèles de dégradation pour l’estimation de la fiabilité et de la durée de vie
résiduelle : applications à la fissuration. », Actes du 4ème congrès PENTOM, Autrans
(France), 2009.
Smith P.J., Analysis of failure and survival data, texts in statistical science, USA, Chapman
& Hall/CRC, 2002.
VanNoortwijk J.M., « A survey of the application of gamma processes in maintenance »,
Reliability Engineering and System Safety, Vol. 94, pp. 2-21, 2009.

View publication stats

Vous aimerez peut-être aussi