Vous êtes sur la page 1sur 21

Abonnez-vous à DeepL Pro pour éditer ce document.

Visitez www.DeepL.com/pro pour en savoir plus.

information

Article
Une stratégie de diagnostic des défauts par auto-
apprentissage basée sur la fusion de plusieurs
modèles.
Tianzhen Wang 1,2 , Jingjing Dong 1, Tao Xie 1, Demba Diallo 1,3et
Mohamed Benbouzid 1,2,*
1
Logistics Engineering College, Shanghai Maritime University, Shanghai 201306, Chine ;
tzwang@shmtu.edu.cn (T.W.) ; shirleyjing2010@163.com (J.D.) ; smu_taoxie@163.com (T.X.)
; Demba.Diallo@geeps.centralesupelec.fr (D.D.)
2
Institut de Recherche Dupuy de Lôme UMR CNRS 6026 IRDL, Université de Brest, Brest 29238, France
3
Groupe de génie électrique Paris UMR CNRS 8507, CentraleSupelec, Univ. Paris Sud,
Sorbonne Université, Gif-sur-Yvette 91192, France
*Correspondance : Mohamed.Benbouzid@univ-brest.fr ; Tél : +33-2-9801-8007
ror de
Reçu : 11 janvier 2019 ; Accepté : 13 mars 2019 ; Publié : 17 mars 2019 contrôle
mises à
jour

Résumé : Cet article présente une approche pour détecter et classifier les fautes dans les systèmes
complexes avec de petites quantités d'historique de données disponibles. La méthodologie est
basée sur la fusion de modèles pour la détection et la classification des défauts. De plus, la base de
données est enrichie d'échantillons supplémentaires s'ils sont correctement classés. Pour la
détection des défauts, l'analyse en composantes principales par noyau (KPCA), l'analyse en
composantes indépendantes par noyau (KICA) et la description de domaine par vecteur de support
(SVDD) ont été utilisées et combinées avec un opérateur de fusion. Pour la classification, le moteur
d'apprentissage extrême (ELM) a été utilisé avec différentes fonctions d'activation combinées à une
fonction de fusion moyenne. Les performances de la méthodologie ont été évaluées à l'aide d'un
ensemble de données expérimentales de vibrations recueillies sur un banc d'essai de roulements
testés jusqu'à la défaillance. Les résultats montrent l'efficacité de l'approche proposée par rapport
aux méthodes conventionnelles. La détection des défauts a été réalisée avec un taux de fausses alarmes
de 2,29% et un taux d'alarmes manquantes nul. Les données sont également classées avec succès
avec un taux de 99,17%.

Mots clés : multi-modèle ; auto-apprentissage ; fusion et décision ; diagnostic de panne.

1. Introduction
En raison des exigences accrues en termes d'efficacité et de performances économiques, les
systèmes industriels modernes sont devenus plus complexes [1]. Le nombre croissant de
composants et les modes de fonctionnement complexes augmentent le taux de défaillance [2-4]. Par
conséquent, afin de respecter les exigences de sécurité et de fiabilité, une stratégie de détection et de
diagnostic des défauts doit être mise en œuvre pour surveiller le système. Les approches actuelles
de diagnostic des défaillances peuvent être divisées en deux grandes catégories : les approches
basées sur la physique et celles basées sur les données [3-5]. En raison de la complexité des systèmes
industriels modernes, il est difficile d'établir un modèle analytique précis basé sur la physique [6]. En
outre, la plupart des processus sont de plus en plus contrôlés par des ordinateurs. Par conséquent, une
énorme quantité de données est disponible, ce qui rend les méthodes basées sur les données très
attrayantes [7].
L'analyse statistique multivariée et l'apprentissage automatique deviennent de plus en plus
populaires en tant qu'outils d'extraction et d'analyse de caractéristiques pour le diagnostic des
défauts à l'aide d'une approche axée sur les données [8]. Parmi les méthodes d'analyse statistique,
l'analyse en composantes principales (ACP) a été largement utilisée dans la surveillance des processus
[9-13]. Cependant, l'ACP est optimale lorsque les données suivent une distribution gaussienne [14].
Par conséquent, Z. Q. Ge a présenté un modèle PCA-1-machine à vecteur de support (SVM) et Y. Zhang
et al. ont appliqué une analyse en composantes indépendantes (ICA) pour la détection des défauts
[15,16]. Cependant, lorsque la distribution est plus complexe, les méthodes habituelles de détection
des défauts sont moins performantes. Ainsi,

Information 2019, 10, 116 ; doi:10.3390/info10030116 www.mdpi.com/journal/information


Information 2019, 10, 116 2sur 13

L. R. Arnaut et al. ont proposé différentes combinaisons de l'ICA et de la PCA [17,18] au détriment d'une
charge de calcul plus élevée. De plus, les comportements dans les processus industriels réels sont
généralement non linéaires [19,20]. Par conséquent, l'utilisation de transformations linéaires peut
entraîner la perte d'informations importantes et des performances médiocres en matière de détection
des défauts [21]. Pour résoudre ce problème, B. Schölkopf et al. ont proposé la méthode du noyau [22],
comme l'analyse en composantes principales du noyau (KPCA) et l'analyse en composantes
indépendantes du noyau (KICA) [23-26]. Cependant, l'hypothèse de variables indépendantes et
identiquement distribuées doit être maintenue [27-31]. Certaines méthodes d'apprentissage
automatique telles que l'Extreme Learning Lachine (ELM) et le Support Vector Machine (SVM) ont de
bonnes performances avec un processus non linéaire, sans hypothèse sur les variables. Cependant, l'ELM
nécessite souvent une grande quantité de données d'étiquettes pour l'apprentissage hors ligne, qui ne
sont pas toujours disponibles dans les processus industriels réels [27]. Ainsi,
V. Vapnik et al. ont proposé la machine à vecteurs de soutien (SVM) pour traiter la classification de
petits échantillons de données [32]. Le SVM est une autre application de la méthode du noyau, qui
présente de meilleures performances de généralisation et une capacité de traitement non linéaire [33].
Bien qu'il puisse extraire des caractéristiques non linéaires et détecter efficacement les défauts, il
nécessite beaucoup de temps dans les phases de formation et de test. C'est pourquoi Tax et al. ont
proposé la description du domaine vectoriel de soutien (SVDD) à marge souple [34].
De plus, en plus des caractéristiques non linéaires, les processus industriels réels ont différents
points de fonctionnement en régime permanent et transitoire. Il est donc difficile d'obtenir une
surveillance précise avec un seul modèle qui ne peut pas prendre en compte toutes les dynamiques [35].
Toutes les méthodes susmentionnées sont basées sur un seul modèle. C'est pourquoi certains
universitaires ont évalué de nouvelles techniques telles que l'ACP relative (RPCA), l'ELM séquentiel en
ligne (OS-ELM), l'ICA dynamique et le SVM hyper-sphérique dynamique (HSSVM). Certaines
améliorations ont été constatées, mais pas pour tous les modes de fonctionnement.
Dans cet article, nous proposons une approche basée sur la fusion multi-modèles pour prendre
en compte tous les points de fonctionnement. Nous proposons également de combiner différentes
techniques pour la détection et la classification des défauts. De plus, pour élargir la base de données
initiale, tous les nouveaux échantillons bien classés à la fois dans les étapes de détection et de
classification des défauts sont inclus dans la base de données ; ceci est connu sous le nom d'auto-
apprentissage. Pour évaluer notre approche, des données de roulements réels provenant du Center for
Intelligent Maintenance Systems (IMS) de l'Université de Cincinnati sont utilisées [36]. L'article est
organisé comme suit : La section 2 présente la stratégie de diagnostic des défauts. La section 3 décrit
un cas spécifique de diagnostic de défauts dans des conditions complexes. La section 4 présente
l'ensemble des données expérimentales du roulement et les résultats de la détection et de la
classification des défauts. Enfin, les conclusions sont tirées dans la section 5.

2. Méthode de diagnostic des défauts


Dans cette section, la stratégie de diagnostic des défauts est proposée. Nous utilisons une petite
quantité de données de fonctionnement normal et défectueux pour établir plusieurs modèles de
détection et de classification. L'architecture globale de la stratégie de diagnostic proposée est illustrée
à la figure 1. La méthode est basée sur trois modules différents, à savoir le prétraitement, la détection
des défauts et la classification des défauts. Le contenu détaillé de chaque module est décrit dans ce
qui suit :
➢ Module de prétraitement des données
Au cours de l'étape hors ligne, des données historiques saines et défectueuses sont collectées
pour entraîner les modèles de détection m 1, m 2, .... , m net les modèles de classification M 1, M 2, .
. . , M N.
➢ Module de détection des défauts
Dans ce module, l'échantillon de données en temps réel après prétraitement est soumis à chaque
modèle de détection. Ensuite, en fonction des résultats de chaque modèle, un opérateur de fusion Fe est
utilisé pour prendre une décision. Si un défaut est détecté, l'étape de classification des défauts est activée.
➢ Module de classification des défauts
Après la détection d'un défaut, la classification des défauts est lancée sur la base des modèles
Information 2019, 10, 116 3sur 13
de classification de M 1, M 2 , .... , MN . Ensuite, en fonction des résultats de chaque modèle, un
opérateur de fusion Fi est utilisé pour prendre une décision. Ensuite, selon l'exigence d'auto-
apprentissage, si les résultats des modèles de classification répondent à l'exigence d'auto-
apprentissage, il utilisera l'échantillon de données en temps réel pour les mettre à jour.
Information 2019, 10, 116 4sur 13

Les règles suivantes sont spécifiées lors de la sélection des modèles pour la détection ou la
classification :

2.1. Détection des défauts


➢ Les modèles de détection que nous choisissons sont différents les uns des autres, ou bien ils
peuvent être complémentaires, afin de diminuer les fausses alarmes et les taux d'alarmes
manquantes.
➢ Les modèles de détection doivent avoir une grande précision de détection pour éviter une erreur
cumulative.
➢ Comme les modèles de détection seront exécutés en parallèle, des approches de mise en œuvre
judicieuses peuvent être utilisées en combinaison avec un système multicœur et un système basé
sur une unité de traitement graphique (GPU) pour réduire le temps de calcul.

Figure 1. Organigramme de la méthode de diagnostic.

2.2. Classification des


défauts

➢ Les modèles de classification sont différents les uns des autres, afin d'augmenter la précision
de la classification.
➢ Les modèles de classification doivent avoir une grande précision de classification pour éviter
l'apparition d'erreurs cumulatives.
➢ Le temps de calcul de chaque modèle de classification doit être le plus court possible. En effet,
pour la classification des défauts, la contrainte de temps est moindre.
Information 2019, 10, 116 5sur 13

La fusion est utilisée pour prendre la décision finale à partir des résultats des différents
modèles. Différentes méthodes peuvent être utilisées, comme le vote, l'inférence bayésienne et la
méthode de l'espace de connaissance du comportement. L'inférence bayésienne nécessite davantage
de données et de connaissances préalables, et la méthode de l'espace de connaissance du
comportement nécessite un espace de stockage important pour enregistrer les résultats de
l'identification. Par souci de simplicité, nous utiliserons la méthode du vote, qui est décrite ci-après.
Chaque modèle de classificateur émet un vote (y ipour le classificateur i) et le vote accumulé pour
chaque classe est
calculé comme suit :
y = f (wi , y i), i = 1, . . . , s (1)

où wi est la valeur du poids du ième classificateur et y est le résultat de la fusion.


Afin d'enrichir la base de données, car elle n'est peut-être pas assez grande, une méthode
d'auto-apprentissage est proposée. Mais avant d'insérer l'échantillon actuel dans la base de
données, la sortie du résultat du diagnostic doit être cohérente avec le résultat réel. Par conséquent,
nous pouvons éviter d'ajouter dans la base de données des données de prédiction erronées.

3. Cas d'une affection complexe


Dans les systèmes réels, il y a beaucoup d'interactions et de phénomènes complexes qui se
produisent. Ils impliquent généralement des éléments multi-physiques, les comportements sont non
linéaires et la distribution des données peut être complexe. Par conséquent, un seul modèle ne peut
pas saisir toutes les dynamiques avec précision. Par conséquent, afin de concevoir une approche de
surveillance en ligne efficace, différents modèles sont nécessaires pour la détection et la
classification des défauts.

3.1. Détection des défauts


Pour la détection des défauts, trois modèles seront combinés par un opérateur de fusion. Le premier
modèle est basé sur KPCA et la statistique T2 de Hotelling [13,30]. Le deuxième modèle est basé sur la KICA
[31] et la statistique I2 [33]. Le troisième modèle utilise le SVDD et la distance entre l'échantillon de test,
et le centre d'une hypersphère est utilisé comme caractéristique de détection des défauts [27,34].
L'organigramme est décrit dans la figure 2.

KP SV
y yKI y
1 2 3
Fu
R
Figure 2. Organigramme de la détection des défauts.

La fonction de décision pour l'ACPK est :


(
1T2 ≥
y (2)
T2
c
= l

2
< cl
1−1T2 T détails de cette méthode peuvent être
où Tcl 2 est la limite de confiance de la statistique T2. Les
trouvés dans
Référence [13].
Information 2019, 10, 116 6sur 13

La fonction de décision pour le KICA


est : (
1I2 ≥ I2 (3)
y <
Ic
2 =−1I2 2 l
c
l
où I cl2 est la limite de confiance de la statistique I2. Les détails de cette méthode peuvent être
trouvés dans la référence [34].
La fonction de décision pour le SVDD est :

1d2
y3= ( ≥ r2 (4)
-1d2 < r2

L'échantillon est défectueux si y i= 1, (i = 1, 2, 3) ou sain si y i= -1, (i = 1, 2, 3). r est le rayon de


la sphère de haute dimension et d est la distance entre le point de détection et le centre de la sphère
de haute dimension.
Nous utilisons un vecteur pour exprimer les résultats ci-dessus, qui est y = [y 1, y 2, y 3], et
l'opérateur de fusion est
n
Fe = [ω1 ,ω 2,ω 3] où ∑ ω i= 1.
i=1
Étant donné que l'ACPK n'est pas optimale si le signal a une distribution non gaussienne, nous fixons
son poids
comme une fonction décroissante. Le même poids est adopté pour le KICA pour la même raison. Par
conséquent,
(s-τ)
nous fixons ω1 = ω22 =1+e-
1- e-k . Alors que pour le SVDD nous utilisons une fonction croissante pour
le poids à k(s-τ)
Souligner sa contribution alors ω 3= 1 . Où k = 0,1, s est le temps de mise à jour, et τ est une
valeur
1+e-k (s-τ)
d'expérience.
Alors le résultat de la
décision est :
!
3
Re= signe F y T = ∑ yi (5)
e- sig ωi
ne i=1

Si Re = 1, un défaut est détecté. Si Re = 0 ou -1, l'échantillon est utilisé pour mettre à jour le ou les
modèles qui ont détecté qu'aucun défaut ne s'est produit.

3.2. Classification des fautes


Pour la classification des défauts, on utilise un réseau de neurones (NN) basé sur des SLFN
(single-hidden layer feedforward NNs), appelé l'algorithme d'apprentissage extrême (ELM). Pour saisir
toute la dynamique du système, quatre fonctions d'activation différentes (hardlim, sin, radbas et
sigmoïde) sont utilisées, correspondant à trois modèles différents. Leurs sorties seront combinées par
un opérateur de fusion qui sera décrit dans ce qui suit.
Pour l'étape de fusion, une pondération moyenne est utilisée avec le même poids (w1 = w2 = w3 = w4 =
1/4).
pour chacun des quatre modèles car ils ont le même effet sur la sortie. Le résultat de la fusion est défini
comme suit :

F vote (x) = argKmax(g i (x)) (6)


i=1
où Fvote (x) est le type de défaut de la décision finale, g i(x) est le temps de vote du ième défaut par
Information 2019, 10, 116
ces
7sur 13
modèles de classification et K est le nombre de types de défauts.
La règle de diagnostic des défauts par auto-apprentissage est la suivante : Lorsqu'un défaut est
détecté mais que les quatre modèles ne peuvent pas classer le type de défaut, le signal à venir est stocké
et considéré comme une donnée représentant un nouveau type de défaut.

4. Résultats expérimentaux et analyse


Un ensemble de données d'un test de roulement réel a été choisi comme entrée en temps réel
pour tester la stratégie proposée. Cet ensemble de données a été fourni par le Center for Intelligent
Maintenance Systems (IMS),
Information 2019, 10, 116 8sur 13

Université de Cincinnati [36]. Le banc d'essai détaillé et le schéma de l'installation sont présentés à la
figure 3 [37].
Quatre roulements ont été installés sur un arbre entraîné par un moteur, et la vitesse de rotation a
été fixée à 2000 tr/min. Une charge radiale de 6000 livres était appliquée sur l'arbre et le roulement
par un mécanisme à ressort. Les données ont été collectées à l'aide d'une carte NI DAQ 6062E, et le
taux d'échantillonnage était de 20 kHz (chaque fichier contenait 20 480 points). Trois ensembles de
données étaient inclus dans le paquet de données, et chaque ensemble de données consistait en une
expérience de test à la défaillance. Pour évaluer les performances de l'approche proposée, les
données ont été organisées en différentes sections, comme décrit dans le tableau 1, avec les données
saines et trois types de défauts.

Figure 3. Banc d'essai de roulements.

Tableau 1. Échantillon d'essai.

Sections des fichiersSain et défectueux


1-80Normal
81-160Défaut 1 : Défaut de la bague extérieure du roulement 1
161-240Normal
241-320Défaut 2 : Défaut de la bague extérieure du roulement 3
321-400Normal
401-480Défaut 3 : défaillance de la bague intérieure du roulement 3

4.1. Détection des défauts


La figure 4 montre le résultat de la détection des défauts à l'aide de KPCA, KICA et SVDD. Sur la
figure 4a, la ligne rouge représente la limite de confiance de la statistique T2. Le résultat montre que le
défaut 2 peut être détecté avec de bonnes performances. Cependant, l'ACPK n'a pas réussi à détecter le
défaut 1 et le défaut 3, et il y a eu de nombreuses fausses alarmes. De plus, l'échantillon historique sain
insuffisant a également contribué aux mauvais résultats de la détection des défauts. La figure 4b montre
le résultat de la détection des défauts en utilisant le contrôle statistique I2 avec le KICA.
Les résultats montrent que les défauts 1 et 3 ont été clairement détectés, tandis que le défaut 2 n'a pas été
détecté. La figure 4c montre le résultat de la détection des défauts avec le SVDD. La ligne rouge représente
le rayon de l'hypersphère obtenue avec les échantillons de données sains. Malgré un taux élevé de fausses
alarmes, les performances de détection des défauts sont assez bonnes.
Information 2019, 10, 116 9sur 13

L'ACP et l'ACP-SVDD ont également été évaluées avec les mêmes données. La figure 5 montre
le résultat de la détection des défauts avec deux métriques : Le T2 de Hotelling et la statistique de
l'erreur prédictive carrée (SPE), respectivement. Les performances étaient manifestement très
faibles. Des améliorations significatives ont été obtenues lorsque le SVDD a été utilisé pour analyser
les caractéristiques extraites avec l'ACP. Les résultats sont représentés sur la figure 6.
Enfin, une stratégie multi-modèle sans auto-apprentissage a été évaluée avec les mêmes
échantillons de données. Les résultats représentés sur la figure 7a montrent une nette amélioration
de la détection des défauts pour les trois défauts. Cependant, cette méthode a souffert d'un taux élevé
de fausses alarmes. L'auto-apprentissage a été introduit avec un opérateur de fusion et les résultats
sont représentés sur la figure 7b. Tous les échantillons défectueux ont été détectés, et les données
des défauts 2 et 3 sont toutes classées avec précision. En outre, la précision de la classification du défaut
1 a atteint 97,5 %.

KPCA x 105KIC A

80 3

70

2.5

60

2
50
leur
Val
eur

2Va
T2

401.5
I

30
1

20

0.5
10

080160 0
0 240320 400 480 080160240320400480
Point d'échantillonnage Point d'échantillonnage

(a) KPCA (b) KICA


SVDD
1.6

1.4

1.2

1
Dist
anc
e

0.8

0.6

0.4

0.2

080160
0 240320 400480
Point d'échantillonnage

(c) SVDD

Figure 4. Résultat de la détection des défauts.

PCA PCA
10 0.09

90. 08

80. 07

7
0.06

6
ur de
Vale

0.05
SPE
Val
eur
T2

la

5
0.04

0.03
3

0.02
2

0.01
1

0
0 080160240320400480
080160240 320 400480
Point Point d'échantillonnage
d'échantillonnage

(a) Utilisation de T2 (b) Utilisation de SPE


Figure 5. Détection des défauts avec PCA.
Information 2019, 10, 116 10sur 13
Information 2019, 10, 116 11sur 13

PCA-SVDD
1.3

1.2

1.1

Dist
anc
e
0.9

0.8

0.7

0.6

0.5
0 80160240320400 480
Point d'échantillonnage

Figure 6. Détection des défauts avec PCA-SVDD.

Détection multi-modèle Stratégie d'auto-apprentissage par fusion multi-modèles


1

3
iagnostic
R ésultat
détection
Résultat

2
de la

du d

0 0
0 80 160 240 320 400 480 0 80 160 240 320 400 480

Point Point
d'échantillonna d'échantillonna
ge ge

(a) sans auto-apprentissage(b) avec auto-apprentissage


Figure 7. Résultats de la détection des défauts avec le multi-modèle.

Les résultats de la détection des défauts sont résumés dans le tableau 2 avec les taux de fausses
alarmes et d'alarmes manquantes. La fusion des modèles et l'auto-apprentissage ont clairement
montré de meilleures performances. Son taux de fausses alarmes était bien inférieur à 5 %, ce qui
est un paramètre couramment adopté dans les processus industriels.

Tableau 2. Comparaison des résultats de la détection des défauts.

Approche Taux de fausses Taux d'alarmes


alarmes (%) manquantes (%)
KPCA 1.04 33.33
KICA 3.13 17.08
SVDD 19.17 0.0

PCAT2 0.0 47.50


SPE 0.0 49.17
PCA-SVDD 0.0 27.92
Détection multi- 19.38 0.0
modèle
Stratégie proposée 2.29 0.0

4.2. Classification des fautes


Les approches ELM, SVDD, BackPropagation (BP) et Relevance Vector Machine (RVM) ont été
comparées à la stratégie proposée dans l'étape de classification des défauts. La figure 8 montre le résultat
de la classification de l'ELM. Il y avait différentes couches pour les différents défauts. Par exemple,
certains échantillons du défaut 1 ont été classés dans la couche 1, ce qui était correct. Si les
Information 2019, 10, 116 12sur 13
échantillons du défaut 1 ont été classifiés dans les couches 2, 3
Information 2019, 10, 116 13sur 13

ou 0, ils étaient faux. Nous avons utilisé les quatre modèles pour classer les défauts respectivement,
puisque les différents modèles ELM ont eu des résultats différents dans la classification des défauts.
On peut voir que les résultats de la classification n'étaient pas bons. Et la précision moyenne de ces
quatre modèles ELM a été utilisée pour exprimer la précision de classification de l'ELM. La précision
globale de l'ELM n'était que de 75,20%. La raison principale est la suivante : L'échantillon historique
était faible, ce qui signifie que le modèle n'a pas reçu suffisamment de formation. Nous avons établi le
SVDD, qui a utilisé ces trois différentes données de défaut dans la phase de classification, et le résultat
de la classification du SVDD, comme le montre la figure 9a. Le résultat de la classification était bon
pour les défauts 2 et 3, mais pas pour le défaut 1. La figure 9b représente le résultat de la
classification du modèle BP. Les données du défaut 2 ont toutes été classées correctement, mais la
précision globale de la classification n'était pas idéale, puisqu'elle n'était que de 74,58 %. Le modèle BP
nécessite beaucoup de temps dans la phase de formation, ce qui rend difficile la réalisation de la
surveillance en ligne. La figure 9c illustre le résultat de la classification du RVM. Il a obtenu une bonne
précision de classification dans les données des défauts 2 et 3. Cependant, un grand nombre
d'échantillons de défauts 1 ont été mal classés en tant que défauts 3. La précision globale du RVM
était supérieure à celle de l'ELM, du BP et du SVDD. Mais le RVM est un classificateur binaire, qui
nécessite l'établissement d'une pluralité de classificateurs RVM, lorsqu'il est utilisé dans des diagnostics
de défauts multiples. Par conséquent, cela a considérablement augmenté la complexité des calculs.
Comme pour la phase de détection, cet article utilise également une stratégie multi-modèle pour
illustrer l'effet de la stratégie proposée. La figure 9d montre les résultats de la classification avec le
multi-modèle. La précision globale de la classification était de 92,5 %. La précision de la classification
a donc été améliorée avec le multi-modèle par rapport à l'approche à modèle unique. Le tableau 3
montre les résultats de classification d'une comparaison lorsque les cinq approches ont été utilisées
pour la classification des défauts du test de roulement pour la même condition. Les défauts 1, 2 et 3
ont été bien classés en utilisant la stratégie proposée. En outre, sa précision globale était supérieure
à celle de l'approche multi-modèle unique, ce qui prouve l'effet positif de l'auto-apprentissage.

ELM ELM
3.5 3.5

33
classificati
classificati

Résultat
Résultat

22
de la
de la

on
on

11

0
080160
0 240
320400480 080160240320400480
Point
Point d'échantillonnage
d'échantillonn
age

(a) Premier modèle avec fonction hardlim (b) Second modèle


avec fonction sin
ELM ELM
3.5 3.5

33
classificati

classificati
Résultat

Résultat

22
de la

de la
on

on

11

080160240320400480
Point d'échantillonnage
0
080160240320400480
Point d'échantillonnage
Information
0 2019, 10, 116 14sur 13
(c) Troisième modèle avec fonction radbas (d) Quatrième modèle avec
fonction sigmoïde

Figure 8. Résultat de la classification avec le machine d'apprentissage extrême (ELM).


Information 2019, 10, 116 15sur 13

SVDDBP
3.5

33

classificati
classificati

Résultat
Résultat

22

de la
de la

on
on

11

0
080160
0 050100150200250300350400450500
240320400480 Point d'échantillonnage
Point d'échantillonnage

(a) Description du domaine des vecteurs de support ( SVDD)(b) Backpropagation (BP)


RVM Classification Multi-Mo del
3.5 3.5

33
classificatio
Résultat de

Défailla
classificati
Résultat

22
de la

on

la

11

0
080160240320400480
0 080160240320400480
Point d'échantillonnage
Point
(c) Machine à vecteur de pertinence d'échantillonna
ge

(RVM) (d) Multi-modèle

Figure 9. Résultat de la classification avec l'approche multi-modèle unique.

Les résultats de la classification sont résumés dans le tableau 3.

Tableau 3. Comparaison des résultats de la classification.

Précision
ApprocheClassification
Défaut Défaut Défaut En
1 2 3 général
ELM 40.5/80 60/80 80/80 75.20%
SVDD 44/80 74/80 73/80 79.58%
BP 22/80 80/80 77/80 74.58%
RVM 56/80 74/80 79/80 87.08%
Multi-modèle 62/80 80/80 80/80 92.50%
Stratégie 78/80 80/80 80/80 99.17%
proposée
D'après les résultats affichés dans le tableau 3, nous pouvons déduire que les meilleures
performances de détection et de classification ont été obtenues avec le multi-modèle combiné à la
stratégie d'auto-apprentissage.

5. Conclusions
Dans les processus industriels actuels, la compétitivité passe par la maintenance conditionnelle afin
de réduire les arrêts intempestifs et les coûts de maintenance. La surveillance de l'état de santé est l'un
des outils permettant d'atteindre ces objectifs. Cependant, les processus sont plus complexes car ils
impliquent différents phénomènes physiques et des comportements hautement non linéaires. Les points
de fonctionnement sont également variables. Par conséquent, un modèle unique ne serait pas en mesure
de saisir toute la dynamique des données pour la surveillance de la santé. Cet article propose donc une
stratégie de diagnostic des défauts basée sur le multi-modèle et l'auto-apprentissage. Dans l'étape de
Information 2019, 10, 116 16sur 13
détection des défauts, les modèles KPCA, KICA et SVDD ont été utilisés et combinés avec un opérateur de
fusion. Dans la classification
Information 2019, 10, 116 17sur 13

Dans l'étape de fusion, le modèle ELM a été utilisé avec différentes fonctions d'activation combinées à une
fonction de fusion moyenne. Cette stratégie a été évaluée avec les données de vibration de l'expérience
de test à la rupture d'un roulement. La détection des défauts a été réalisée avec un taux de fausses
alarmes de 2,29% et un taux d'alarmes manquantes nul. Les données ont également été classées avec
succès avec un taux de 99,17%. La méthode proposée peut également être appliquée à d'autres
domaines [38-42]. Il convient de mentionner que la stratégie proposée pourrait augmenter le temps de
calcul. Heureusement, les processeurs sont de plus en plus puissants et le logiciel peut être
judicieusement partitionné sur plusieurs processeurs dans un système multicœur pour une surveillance
en temps réel. La surveillance peut également être engagée périodiquement si cela est nécessaire pour
réduire la charge de calcul.

Contributions des auteurs : T.W. a proposé l'approche de fusion multi-modèle ; J.D. et T.X. ont réalisé les simulations
et les tests ; T.W., D.D. et M.B. ont vérifié les résultats des simulations et des tests et ont supervisé l'ensemble
de la procédure de recherche de cet article.
Financement : Cette recherche est soutenue par la National Natural Science Foundation of China (61673260)
et la Shanghai Natural Science Foundation (16ZR1414300).
Conflits d'intérêts : Les auteurs ne déclarent aucun conflit d'intérêt.

Références
1. Gao, Z. ; Ding, S. ; Cecati, C. Real-time fault diagnosis and fault-tolerant control. IEEE Trans. Ind. Electr. 2015,
62, 3752–3756. [CrossRef]
2. Xu, X. ; Li, S. ; Shen, X. ; Wen, C. The optimal design of industrial alarm systems based on evidence theory.
Control Eng. Practice 2016, 46, 142-156. [CrossRef]
3. Wen, C. ; Wang, Z. ; Hu, J. ; Liu, Q. ; Alsaadi, F. Recursive filtering for state-saturated systems with randomly
occurring nonlinearities and missing measurements. Int. J. Robust Nonlinearity Control 2018, 28, 1715-1727.
[CrossRef]
4. Wang, T. ; Liu, L. ; Zhang, J. ; Schaeffer, E. ; Wang, Y. Une stratégie M-EKF de détection des défauts du
système d'isolation d'une turbine marine à courant. Mechanical Syst. Signal Process. 2019, 115, 26–280.
[CrossRef]
5. Costamagna, P. ; Giorgi, A. ; Magistri, L. ; Moser, G. ; Pellaco, L. ; Trucco, A. A Classification approach for
model-based fault diagnosis in power generation systems based on solid oxide fuel cells. IEEE Trans. Energy
Convers. 2016, 31, 676–687. [CrossRef]
6. Wan, L. ; Ding, F. Decomposition- and gradient-based iterative identification algorithms for
multivariablesystems using the multi-innovation theory. Circuits Syst. Signal Process. 2019, 38. [CrossRef]
7. Li, Z. ; Outbib, R. ; Giurgea, S. ; Hissel, D. Diagnostic pour les systèmes PEMFC : Une approche guidée par
les données avec les capacités d'adaptation en ligne et une nouvelle détection des défauts. IEEE Trans. Ind.
Electr. 2015, 62, 5164-5174. [CrossRef]
8. Ma, M. ; Wong, D. ; Jang, S. ; Tseng, S. Fault detection based on statistical multivariate analysis and
microarrayvisualization. IEEE Trans. Ind. Inform. 2010, 6, 18–24.
9. Harmouche, J. ; Delpha, C. ; Diallo, D. Détection et diagnostic de défauts naissants basés sur la divergence
de Kullback-Leibler en utilisant l'analyse en composantes principales : Part I. Signal Process. 2014, 94, 278–
287. [CrossRef]
10. Harmouche, J. ; Delpha, C. ; Diallo, D. Détection et diagnostic de défauts naissants basés sur la divergence
de Kullback-Leibler en utilisant l'analyse en composantes principales : Part II. Signal Process. 2015, 109, 334–
344. [CrossRef]
11. Wang, T. ; Xu, H. ; Zhang, M. ; Han, J. ; Elbouchikhi, E. ; Benbouzid, M.E.H. Diagnostic des défauts d'un
système d'onduleurs multiniveaux à pont en H en cascade à l'aide d'une approche PCA et d'une machine
vectorielle de pertinence multi-classes. IEEE Trans. Power Electr. 2015, 30, 7006-7018. [CrossRef]
12. Jiang, Q. ; Yan, X. ; Huang, B. Performance-driven distributed PCA process monitoring based on fault-
relevantvariable selection and Bayesian inference. IEEE Trans. Ind. Electr. 2016, 63, 377-386. [CrossRef]
13. Wang, T. ; Wu, H. ; Ni, M. ; Zhang, M. ; Dong, J. ; Benbouzid, M.E.H. An adaptive confidence limit for
periodicnon-steady conditions fault detection. Mechanical Syst. Signal Process. 2016, 72–73, 328–345.
[CrossRef]
14. Yu, J. Évaluation de la dégradation des performances des roulements à l'aide de projections préservant la
localité et de modèles de mélange gaussien. Mechanical Syst. Signal Process. 2011, 25, 2573–2588.
[CrossRef]
15. Ge, Z. ; Song, Z. A distribution-free method for process monitoring. Expert Syst. Appl. 2011, 38, 9821-9829.
Information 2019, 10, 116 18sur 13
[CrossRef]
Information 2019, 10, 116 19sur 13

16. Zhang, Y. ; An, J. ; Ma, C. Fault detection of non-Gaussian processes based on model migration. IEEE Trans.
Control Syst. Tech. 2013, 21, 1517–1526. [CrossRef]
17. Arnaut, L. ; Obiekezie, C. Comparaison des composantes principales et indépendantes complexes pour les
émissions radiées quasi-gaussiennes des cartes de circuits imprimés. IEEE Trans. Electromag. Compat.
2014, 56, 1598–1603. [CrossRef]
18. Javidi, S. ; Took, C. ; Mandic, D. Fast independent component analysis algorithm for quaternion valued
signals. IEEE Trans. Neural Netw. 2011, 22, 1967-1978. [CrossRef] [PubMed]
19. Peng, K. ; Zhang, K. ; He, X. ; Li, G. ; Yang, X. Nouvelle approche de surveillance de processus basée sur l'analyse
indépendante du noyau et l'analyse en composantes principales avec application au processus de laminoir à
bandes à chaud. IET Control Theory Appl. 2014, 8, 1723-1731. [CrossRef]
20. Papaioannou, A. ; Zafeiriou, S. Analyse en composantes principales avec noyau complexe : Le modèle
largement linéaire.
IEEE Trans. Neural Netw. Learn. Syst. 2014, 25, 1719–1726. [CrossRef]
21. Mehrabian, H. ; Chopra, R. ; Martel, A. Calcul du signal intravasculaire en IRM dynamique avec
renforcement du contraste à l'aide d'une analyse complexe adaptative en composantes indépendantes.
IEEE Trans. Medical Imag. 2013, 32, 699–710. [CrossRef] [PubMed]
22. Schölkopf, B. ; Smola, A.J. Learning with Kernels ; MIT Press : Cambridge, MA, USA, 2002.
23. Schölkopf, B. ; Smola, A. ; Müller, K. Kernel principal component analysis. Adv. Kernel Methods - Support
Vector Learn. 2003, 27, 555–559.
24. Li, D. ; Liu, C. Extending attribute information for small data set classification. IEEE Trans. Knowledge
Data Eng. 2012, 24, 452-464. [CrossRef]
25. Ni, J. ; Zhang, C. ; Yang, S. Une approche adaptative basée sur KPCA et SVM pour le diagnostic en
temps réel des défauts des HVCBs. IEEE Trans. Power Deliv. 2011, 26, 1960–1971. [CrossRef]
26. Kocsor, A. ; Toth, L. Kernel-based feature extraction with a speech technology application. IEEE Trans. Signal
Process. 2004, 52, 2250–2263. [CrossRef]
27. Zhou, F. ; Park, J. ; Liu, Y. ; Wen, C. Méthode de détection de défauts dynamiques par ACP hiérarchique
basée sur des caractéristiques différentielles. Neurocomputing 2016, 202, 27-35. [CrossRef]
28. Ge, Z. Process data analytics via probabilistic latent variable models : A tutorial review. Ind. Eng. Chem. Res.
2018, 57, 12646–12661. [CrossRef]
29. Wang, Y. ; Ding, F. Algorithme d'estimation du gradient multi-innovation basé sur le filtrage et analyse des
performances pour les systèmes dynamiques non linéaires. IMA J. Appl. Math. 2017, 82, 1171–1191.
[CrossRef]
30. Li, Z. ; Kruger, U. ; Xie, L. ; Almansoori, A. ; Su, H. Adaptive KPCA Modeling of Nonlinear System. IEEE Trans.
Signal Process. 2015, 63, 2364–2376. [CrossRef]
31. Cai, L. ; Tian, X. ; Chen, S. Monitoring nonlinear and non-Gaussian processes using Gaussian mixture model-
based weighted kernel independent component analysis. IEEE Trans. Neural Netw. Learn. Syst. 2017, 28, 122–
135. [CrossRef]
32. Vapnik, V. Technologie d'apprentissage universel : Support vector machines. NEC J. Adv. Tech. 2005, 2, 137–144.
33. Wang, T. ; Qi, J. ; Xu, H. ; Wang, Y. ; Liu, L. ; Gao, D. Méthode de diagnostic des défauts basée sur FFT-RPCA-
SVM pour un onduleur en cascade à plusieurs niveaux. ISA Trans. 2016, 60, 156–163. [CrossRef] [PubMed]
34. Tax, D. ; Duin, R. Description des données des vecteurs de support. Machine Learn. 2004, 54, 45–66. [CrossRef]
35. Dong, J. ; Wang, T. ; Tang, T. ; Benbouzid, M.E.H. ; Liu, Z. ; Gao, D. Application d'une stratégie hybride KPCA-
KICA-HSSVM dans la détection de défauts de roulements. Dans les actes de l'édition 2016 de l'IEEE IPEMC
ECCE ASIA, Hefei, Chine, 22-26 mai 2016 ; pp. 1863-1867.
36. Lee, J. ; Qiu, H. ; Yu, G. ; Lin, J. Rexnord Technical Services. Bearing Data Set. IMS, Université de Cincinnati,
NASA Ames Prognostics Data Repository. 2007. Disponible en ligne : http://data-acoustics.
com/measurements/bearing-faults/bearing-4/ (consulté le 1er décembre 2018).
37. Qiu, H. ; Lee, J. ; Lin, J. ; Yu, G. Wavelet filter-based weak signature detection method and its application
onroller bearing prognostics. J. Sound Vib. 2006, 289, 1066–1090. [CrossRef]
38. Xu, X. ; Zheng, J. ; Yang, J. ; Xu, D. ; Chen, Y. Data classification using evidence reasoning rule. Knowl. Based
Syst. 2017, 116, 144–151. [CrossRef]
39. Wen, C. ; Wang, Z. ; Liu, Q. ; Alsaadi, F. Recursive distributed filtering for a class of state-saturated systems
with fading measurements and quantization effects. IEEE Trans. Syst. Man Cybern. Syst. 2018, 48, 930–941.
[CrossRef]
Information 2019, 10, 116 20sur 13

40. Wang, Y. ; Ding, F. ; Wu, M. Algorithme d'estimation récursive des paramètres pour les systèmes à erreurs de
sortie multivariées.
J. Frankl. Inst. 2018, 355, 5163-5181. [CrossRef]
41. Ge, Z. ; Liu, Y. Analytic hierarchy process based fuzzy decision fusion system for model prioritization and
process monitoring application. IEEE Trans. Ind. Inform. 2019, 15, 357–365. [CrossRef]
42. Luo, Y. ; Wang, Z. ; Wei, G. ; Alsaadi, F. Non-fragile fault estimation for Markovian jump 2-D systems with
specified power bounds. IEEE Trans. Syst. Man Cybern. Syst. 2018. [CrossRef]

© 2019 par les auteurs. Titulaire de la licence MDPI, Bâle, Suisse. Cet article est un article
en accès libre distribué selon les termes et conditions de la licence Creative Commons
Attribution (CC BY) (http://creativecommons.org/licenses/by/4.0/).

Vous aimerez peut-être aussi