Vous êtes sur la page 1sur 49

Chapitre 1

Les rseaux de neurones


I .1 Gnralits
La technique des rseaux de neurones applique aux problmes de diagnostic
industriel a attir beaucoup dattention ces dernires annes. La littrature abonde sur
son application dans ce domaine et des tudes ont montr que les rseaux de
neurones artificiels sont une bonne technique de classification [25].
Les rseaux de neurones artificiels sont un modle du neurone biologique dont
il ne retiennent quune vision fort simplifie.

I.2 Le neurone biologique


I.2.1 Prsentation du neurone biologique
Le cerveau humain contient trois couches successives :
le cerveau reptilien, sige des rflexes instinctifs ;
lhippocampe, sige de lmotivit et de la sensibilit ;
le cortex, spcifique aux mammifres et sige du raisonnement et de la pense.
Dans chacune de ces couches on trouve deux types de cellules : les gliales et les
neurones [8].
Tous les neurones sont constitus de 3 parties (figure 1.1)

dendrites

Noyau

Corps cellulaire

axone

Synapses

F IG. 1.1 Le neurone biologique


le corps proprement dit de la cellule o se situe le mcanisme de
dclenche- ment du neurone ;
son prolongement laxone (qui peut atteindre plusieurs dizaines de centimtres) le long duquel voyagent les impulsions nerveuses diriges vers la
priphrie et de minces ramifications ;
les dendrites, qui reoivent des informations (impulsions nerveuses) des
autres neurones et les apportent vers le corps cellulaire.
Le corps cellulaire, appel aussi soma, constitue llment principal du
neurone. Il contient le noyau cellulaire renfermant lui-mme le gnome, cest dire
linforma- tion gntique de lorganisme dont le neurone est issu.
Laxone est le prolongement cellulaire principal et cest grce lui que le neurone va transmettre les informations. A son extrmit se trouve larborisation terminale o se trouve un nombre plus ou moins important de terminaisons synaptiques
et qui est le ple metteur de la cellule.
Les dendrites reprsentent le deuxime type de prolongement cellulaire et se
trouvent en grande quantit autour du soma, cest pourquoi on parle souvent darborisation dendritique. Les dendrites constituent le ple rcepteur de la cellule

et
2

cest cet endroit que vont se faire les connexions avec les autres neurones.
Les neurones sont interconnects entre eux par des synapses qui sont des jonctions entre deux neurones.

I.2.2 Fonctionnement
Les axones sont recouverts de cellules, dites cellules de Schwann. Lorsque ces
cellules senroulent autour de laxone, il se forme un revtement appel gain mylinique qui prsente des points dcouverts ou noeuds de Ranvier.
Limpulsion nerveuse voyage par saut dun noeud de Ranvier un autre
une vitesse denviron 200 m/s. Quand laxone dun neurone rencontre un autre
neurone, le contact stablit par lintermdiaire du synapse. Le synapse est une
sorte de bulbe. Entre la surface du bulbe (bouton terminal) et celle du nouveau
neurone, se trouve un espace dit espace synaptique. Pour que limpulsion
nerveuse qui est un signal de na- ture lectrique, puisse franchir cet espace, des
substances lectrochimiques entre en action, les neurotransmetteurs. Le
processus de communication entre les neurones se fait donc par voie
lectrochimique aux niveaux des synapses par des neurotransmet- teurs. Laction
des neurotransmetteurs est extrmement brve pour empcher que la stimulation
nerveuse ne se prolonge au-del du temps ncessaire au transfert de limpulsion
nerveuse.
De nombreuses thories dcrivent les mcanismes dexcitation et de rponse
des neurones. La thorie lectrique sur laquelle se base les rseaux de neurones
artifi- ciels considre la jonction synaptique comme le lieu o le neurone peroit un
stimulus par voie lectrochimique. La membrane synaptique lorsquelle ne reoit
pas dexci- tation, est polaris une tension denvirons 60 mV. A lapparition
dexcitations qui se traduisent au niveau du noyau cellulaire par une tension
suprieur un seuil, le neurone est alors activ et cela dclenche un processus de
dpolarisation : le neurone met sur laxone une tension positive denvirons +60
mV en se comportant comme un systme non linaire.
Cest sur base du neurone biologique que les pres du calcul connexionniste
ont conu le neurone artificiel, voyons-en dabord lhistorique.
3

I .3 Historique
Dans la priode de 1940 1956, les sciences et techniques de la cognition
slabo- rrent peu peu et lancienne cyberntique donna naissance aux sciences
cognitives.
Lapparition des rseaux de neurones artificiels sinscrit compltement dans
cette gense des sciences cognitives, et les origines dans la volont de modliser, de
faon mathmatique, les neurones biologiques.
Le premier modle fut propos par Mac Culloch et Pitts en 1943 : cest le neurone de Mc Cullosch-Pitts ou automate seuil [28]. Quelques annes aprs, en
1949,

le

neurophysicien

Hebb

propose

une

formulation

du

mcanisme

dapprentissage sous forme dune rgle de modification des connexions synaptiques


(rgle de Hebb). Cette rgle, base sur des donnes biologiques, modlise le fait que
si des neurones, de part et dautre dun synapse, sont activs de faon synchrone et
rpte, la force de connexion synaptique va aller croissant.
Les rsultats de ces travaux ont t lorigine de modles connexionnistes de
plus en plus labors. En 1958 apparat, proprement dit, le premier rseau de neurones artificiels grce aux travaux de Frank Rosenblatt qui conoit le Perceptron. Le
Perceptron modlise les facults de reconnaissance de forme du systme visuel. Il
possde une couche de neurones dentre ("perceptive") ainsi quune couche de
neu- rones de sortie ("dcisionnelle"). En parallle vers les annes 60 Widrow met
au point lAdaline (Adaptative Linear Neuron) et le Madaline. Cette tape sera
suivie dune priode morte par suite des travaux de Minsky et Papert qui ont montr
que le mo- dle du Perceptron ne prsentait aucun intrt cause de son incapacit
de rsoudre le problme du ou exclusif.
Il faudra attendre les travaux des chercheurs comme Hopfield pour revoir un
regain dintrt aux rseaux de neurones.

I.4 Le rseau de neurones formels


Le neurone artificiel, encore appel neurode, noeud ou unit neuronale, est une
4

modlisation mathmatique du neurone biologique. Il en reprend les grands prin-

cipes de fonctionnement, notamment la sommation des entres. Les rseaux de neurones artificiels sont inspirs du systme nerveux. Ils sont constitus de neurones
interconnects entre eux.
Chaque neurone reoit en entre des informations venant de plusieurs
neurones travers les connexions synaptiques. Chacune de ces entres est pondre
par une valeur w, dite poids synaptique. Les valeurs ainsi pondres sont ensuite
sommes avant de passer en argument une fonction f appele fonction
dactivation ou fonc- tion de transfert. Les valeurs des poids synaptiques sont
dtermines a la suite dun processus dapprentissage au cours duquel le neurone
ajuste ses forces de connexion afin dobtenir une sortie dsire.

I.5
Modlisation mathmatique du rseau de
neurones
Dans cette section nous nous proposons de prsenter la modlisation du neurone et celle des rseaux de neurones artificiels. Nous noterons les grandeurs vectorielles et les matrices par des lettres en gras et les grandeurs scalaires par des lettres
en italiques.

I.5.1 Le neurone simple


Par neurone simple nous entendons un neurone auquel nest transmis en entre
quune seule valeur scalaire p [29]. Cette valeur est multiplie dans la connexion
par
p

b
1
a=f(wp)

a=f(wp+b)
6

F IG . 1.2 Le neurone formel simple sans biais ( gauche) et avec biais ( droite)

le poids w, pour former le produit wp qui est aussi un scalaire. Le neurone peut avoir
ou non un biais b (figure 1.2). Sil y a un biais, celui-ci sera somm la valeur pondre
wp avant de passer en argument au niveau de la fonction dactivation f. Largument
f est n = wp + b et la valeur a que retourne la fonction f

de

est la sortie du neurone.

On aura donc
a=f(wp+b)

(1.1)

Le biais b peut tre vu comme un dcalage de la fonction f. Il peut tout aussi


bien tre apprhend comme un poids synaptique qui sapplique une entre
unitaire. Les valeurs w et b sont des paramtres scalaires ajustables de ce neurone
simple. Lide centrale est de faire prsenter au neurone un comportement dsir par
le seul ajustement des paramtres w et b. On peut ainsi donc entraner un rseau de
plusieurs neurones interconnects excuter une tche particulire en ajustant ces
paramtres ou en laissant le rseau les ajuster seul.

I.5.2 Les fonctions dactivation


Les fonctions dactivation sont de nature trs varies : elle peuvent tre dterministes, continues, discontinues ou alatoires [29]. Les fonctions les plus utilises
sont :
1. la fonction seuil de Heaviside ;
2. la fonction sigmode de type Log ;
3. la fonction sigmode de type tangente hyperbolique ;
4. la fonction linaire sans saturation ;
5. la fonction linaire seuil ou saturation.

I.5.3 Le neurone entre vectorielle


Contrairement au neurone simple prsent prcdemment, lentre du neurone
peut tre un vecteur de dimension R (figure 1.5).
p = {p1, p2, , pR}

(1.2)

Fonction seuil de Heaviside


1
0.9
0.8
0.7

0.6
0.5
0.4
0.3
0.2
0.1
0
10

0
x

10

FIG. 1.3 Fonction seuil de Heaviside

y=tansig(x)

y = logsig(x)

0.9

0.8

0.8

0.6

0.7

0.4

0.6

0.2

0.5

0.4

0.2

0.3

0.4

0.2

0.6

0.1

0.8

0
10

1
10
8

0
x

10

FIG. 1.4 Fonctions sigmode log et tan

0
x

10

Chaque entre individuelle pi est multiplie par le poids w1,i, lindice 1 dans le
poids indiquant le neurone auquel sont transmises ces entres. La somme des
valeurs pon- dres est le produit scalaire des vecteurs W et p.
Avec W donn par
W = {w1,1, w1,2, , w1,R}

(1.3)

Largument n de la fonction dactivation f est

n = w1,1p1 + w1,2p2 + + w1,RpR + b

(1.4)

n = Wp + b

(1.5)

ou vectoriellement

et la sortie du neurone a sera videmment calcule par a = f (n).

p1

p2
w
1

p3

w3w

a
a=f(n)

p4
w4
wR
pR

FIG. 1.5 Neurone entre vectorielle

I.5.4 Couche de neurone


Nous inspirant du neurone prsent ci-haut, nous pouvons dfinir une couche
comme lespace o lon trouve les poids synaptiques et le biais, o seffectue les

oprations daddition et de multiplication, et o finalement la fonction dactivation


prend en argument la somme des entres pondres augmente du biais. Les entres
ne sont pas comptes dans une couche.
En gnralisant larchitecture par combinaison de plusieurs neurones dans une
couche et en considrant plusieurs couches disposes les unes aprs les autres, nous
obtenons ce quon appelle rseau de neurones. Une couche sera donc caractrise
par le nombre S de ses neurones, un vecteur biais b de dimension S, une matrice
W des poids synaptiques et une srie de S fonctions dactivation identiques ou non
pour chaque neurone. La matrice W est une matrice de dimension S R, R tant
le nombre dentres pour la couche considre ou la dimension du vecteur dentre
p.

w1 w1
w

,1
,2
1,
(1.6)

W =

w. 2
.
2
w
.
.
.
.
.

w
w
w.

S,
S,
S,
Le premier indice (indice de ligne) des lments de la matrice W indique le neurone auquel le synapse aboutit, et lindice de colonne lorigine du synapse.
Ainsi, par exemple, w1,2 est la force du signal provenant du second lment
dentre et destin au premier neurone. Il faudra faire une distinction entre la
matrice de poids connects aux entres et les matrices de poids de connexion
entre couches. Pour cela convenons dappeler IW (Input weights) la matrice de
poids dentre et LWj,i (Layer weights), la matrice de connexion entre la couche
j et la couche i. La couche de depart est i et celle de destination j.
La figure 1.6 illustre un rseau de neurones trois couches et Si neurones
dans la couche i. Dans cet exemple, toutes les fonctions dactivation dune couche
sont identiques. La sortie ai dune couche i est un vecteur dont les composantes sont
.
aii = ai , ai , ,
(1.7)
a
1

I.5.5 Erreur de sortie

Si .

Dune manire gnrale, la sortie a du rseau de neurones est compare une


sortie attendue t appele "cible". Lcart entre la sortie obtenue et la sortie attendue
est

Entre

Couche 1

Couche 2

f1

Sortie

Couche 3

f2

Sortie1
p1

b1
1

f1

p2

f2

Sortie2

b1
1

pR

f1

f2

b1
1

s1neurones

Sortie3

s2neurones

s3neurones

F IG. 1.6 Rseau de neurones multicouche


reprsente par une fonction derreur dont la dfinition dpend du type de
problme. Lerreur est fonction des valeurs des poids synaptiques et des biais. La
fonction der- reur la plus utilise est la "moyenne des carrs de l erreur" (mse :
mean squared error).
Si lon dispose de m exemples de vecteurs dentre xq (q = 1 m) auxquels on
associe m vecteurs de sortie attendus tq (q = 1 m), la fonction derreur "mse" est
dfinie comme suit :
1
mse(W) =
m

m
.

(tq aq )2

(1.8)

q=1

I.6 Classification des rseaux de neurones


Il serait prtentieux pour nous de vouloir dresser une classification complte
des rseaux de neurones, cela dpasserait le cadre de ce travail. Il existe diffrentes
faons de classer les rseaux de neurones selon les critres choisis, tels que : type
dapprentissage, architecture des connexions, forme pour traiter et reprsenter les
donnes, etc. Pour notre part, nous estimons quune brve classification simpose

pour mieux comprendre les avantages et les inconvnients dun choix darchitecture
ou dalgorithme par rapport un autre.

I.6.1 Types dapprentissage


En fonction des influences venant des entres et leurs poids respectifs, la fonction de transfert dun neurone en dtermine lactivation. Les changements apports
aux poids synaptiques de la structure du rseau sont responsables des changements
de comportement. Le rseau peut ainsi tre capable dassocier des stimulis aux rponses afin de bien rsoudre un problme. La mthode utilise pour modifier le
comportement dun rseau de neurones est la rgle dapprentissage. Les rseaux de
neurones ont donc la capacit dapprendre des rgles partir des exemples, et sur
base des rgles apprises, certains rseaux peuvent faire une gnralisation. La gnralisation est la capacit du rseau ragir correctement lorsquon lui prsente des
entres non vues au cours des sances dapprentissage. Lapprentissage est un processus itratif au cours duquel les poids sont modifis plusieurs fois avant
datteindre leurs valeurs finales [4].
On distingue trois types principaux dapprentissage :
Apprentissage supervis : lutilisateur dispose dun comportement de rfrence
pr- cis quil dsire faire apprendre au rseau. Les poids synaptiques sont
dtermi- ns partir dexemples tiquets de formes auquel ont t
associes des r- ponses dsires galement tiquetes (cibles). Pendant
lapprentissage les poids sont ajusts dans le sens de minimiser lcart entre
les cibles et les sorties calcu- les. Ce processus peut prendre un grand
nombre ditrations avant de conver- ger, parce que certaines rgles
dapprentissage (telle que la rtropropagation du gradient) peuvent
converger vers des minima locaux sur la surface derreur [11] (figure1.7).
Apprentissage semi-supervis : lutilisateur ne dispose que des indications
impr- cises (par exemple, chec/succs du rseau) sur le comportement final
dsir. Ces techniques dapprentissage sont aussi appeles apprentissage par
renforce- ment (reinforcement learning).

Erreur( W)
W*:minimum absolu
W1 et W2 : minima locaux

W1

W2

W*

Matrice poids W

FIG. 1.7 La surface "Erreur" en fonction de la matrice des poids


Apprentissage non-supervis : ce processus dapprentissage est beaucoup
utilis dans des problmes de classification o les cibles sont non connues a
priori. Le systme essaie alors de gnrer un ensemble unique de poids pour
une classe particulire dobjets. Lobjectif de lapprentissage non-supervis est
dajuster les poids de manire autonome jusqu lquilibre cest--dire
jusqu ce quau- cune modification des poids ne soit ncessaire.
Lapprentissage non-supervis associe donc une classe dobjets une classe de
poids. Les comportements r- sultant de ces apprentissages sont appels autoorganisation (Self-Organization). Les exemples typiques des rseaux de
neurones apprentissage non-supervis sont les rseaux de Hopfield, les
mmoires associatives et les rseaux cogni- tifs [5].
Gnralement, lapprentissage dun rseau de neurones demande une grande
quantit

de

donnes

que

lon

regroupe

dans

un

ensemble

dexemples

dapprentissage. Il est souvent utile de disposer dautres ensembles de donnes pour


tester la validit du comportement appris par le rseau neuronal. Ces ensembles sont
appels ensembles dexemples de test ou de gnralisation. Cest surtout les
capacits de gnralisation dun rseau de neurones qui dterminent son efficacit
en pratique.

Il peut arriver quun rseau de neurones se spcialise trop un ensemble de


donnes dapprentissage. Dans ce cas on parle dapprentissage par coeur ou surap-

prentissage (overfitting), qui a pour consquence une mauvaise gnralisation. Pour


viter ce type de problme, une faon pratique consiste partitionner les donnes en
trois ensembles : le premier pour lapprentissage, le second pour la validation et le
troisime pour le test. Il arrive souvent que lon ne constitue que deux ensembles :
ap- prentissage et test. Lensemble de test permet de contrler lerreur de
gnralisation et de dterminer le bon moment pour arrter le processus
dapprentissage. La figure
1.8 illustre lvolution de lerreur en fonction du nombre ditrations ou poques,
au-dl dune certaine limite lerreur de gnralisation se met crotre.
Le phnomne de surapprentissage peut aussi tre vit en utilisant lors de
len- tranement des sries de donnes diffremment bruites. De cette manire, le
risque de mmorisation des exemples par le rseau de neurones est presque nul.
Erreur de sortie

Point optimum

test

apprentissage
Nombre dpoques

F IG. 1.8 Erreur dans lensemble dapprentissage et de test


Selon la manire dont les donnes dapprentissage sont prsentes au rseau de
neurones on peut parler de :
Apprentissage instantan au cours duquel lensemble des donnes
dapprentis-

sage est analys en une seule fois et les poids synaptiques ajusts dun seul

coup. On ne fait donc quun seul passage sur les donnes, ce mode est aussi
appel one-shot-learning et nest pas trs utilis.
Apprentissage incrmental ou continu : les poids du rseau sont ajusts chaque
passage sur une entre cest--dire que lalgorithme prend en compte continuellement les exemples qui lui arrivent (continuous /on-line learning). Les
exemples sont alors prsents squentiellement [29].
Apprentissage par lots (paquets) : dans ce type dapprentissage les poids
synap- tiques ne sont ajusts quaprs prsentation de tous les exemples. On
effectue souvent plusieurs prsentations de faon optimiser les poids et
rduire lerreur en sortie. Chaque prsentation de lensemble complet des
donnes dapprentissage est appele poque (epoch) [4]. Lordre des
exemples de len- semble dapprentissage peut aussi tre manipul, ce qui
peut avoir une in- fluence sur lvolution de lapprentissage. Ce type
dapprentissage est le plus utilis et est aussi connu sous le nom de batch
training ou batch learning.
Les rgles dapprentissage les plus utilises sont ( [5] [4] [8]) :
les mthodes de correction de lerreur, telles que la descente de gradient sur
une surface : Adaline, Madaline, Rtro-propagation du gradient, CascadeCorrelation, CMAC (Cerebellar model articulation controller) ;
les mthodes dapprentissage par renforcement ;
les mthodes dapprentissage par comptition ou par auto-organisation : Kohonen feature Map, ART ;
les mthodes dapprentissage par cration de prototypes ou de noyaux : RBF
;
les mthodes dapprentissage bases sur des mmoires associatives (autoassociatives ou htro-associatives) : modles de Hopfield, ... ;
les mthodes dapprentissage temporel (rseaux rcurrents).
Ces mthodes ont largement t utilises dans la dtection des dfauts mcaniques.

I.6.2 Types darchitecture


Outre le fait que les units neuronales peuvent diffrer selon le type de fonction
dactivation, leur mode de connexion, leur architecture peuvent varier.

Les architectures les plus importantes sont :

rseaux seule couche : les neurones sont tous sur le mme niveau et
direc- tement connects aux entres. Les connexions latrales peuvent y
tre aussi organises. Un exemple typique est le Kohonen Feature Map.
rseaux couches unidirectionnels (feedforward) : On y a plusieurs
couches, chaque unit dune couche reoit ses entres de la couche
prcdente et en- voie ses sorties vers la couche suivante ;
rseaux rcurrents : ils peuvent avoir une ou plusieurs couches avec la
par- ticularit de possibilit de connexion au sein dune couche ou en
boucle vers une couche infrieure. Ce type darchitecture permet la
modlisation des com- portements dynamiques. Le rseau de Hopfield est
un exemple de rseau r- current.

I.7

Synthse
Nous avons, dans ce chapitre, touch lhistorique, aux types et aux

architec- tures des rseaux de neurones artificiels aprs en avoir montr le lien
avec le rseau de neurones biologiques. Pour une application pratique, il est
toujours

invitable de se questionner sur ce que doit tre lalimentation du

rseau de neurones pour sassurer des rsultats satisfaisants. Dans notre cas o
les donnes danalyse vibra- toires sont utilises pour la classification, il faut
oprer un choix sur les indicateurs fournir au rseau. Le chapitre qui suit
discute des diffrentes manires possibles de construire les entres dun rseau de
neurones partir de lanalyse vibratoire.

Chapitre 2
II Diagnostic de dfaillances d'un
moteur asynchrone
II.1 Introduction
L'objet de cette tude concerne le dveloppement d'un outil d'aide au diagnostic de la
machine asynchrone, devenue de plus en plus prsente dans les applications
industrielles. En effet, ce type de moteur est trs robuste, son cot est faible et il peut
atteindre de hautes performances grce au dveloppement de composants lectroniques
permettant la mise en place de loi de commandes sophistiques. Nanmoins, en cas de
dfaillance du moteur, ces algorithmes peuvent devenir compltement inefficaces, voire
dangereux pour linstallation. Cest pourquoi, il est important de contrler tout instant
ltat de la machine et de mettre en place des systmes de maintenance prventive pour
vrifier son bon fonctionnement.
Le problme de la surveillance de ces machines fait lobjet de nombreuses recherches
[COMB 02][THOM 99]. Lun des axes principaux est la recherche de modles
principalement des modles du fonctionnement dfaillant de la machine asynchrone, de
manire pouvoir non seulement dtecter une dfaillance, mais aussi lidentifier et la
localiser de manire pouvoir appliquer les techniques internes de diagnostic
[CHAN 02].

Cependant, la diversit des conditions relles de fonctionnement et la drive des


modles internes par rapport ces conditions rendent ces techniques souvent
difficilement

applicables.

Nous avons dcid de faire abstraction de lobtention de ce modle et de mettre alors


en uvre des techniques de diagnostic externes base de rseaux de neurones. Pour
cette tude, nous avons travaill en collaboration avec le laboratoire CERTES (Centre
dEtudes et

de Recherche en Thermique, Environnement et Systmes). Cest cette

quipe, experte en mcanique, qui a constitu la base de donnes, partir dun moteur
asynchrone prsent sur un banc dessai pour ltude des vibrations. Les travaux mens
par cette quipe concernent le dveloppement doutils pour la maintenance prventive de
ce type de machine, mais dun point de vue traitement du signal. Il nest cependant pas
exclu que nos travaux convergent [BARR 03] pour mettre en uvre la technique hybride
prsente au chapitre I.3, et dont les premiers rsultats de mise en uvre seront prsents
au chapitre suivant.

II.2 Construction de la base de donnes


Le CERTES dispose dun banc dessai permettant de simuler un certain nombre de
dysfonctionnements mcaniques (figure II.8)

Figure II. 8 - Banc d'essai

Ce banc est compos des lments suivants :

Un moteur asynchrone dune puissance de 1,5kW

Un rducteur engrenages

Une pompe centrifuge (non reprsente sur la photo)

Un roulement billes reli au moteur par accouplement lastique

Le banc dessai est aliment par un variateur de courant qui permet de faire varier la
vitesse de 0 1500Tr/min (0 25Hz).
Sur ce banc dessai sont placs diffrents capteurs qui permettent dobtenir diffrentes
informations sur le fonctionnement du moteur. On trouve ainsi :

Un acclromtre qui permet de mesurer lacclration du rotor du moteur

Une sonde de courant pour mesurer lintensit de lalimentation du moteur

Un capteur de position qui permet de savoir quand le moteur a effectu un tour. A


chaque tour du rotor lentre du moteur, un rflecteur de lumire passera devant
un capteur qui signalera un tour du rotor. Nous lappellerons par la suite Top
Tour

Plusieurs dispositifs permettent de simuler des dfauts frquemment rencontrs en


milieu industriel, tels que :

Ecaillage de la bague extrieure dun roulement

Balourd (dsquilibre dynamique)

Dfaut dalignement du moteur

Cavitation dans la pompe

Tous ces dfauts possdent des signatures vibratoires quon peut identifier sparment
si toutes les caractristiques des diffrents lments sont parfaitement connues
(frquences de dfauts de roulement, vitesses de rotation). Toutefois, les effets des
dfauts se cumulent le plus souvent et les vibrations peuvent exciter les frquences
propres des lments du

banc.

Nous nous sommes focaliss sur la recherche et la dtection de deux types de dfauts :
les dfauts de roulement et les balourds. Les roulements billes sont, sans doute, les
organes

les plus sensibles sur une machine. Daprs une tude mene par la socit

SKS, 27% des dfauts de roulement ont pour origine des maladresses de montage. On
imagine donc aisment lintrt davoir remplacer le moins souvent possible
et donc, dviter les

dmontages systmatiques en optant pour une stratgie de surveillance approprie. Dans


la plupart des cas, la dgradation se traduit par un caillage dune des pistes dun
lment du roulement, provoquant un choc chaque passage. Dans le cadre de notre
simulation, le dfaut de roulement est provoqu en serrant une vis. La bague extrieure
sera donc enfonce localement et, chaque passage dune bille sur ce dfaut, un choc
apparatra.
Chaque lment d'un ensemble tournant peut comprendre une diffrence de rpartition
de masse. La conjugaison des diffrences de masse cre un balourd rsultant de
l'ensemble tournant. Pour simuler lapparition dun balourd sur le banc dessai dont nous
disposons, nous pouvons placer sur le rotor, une petite masse de poids variable de faon
pouvoir simuler plusieurs niveaux de balourd.
Comme mentionn prcdemment, plusieurs informations

sont

disponibles.

Les

signaux que nous avons choisi dexploiter sont ceux issus de lacclromtre. Les
informations provenant du Top Tour ont aussi t considres pour la construction de
la

base de donnes.

Nous avons dcid de travailler, dans un premier temps, frquence de rotation fixe
du moteur. Nous nous sommes tout dabord focaliss sur la dtection de dfauts dun
niveau donn (serrage constant de la vis dans le cas de la simulation d'un dfaut de
balourd, et masse de poids constant place sur le rotor pour la simulation du balourd).
Plusieurs bases de donnes ont t labores pour la mise en uvre des techniques
neuronales pour la dtection

de dfaillance dun moteur. Les signaux fournis par le

laboratoire CERTES comprennent plusieurs priodes (plusieurs tours de rotation du


moteur) pour un mode de fonctionnement donn. Nous avons dcid de travailler sur une
priode (i.e. un tour de moteur). Les signaux ainsi dfinis ont alors t obtenus de
diffrentes manires : soit on se calle sur le signal du

Top Tour, cest--dire que

lorigine de tous les signaux de la base de donnes correspond la mme position du


moteur, et on prend ensuite le nombre dchantillons ncessaires pour que

le signal

obtenu corresponde une priode (992 dans notre cas), soit, on travaille avec une fentre
glissante. Dans ce dernier cas, la base de donnes est ainsi construite : le premier
signal extrait du fichier comprend les 992 premiers points du fichier. Puis, on dcale
lorigine de 100 chantillons, et on construit le second signal en prenant les 992 points
suivants, ainsi

de suite jusqu puisement du fichier.

Le tableau II.5 rcapitule les diffrentes bases de donnes labores, pour trois
catgories : balourd, dfaut de roulement et fonctionnement normal.
Base dapprentissage

Base de gnralisation

Signaux cals sur

Signaux cals sur

le Top
Tour
(64 vecteurs par classe, soit 192

Base de
donne
s1

vecteurs au total)

(128 vecteurs par classe, soit


384
vecteurs au total)

Signaux cals sur

Signaux Fentre

le Top
Tour
(60 vecteurs par classe, soit 180

Base de
donne
s2

donne
s3

glissante

vecteurs au total)

(318 vecteurs par classe soit


954
vecteurs au total)

Signaux Fentre

Signaux Fentre

glissante

(22 vecteurs par classe, soit 66

Base de

le Top Tour

vecteurs au total)

glissante
(318 vecteurs par classe, soit
954
vecteurs au total)

Tableau II. 5 - Rcapitulatif des diffrentes bases de donnes

Nous nous sommes aussi intresss la dtection de lapparition progressive dun


dfaut de roulement. Pour cette tude, la base de donnes a t construite de la
manire suivante :

Base dapprentissage : nous disposons d'un ensemble de fichiers correspondant


quatre diffrents niveaux de dfauts (serrage de la vis sur le roulement plus
ou moins fort) ainsi qu' un fonctionnement normal. Nous avons extrait de ces
fichiers les signaux qui constituent alors notre base dapprentissage

Base de gnralisation : nous disposons d'une mesure simulant un


fonctionnement avec apparition progressive dun dfaut de roulement. Ce
signal nous permet d'effectuer la phase de gnralisation.

Comme dans le cas de lapproche bio-mdicale, les diffrentes bases de donnes ont
t utilises pour la mise en uvre de deux rseaux de neurones artificiels : le rseau
LVQ et

le rseau RBF. Loptimisation de ces rseaux ainsi que les rsultats obtenus

sont prsents

dans la partie suivante.

II.3 Aide au diagnostic par techniques


neuronales
II.3.1 Exploitation de la base de donnes 1
II.3.1.1 Rseau Learning Vector Quantization
a) Optimisation de la structure du rseau
Le nombre de neurones de la couche d'entre correspond au nombre

de

composantes des vecteurs d'entre, soit 992 neurones. Le nombre de sorties correspond
quant lui au nombre de classes que l'on souhaite obtenir. On souhaite classer les
vecteurs d'entre dans 3 catgories. Ainsi, le rseau LVQ comprendra 3 neurones de
sortie.
Le nombre de neurones dans la couche cache est un des paramtres ajuster
pour ce modle. Comme mentionn prcdemment, le choix du nombre de neurones
cachs est un problme dlicat.
Erreurs commises
Rseau LVQ - Base de donnes 1

80

Nombre d'erreurs commises

Classe "Balourd"
Classe "Dfaut de Roulement" Classe Normale
70
Rsultats Globaux
60

50

40

30

20

10

15

25

35

45

55

65

75

85

95

100

Nombre de Neurones dans la couche cache

Figure II. 9 - Evolution du nombre d'erreurs en fonction du nombre de neurones dans la couche cache
du rseau LVQ pour la base de donnes 1

Nous avons donc men une tude en faisant varier le nombre de neurones dans la
couche cache du rseau LVQ de 6 100. Les rsultats de l'volution du nombre
d'erreurs en

phase de gnralisation en fonction du nombre de neurones sont reprsents par la figure


II.9. On peut remarquer qu'on obtient les meilleures performances soit, un taux de
classification correcte de 95,4% - pour un nombre de neurones dans la couche cache
gal 9.

b) Rsultats obtenus
A partir des rsultats prcdents, nous avons donc mis en uvre le rseau LVQ
ainsi optimis. Le nombre de neurones cachs slve alors 9 neurones. Les rsultats
obtenus sont prsents dans le tableau II.6.
On peut noter que la base dapprentissage a t correctement apprise. Tous les
vecteurs appris sont correctement classs lors de la phase de gnralisation. Ainsi, le
taux de classification correcte obtenu grce cette structure est de 95,4% pour la
globalit de la base

de donnes avec un taux de classification correcte de :

95,2% pour la classe normale,

97,5% pour la classe Balourd,

93,5% pour la classe Dfaut de Roulement.

Classe
Relle
Classe donne
Par le Normal
RBF

Normal

Balourd

118

6
2

Balourd

117

Dfaut de
Roulement

Dfaut de
Roulement

116

Tableau II. 6 - Rsultats de classification par le rseau LVQ (Base de Donnes 1)

II.3.1.2 Rseau Radial Basis Function


Tout comme le rseau LVQ, les nombres de neurones des couches d'entre et de
sortie sont dtermins par le problme traiter. Ainsi, le rseau comprendra autant de
neurones en entre que de composantes des vecteurs d'entre (992 dans notre cas).

Nous avons choisi de coder les classes comme pour le LVQ (manire
disjonctive : 1 neurone par classe dsire). Le rseau RBF comprend donc 3 neurones en
sortie.

Comme nous l'avons dj mentionn, contrairement au LVQ, le nombre de neurones


de la couche cache du RBF est dtermin par apprentissage. Pour le modle que nous
utilisons, le rayon de la zone d'influence est fixe.
Nous avons tudi, dans chacun des cas, l'impact de la taille de la zone d'influence des
neurones. Pour cela, nous avons fait varier le paramtre sc de 1 100 avec un pas de 1
pour la classification des signaux issus de lacclromtre. L'apprentissage s'arrte
quand le nombre

de neurones cachs atteint le nombre de vecteurs de la base

d'apprentissage ou que l'erreur commise atteint un seuil fix par l'utilisateur. Les
rsultats obtenus en phase de gnralisation sont prsents la figure II.10.
Nombre d'erreurs Commises
Rseau RBF - Base de donnes 1
Classe"Balourd"
Classe "Dfaut de Roulement
Classe Normale Rsultats Globaux

Nombre d'erreurs commises

10

20

30

40

50

60

70

80

90

100

Valeur du Rayon de la zone d'influence (Paramtre Sc)

Figure II. 10 - Evolution de l'erreur commise en fonction du paramtre sc (base de donnes 1)

On peut remarquer alors que, si le paramtre sc est gal 5, 6 ou 7, le rseau ne


commet aucune erreur. Le taux de classification atteint donc les 100% pour chacune
des classes
Compte tenu des taux de classification particulirement levs, nous avons dcid de
faire abstraction du Top Tour, au moins dans un premier temps pour la base de

gnralisation. Le but de cette deuxime simulation est de permettre un utilisateur


final de ne pas se soucier

de la position du rotor lors de lacquisition des signaux de test de la machine. De plus,


considrant les rsultats obtenus prcdemment, seul le rseau RBF a t mis en uvre
pour la base de donnes 2. Nous avons donc mis en uvre ce rseau, en lui apprenant
les mmes signaux que prcdemment, mais en utilisant, pour la gnralisation, des
signaux non cals

sur le Top Tour.

II.3.2 Exploitation de la base de donnes 2 Rseau RBF


II.3.2.1 Optimisation de la structure du rseau
La dmarche est la mme que celle dcrite prcdemment. Les rsultats obtenus
sont prsents figure II.11.
Nombre d'erreurs commises
Rseau RBF - Base de donnes 2
Classe Normale Classe "Balourd"
Classe" Dfaut de roulement Rsultats Globaux

Nombre d'erreurs commises

600

500

400

300

200

100

10

15

20

25

30

35

40

45

50

Valeur du rayon de la zone d'influence (Paramtre Sc)

Figure II. 11 - Evolution de l'erreur commise en fonction du paramtre sc (base de donnes 2)

On peut remarquer alors un minimum de 352 erreurs pour une valeur de sc de 21. Il est
cependant intressant de s'intresser l'volution de l'erreur dans chacune des classes.
En effet, il peut tre utile de choisir une valeur du paramtre sc permettant d'optimiser la
classification d'une des classes, par exemple, pour l'utilisation d'un RBF dans une

structure

plus complexe. Ainsi, on pourra privilgier la reconnaissance d'une

classe par rapport une

autre et ddier ainsi le rseau en question la reconnaissance d'une des catgories de


dfaillance.

II.3.2.2 Rsultats obtenus


A partir des rsultats prcdents, nous avons mis en uvre le rseau RBF ainsi
optimis. La valeur du paramtre sc choisie est donc de 21. Les rsultats obtenus sont
prsents dans le tableau II.7.
Classe
Relle
Normal

Balourd

Dfaut de
Roulement

Classe donne
Par le Normal
RBF

181

24

Balourd

137

270

167

Dfaut de
Roulement

24

151

Tableau II. 7 - Rsultats de classification par le rseau RBF (base de donnes 2)

Ainsi, le taux de classification correcte obtenu grce cette structure est de 63,1%
pour la globalit de la base de donnes avec un taux de classification correcte de :

57,9% pour la classe normale,

84,9% pour la classe Balourd,

47,5% pour la classe Dfaut de Roulement.

On peut remarquer que les performances du rseau sont les plus leves concernant la
reconnaissance de balourds. De plus, quand le rseau se trompe sur lune des deux autres
classes, le vecteur mal class est systmatiquement catalogu comme tant un signal
caractrisant un balourd.
On peut noter que les performances se dgradent nettement. Ceci est tout fait
comprhensible puisque les signaux de la base dapprentissage sont calls sur le Top
Tour alors que les signaux de la base de gnralisation ne le sont pas. Nous avons donc
dcid dapprendre aux rseaux des informations similaires en leur apprenant des
signaux construits sur le principe de la fentre glissante.

II.3.3 Exploitation de la base de donnes 3


II.3.3.1 Rseau Learning Vector Quantization
a) Optimisation de la structure du rseau
La dmarche est la mme que celle dcrite prcdemment. Les rsultats obtenus
sont prsents figure II.12.
On peut remarquer alors un minimum de 327 erreurs pour un nombre de
neurones dans la couche cache gal 9.
Erreurs Commises
Rseau LVQ - Base de Donnes 3

600

Nombre d'erreurs commises

500

Classe Normale Classe "Balourd"


Classe "Dfaut de Roulement" Erreur Globale

400

300

200

100

10

20

30

40

50

60

70

80

90

100

Nombre de Neurones dans le Couche Cache

Figure II. 12 - Evolution de l'erreur commise en fonction du nombre de neurones cachs du LVQ (base de
donnes 3)

b) Rsultats obtenus
A partir des rsultats prcdents, nous avons donc mis en uvre le rseau LVQ
ainsi optimis. Le nombre de neurones cachs slve alors 9 neurones. Les rsultats
obtenus sont prsents dans le tableau II.8.

Classe
Relle
Normal

Balourd

Classe donne
Par le Normal
RBF

202

82

Balourd

51

198

Dfaut de
Roulement

65

38

Dfaut de
Roulement
4
2
4
9
227

Tableau II. 8 - Rsultats de classification par le rseau LVQ (Base de Donnes 3)

On peut noter que la base dapprentissage a t correctement apprise. Tous les


vecteurs appris sont correctement classs lors de la phase de gnralisation. Ainsi, le
taux de classification correcte obtenu grce cette structure est de 65,7% pour la
globalit de la base

de donnes avec un taux de classification correcte de :

63,5% pour la classe normale,

62,3% pour la classe Balourd,

71,4% pour la classe Dfaut de Roulement.

II.3.3.2 Rseau Radial Basis Function


a) Optimisation de la structure du rseau
La dmarche est la mme que celle dcrite prcdemment (variation du
paramtre sc

de 1 100). Les rsultats obtenus sont prsents figure II.13. On peut

remarquer alors un minimum de 131 erreurs pour une valeur de sc de 2.

Nombre d'erreurs commises


Rseau RBF - Base de donnes 3

Nombre d'erreurs commises

400

350

Classe "Dfaut de Roulement Classe Normale


Erreur Globale
Classe "Balourd"

300

250

200

150

100

50

10

20

30

40

50

60

70

80

90

100

Valeur du rayon de la zone d'influence

Figure II. 13 - Evolution de l'erreur commise en fonction du paramtre sc (base de donnes 3)

b) Rsultats obtenus
A partir des rsultats prcdents, nous avons donc mis en uvre le rseau RBF
ainsi optimis. La valeur du paramtre sc choisie est donc de 2. Les rsultats obtenus
sont prsents dans le tableau II.9.
Classe
Relle
Normal

Balourd

Dfaut de
Roulement

Classe donne
Par le Normal
RBF

269

30

Balourd

49

251

Dfaut de
Roulement

37

1
5
303

Tableau II. 9 - Rsultats de classification par le rseau RBF (base de donnes 3)

Ainsi, le taux de classification correcte obtenu grce cette structure est de 86,3%
pour la globalit de la base de donnes avec un taux de classification correcte de :

84,6% pour la classe normale,

78,9% pour la classe Balourd,

95,3% pour la classe Dfaut de Roulement.

Compte tenu des rsultats obtenus pour la dtection dun niveau de dfaut avec les
rseaux LVQ et RBF seuls, nous nous sommes alors intresss la dtection de
lapparition dun dfaut sur une machine tournante, en utilisant ces techniques rseau
de neurones unique.

II.3.4 Dtection de l'apparition d'un dfaut


de roulement progressif
Le principe de cette srie de simulations est le suivant : aprs avoir appris au rseau
considr (LVQ ou RBF) un ensemble de signaux correspondants soit un
fonctionnement normal, soit un fonctionnement dfaillant, avec plusieurs niveaux de
dfauts, on gnralise

sur un ensemble de signaux extraits d'une mesure en continue de

l'acclration du moteur, tout en faisant apparatre progressivement un effort sur le


roulement billes (afin de gnrer un dfaut de roulement de plus en plus important).
Puis, il s'agit de rechercher le moment o le rseau commence dtecter un dfaut de
roulement. Chaque rseau comprend 992 neurones d'entre (correspondant au nombre
d'chantillons des signaux) et 2 neurones de sortie (un par classe).
La base d'apprentissage utilise comprend 718 signaux : 318 correspondent un
fonctionnement normal et 400, un fonctionnement dfaillant de niveau fixe (4 niveaux
diffrents). La gnralisation s'opre sur 19389 signaux. Les rsultats obtenus pour le
rseau LVQ seul et le rseau RBF seul ne sont globalement pas satisfaisants, puisque les
rseaux ne parviennent pas dtecter correctement l'apparition du dfaut. Afin de
permettre une reprsentation des rsultats, nous les avons analyss de la manire
suivante : nous connaissons le moment o le dfaut commence apparatre. Les signaux
correspondant aux instants prcdant ce moment sont donc des signaux de

fonctionnement normal (classe normale). Ceux correspondant aux instants suivant


l'apparition du dfaut caractrisent donc un fonctionnement dfaillant (classe "dfaut de
Roulement"). Partant de ce principe, nous avons

donc analys les rsultats obtenus comme des rsultats de classification. Ceux-ci sont
prsents ci-aprs.

II.3.4.1 Rseau Learning Vector Quantization


Nous avons procd comme prcdemment, en faisant varier le nombre de
de la couche cache de 6 100. Les rsultats sont prsents figure II.14.

Pourcentage de classification correcte

neurones

Pourcentage de Classification
Correcte rseau LVQ

100

Classe Normale
Classe "Dfaut de Roulement"
Rsultats globaux

90

80

70

60

50

40

30

20

10

20

40

60

80

100

120

Nombre de Neurones Cachs

Figure II. 14 Evolution du pourcentage de classifcation correcte en fonction du nombre de neurones


cachs

L'tude de cette courbe montre que, si le rseau reconnat correctement un


fonctionnement normal, en revanche, alors mme que le dfaut est install, il ne le
dtecte pas.

II 3.4.2 Rseau Radial Basis Function


Nous avons procd en faisant varier le paramtre sc du rseau RBF de 1 50.
Les rsultats sont prsents figure II.15.

Pourcentage de classificartion correcte

Pourcentage de classification correcte


Rseau RBF

100

Classe Normal (sans dfaut) Classe "Dfaut de Roulement)


Rsultats globaux

90

80

70

60

50

40

30

20

10

10

15

20

25

30

35

40

45

50

Valeur du rayon de la zone d'influence (Paramtre


sc)

Figure II. 15 -Evolution du pourcentage de classifcation correcte en fonction du paramtre sc

Comme prcdemment, on peut noter que la reconnaissance du dfaut de roulement


n'est pas du tout satisfaisante par un rseau RBF seul. De plus, si l'augmentation du
rayon de

la zone d'influence permet une amlioration du taux de classification

globale, le comportement gnral du rseau demeure dcevant (reconnaissance en


moyenne de prs d'un vecteur sur deux : comportement quasi alatoire). En effet, les
deux classes discriminer sont trop proches pour tre dissocies correctement par le
mappage ralis par un rseau RBF dont
un recouvrement des zones d'influence

le paramtre sc est grand. On assiste alors


des

neurones cachs qui explique ce

comportement alatoire. Dans ce cas, il faudrait sans doute envisager un apprentissage


avec zone d'influence variable selon le type de vecteur appris (normal ou dfaillance).

II.4 Conclusion
Dans ce chapitre, nous avons prsent la mise en uvre de techniques neuronales
rseau de neurones unique dans le cadre de deux applications, l'une biomdicale, l'autre
industrielle. L'application biomdicale concerne les Potentiels Evoqus Auditifs (PEA).
L'tude industrielle aborde le problme de diagnostic de dfaillances d'un moteur
asynchrone. Dans ce dernier cas, nous avons travaill sur les donnes issues d'un point
de mesure du moteur : l'acclration.
Notre premire tude a port sur la catgorisation des signaux PEA. La principale
difficult de cette catgorisation est lie la catgorisation de vecteurs trs similaires
correspondant des classes diffrentes et la grande varit de vecteurs au sein dune
mme classe. Nous avons dans un premier temps appliqu une technique
conventionnelle (modlisation autorgressive). Les rsultats alors obtenus tant trs
insuffisants (seuls 37% des vecteurs sont correctement classs grce cette approche),
nous avons alors choisi de mettre en uvre les rseaux LVQ et RBF. La premire phase
de cette tude concerne l'tude

du comportement des rseaux de neurones LVQ et

RBF pour la classification de ces signaux.


Concernant le rseau LVQ, nos efforts se sont concentrs sur la recherche du nombre
de neurones cachs. Nous avons donc fait varier le nombre de neurones cachs de 2
100 afin

de rechercher la structure permettant d'obtenir les meilleurs taux de

classification. Dans le

cadre de l'application biomdicale, nous avons ainsi pu observer

un taux de classification correcte "optimal" de 56,8% pour un nombre de neurones


cachs gal 12 et 20. Pour ces deux structures, la rpartition des erreurs au sein des
trois classes est quasiment la mme.
De la mme manire, nous avons tudi le comportement du rseau RBF. Un tel
rseau faisant partie des modles architecture volutive, le nombre de neurones de la
couche cache est fix par l'apprentissage. Nous nous sommes donc penchs sur
l'influence du rayon

de la zone d'influence de ce rseau. Nous avons donc fait varier le

paramtre sc, rayon de la zone d'influence, et tudi l'volution du nombre d'erreurs


commises par le rseau en phase de gnralisation en fonction de ce paramtre. Dans le
cadre de l'application biomdicale, les meilleurs rsultats sont obtenus pour sc gal

7,5. On atteint alors 59,1% de classification correcte sur l'ensemble de la base de


donnes.
Concernant l'application industrielle, les mmes rseaux ont t employs et les
mmes recherches de structures adquates ont t ralises pour les rseaux LVQ et
RBF, et

ce, pour trois bases de donnes. La construction de ces diffrentes bases de donnes a t
motive par un souci de s'adapter aux conditions de mesures dans l'industrie. Si les deux
premires bases ncessitent les mesures issues de deux capteurs diffrents
(acclromtre et capteur de position pour le signal Top Tour), la troisime, quant elle,
doit

permettre

d'obtenir un diagnostic partir de la seule information issue de

l'acclromtre, quelque soit l'instant de la prise de mesure. De plus, nous avons tent de
dtecter l'apparition d'un dfaut progressif au moyen de ces mmes structures.
Concernant la base de donnes 1, o les signaux d'apprentissage et de gnralisation
sont tous calls sur le Top Tour, les rsultats obtenus sont satisfaisants, puisque nous
atteignons un taux de classification correcte de 95,4% pour un rseau LVQ comprenant 9
neurones cachs et mme 100% pour un rseau RBF dont le paramtre sc est gal 5, 6
ou7. Compte tenu de ces rsultats, nous avons dcid d'valuer les performances du
rseau RBF en phase de gnralisation avec des signaux dont l'origine ne dpend plus
de l'information dlivre par le Top Tour (Base de Donnes 2). Les rsultats obtenus
montrent qu'on obtient un taux de classification de 63,1% pour un rseau RBF dont le
paramtre sc vaut 21. Les performances de ces rseaux ont ensuite t values sur une
troisime base de donnes. L'apprentissage et la gnralisation des rseaux neuronaux
sont alors raliss en utilisant des signaux dont l'origine n'est plus une mme position de
l'axe de rotation du moteur. On atteint alors des taux de classification de 65,7% pour un
rseau LVQ comprenant 9 neurones cachs

et 86,3% pour un rseau RBF dont le

paramtre sc est gal 2.


En revanche, concernant la dtection de l'apparition d'un dfaut de roulement, les
rsultats obtenus par un rseau de neurones seul sont trs insatisfaisants, puisque l'un et
l'autre des rseaux ne permettent mme pas la reconnaissance d'un dfaut install.

La mise en uvre des structures neuronales rseau de neurones unique est nettement
insuffisante pour la rsolution de ce problme de classification et l'laboration d'un
outil d'aide au diagnostic pour les deux cas, biomdical et industriel, tudis. Les
rsultats biomdicaux permettent d'obtenir seulement 56,2% de classification correcte
dans le cas du LVQ et 59,1% dans le cas du RBF. De la mme manire, dans l'tude de
cas industriel, mme

si le rseau RBF permet d'obtenir des rsultats satisfaisants

(100% de classification correcte pour la base de donnes1 et 86,3% pour la base de


donnes 3), seuls 63,1% de signaux sont correctement classs par le rseau RBF pour la
base de donnes 2. Quant au rseau LVQ, il ne permet pas d'obtenir de meilleurs
rsultats pour les diffrentes bases de donnes. Par ailleurs;

les performances de ces structures dans le cadre de la reconnaissance de l'apparition d'un


dfaut de roulement sont trs insuffisantes. Compte tenu de ces diffrents rsultats, et des
insuffisances des diffrents rseaux employs seuls, nous avons imagin une structure
hybride (prsente au chapitre I) pour le traitement des informations dans un but d'aide au
diagnostic.
structure.

Le chapitre suivant est consacr l'tude et la mise en uvre de cette