Académique Documents
Professionnel Documents
Culture Documents
I.1 Introduction
L
vol
uti
on t
echnol
ogi
que dur
antl
esde
rni
re
sann
esa pe
rmi
s aux scientifiques
d
la
bor
ere
tdepe
rfe
cti
onne
rde
sm
thode
spourdi
ff
re
ntsdoma
ine
s.L
vol
uti
on de
s
or
dina
teur
senpa
rti
cul
iere
tlac
apa
cit
d
int
gr
ati
ondec
ompos
ant
sfor
mida
blea
tte
int
es nos
jours ont permis une grande vitesse de calcul et une grande capacit mmoire. Parmi ces
mthodes, il existe une mthode qui est utilise dans plusieurs domaines de recherches et de
di
ff
re
nte
sma
ni
res
,ai
nsie
llepe
ut
treut
il
is
ed
unema
ni
rec
ompl
te
mentSof
tenut
il
is
ant
uni
que
mentl
or
dina
teurou d
unema
ni
reHa
rde
n ut
il
is
antl
esc
irc
uit
s intgrs. Cette
mthode est celle des rseaux de neurones artificiels (RNA).
I.2 Historique
Les RNA ont commenc voir le jour ds 1890 avec W. James, un clbre psychologue
Amricain qui a introduit le concept de mmoire associative, et proposa une loi de
fonctionnement pourl
appr
ent
is
sag
esurl
esr
se
auxdene
urone
s. Cette rgle sera connue sous
le nom : la rgle de Hebb. En 1943, Mc Culloch et Pitts deux bio-physiciens de l
uni
ver
sit
de
Chi
cag
oontd
mont
rqu
unr
se
audene
urone
sdi
scr
etpe
utr
epr
se
nte
rn
impor
tequelle
f
onc
tion bool
enne
,pr
inc
ipedeb
ased
un or
dina
teur
.Que
lque
s annes aprs, en 1949
D.
Hebb,phy
siol
ogi
st
eam
ric
aine
xpl
iquel
econdi
ti
onne
mentc
hezl
ani
malpa
rle
spr
opr
it
s
des neurones eux-mmes. La loi de modification des proprits des connexions entre neurones
qu
ilpr
opos
e dmontre en partie ses rsultats exprimentaux. Il introduit le terme
connexionisme pour parler de modles massivement parallles, connects et propos de
nombreuses rgles de mise jour des poids dont la clbre rgle de Hebb. Rosenblatt proposa
El
ect
rot
ech
niq
ueM
sil
a2006 2
Chapitre I Les Rseaux de Neurones Artificiels
C'est le premier systme artificiel capable d'apprendre par exprience. Ce rseau, tait
c
apa
bled
appr
endr
edi
ff
re
nci
erde
sfor
mess
impl
ese
tc
alc
ule
rce
rta
ine
sfonc
tions
logiques. Dans la mme priode, Le modle de L'Adaline (adaptive linar element) a t
prsent par B. Widrow, chercheur Amricain Stanford. Ce modle sera par la suite le
modle de base des rseaux multicouches.
L
unede
sca
use
squie
stl
or
igi
nedud
sint
re
sse
mentde
sche
rche
ursa
uxRNA est
apparue en 1969, avecl
appa
rit
iond
unl
ivr
econnusous le nom Perceptrons de Minsky et
Papert et dans lequel ils publirent leur argumentation mathmatique visant dmontrer les
limitations du perceptron (Rseaux de neurones une seule couche) et en particulier,
l
i
nca
pac
itdur
se
aur
soudr
ele
spr
obl
me
snonl
in
air
eme
nts
pa
rabl
es,dontl
afonc
tion
logique XOR est un clbre exemple. Cen
estqu
aud
butde
sann
es80 quel
i
nt
rtde
s
chercheurs pour les rseaux de neurones renat et plus prcisment en 1982 grce Hopfield
qui proposa les rseaux de neurones associatifs. Paralllement, Werbos conoit un mcanisme
d
appr
ent
is
sagepourl
esr
se
auxmul
ti
couc
hesdet
ypepe
rce
ptr
on.
L
ann
e1986 a vul
appa
rit
iond
el
alg
ori
thmeder
tr
opropagat
iondel
er
reurpubl
i par
Rume
lha
rt,Hi
ntone
tWi
ll
iams
rre
urquipe
rme
td
opt
imi
serl
espa
ram
tre
sd
unr
se
au de
neurones plusieurs couches, ainsi les recherches sur les rseaux de neurones ont dmarr
fortement, impliquant le succs de cette mthode et son application dans divers domaines [1]
[2].
El
ect
rot
ech
niq
ueM
sil
a2006 3
Chapitre I Les Rseaux de Neurones Artificiels
Les cellules nerveuses appeles " neurones ", sont les lments de base du systme nerveux
central. Elles sont constitues de trois parties essentielles : le corps cellulaire, les dendrites et
l
axonefigure (I.1) [1][2].
El
ect
rot
ech
niq
ueM
sil
a2006 4
Chapitre I Les Rseaux de Neurones Artificiels
I.4.1 Dfinition
+1
Ei1
Wi1 Wi 0
Oi f
Li
Ei 2
Wi 2
LI f
Sortie
E
in
Win
Entre Poids
Figure (I.2) Sc
hmad
unne
uronef
orme
l
L
qua
tiondes
ort
ieOi du neurone i est donne par :
Oi f
Li (I.1)
Souvent, il y a un paramtre additionnel Wi0, ce terme est considr comme la valeur du seuil
interne du neurone [4].
El
ect
rot
ech
niq
ueM
sil
a2006 5
Chapitre I Les Rseaux de Neurones Artificiels
I.4.3 Fonc
tiond
activation
C
estunef
onc
tion prsente gnralement par une non linarit appele aussi fonction
de seuil. Elle permet de d
fini
rl
ta
tint
ernedune
uronee
n fonction de son entre totale
Les fonctions les plus souvent utilises sont reprsentes par la figure (I.3) [11].
f
f
s
s s
f
f +1
s s
-1
1 e S
(c) Fonction a seuils multiples (d) Fonction sigmode f
s
1 e S
El
ect
rot
ech
niq
ueM
sil
a2006 6
Chapitre I Les Rseaux de Neurones Artificiels
+1
s s
s
(e) Fonction de Heaviside (g) Fonction linaire sans saturation
i
Figure (I.3) Les diffrentes formes de la fonctond
act
iva
tion
Tout
esl
esf
onc
tionsd
act
iva
tionutilis
esdoi
vent
tredi
ff
re
nti
abl
es,c
arl
ar
chi
tec
tur
edu
r
se
audene
urone
sl
impos
epourq
uel
appr
ent
is
sages
oitpos
sibl
e[11].
L
int
r
tpor
ta
ujour
dhuia
uxr
se
auxde neurones tient sa justification dans quelques
pr
opr
it
si
nt
res
sant
esqu
il
spos
sde
nte
tquide
vra
ientpe
rme
ttr
eded
pas
serl
esl
imi
tat
ions
del
i
nfor
mat
iquet
radi
ti
onne
lle
,ta
nta
uni
vea
upr
ogr
amma
tionqu
auni
vea
uma
chi
ne[6].
I.5.1 Le paralllisme
Ce
tt
enot
ions
esi
tuel
aba
sedel
ar
chi
tec
tur
ede
sr
sea
uxdene
urone
scons
id
rs
c
omme e
nse
mbl
e d
ent
it
s
lme
nta
ire
s travaillant simultanment. Avec l
t
ude du
fonctionnement des rseaux de neurones, on pourrait aboutir des nouvelles techniques de
formalisation de problme qui permettraient de les traiter en parallle [6].
I.5.2 Lac
apac
itd
ada
pta
tion
is
Celle-c ema
nif
est
epa
rlac
apa
cit
d
appr
ent
is
sagequipe
rme
tdet
eni
rcompt
ede
s
nouvelles contraintes ou des nouvelles donnes du monde extrieur. Certains rseaux se
c
ara
ct
ris
enta
uss
ipa
rle
urc
apa
cit
d
aut
oor
gani
sat
ionquia
ssur
ele
urs
tabi
li
te
nta
ntque
systmes dynamiques capables de tenir compte des situations non encore connues [6].
Da
nsl
esr
se
auxdene
uron
es,l
am
moi
rec
orr
espondunec
art
ed
act
iva
tionde
neurones. Cette carte est en quelque sorte un codage du fait mmoris ce qui attribue ces
El
ect
rot
ech
niq
ueM
sil
a2006 7
Chapitre I Les Rseaux de Neurones Artificiels
r
se
auxl
ava
nta
geder
si
st
era
uxbr
uit
s(pa
nne
s)c
arl
ape
rted
unlment ne correspond pas
l
ape
rted
unf
aitm
mor
is[6].
Les rseaux statiques non rcurrents et les rseaux dynamiques rcurrents [4].
Les neurones qui ne sont pas des sorties du systme sont appels neurones cachs
(neurones invisibles dans la sortie). da
nsl
ar
chi
tec
tur
ela plus gnral
e,l
ent
redec
haque
neurone est connecte toutes les sorties des neurones prcdents mais , la plupart des
rseaux de neurones statiques utiliss , sont organiss en plusieurs couches de neurones ,
appels rseaux multi couches aux perceptrons multi couches.
Da
nsu
nte
lr
sea
ux,l
asor
ti
edec
haquene
uroned
unec
ouc
hel e
stc
onne
ct
el
ent
rede
chaque neurone de la couche suivant l+1.
L
arc
hit
ect
ure d
unt
elr
seau est donne par la figure (I.4) [4].
El
ect
rot
ech
niq
ueM
sil
a2006 8
Chapitre I Les Rseaux de Neurones Artificiels
Entre Sortie
Ces rseaux, appels aussi rseaux rcurrents, sont organiss de telle sorte que chaque
neurone reoit sur ses entres une partie ou la totalit de lta
tdur
se
au(sortie des autres
neurones) en plus des informations externe
s.Pourl
esr
se
aux r
cur
rent
sl
inf
lue
nce entre les
ne
urone
ss
exe
rceda
nsl
esde
uxs
ens
.L
ta
tgl
oba
ldur
se
aud
pend aussi de ses tats
prcdents. L
qua
tiondune
urone
,da
nsc
eca
s,e
std
cri
tepa
rde
squa
tionsdi
ff
re
nti
ell
es
ou aux diffrences. Un exemple de rseaux dynamiques est donn par la figure (I.5) [4].
El
ect
rot
ech
niq
ueM
sil
a2006 9
Chapitre I Les Rseaux de Neurones Artificiels
L
obj
etp
rs
ent
aur
se
aus
anspe
rtei
mpor
tant
e d
inf
orma
tion.Une
limi
nat
ion de
s
Pa
ram
tre
scor
rl
ss
ef
fec
tue
.Ene
ffe
t,s
aca
pac
itdec
ons
erva
tiont
opol
ogi
quepe
rme
tune
rduction des donn
esdel
ent
res
elonl
enombre de neurone formant le rseau [5].
Ce modle a t prsent par Kohonen en 1982 en se basant sur des constatations biologiques
Il a pour objectif de prsenter des donnes complexes et appartenant gnralement une
espace discret de grandes dimensions dont la topologie est limite une ou deux dimensions.
Le
sca
rte
sdeKohone
nsontr
al
is
espa
rti
rd
unr
se
aude
uxc
ouc
hes
,unee
nent
ree
t
une en sortie.
Not
onsquel
esne
urone
sdel
aco
uched
ent
res
onte
nti
re
mentconnects la couche de
sortie figure (I.6) [13].
X1 S1
X2 S2
Xn Sn
Le
sne
urone
sdel
acouc
hedes
ort
ies
ontpl
ac
sda
nsun e
spa
ced
uneoudede
ux
dimensions en gnral, chaque neurone possde donc des voisins dans cet espace. Et enfin
chaque neurone de la couche de sortie possde des connexions latrales rcurrentes dans sa
couche. Le neurone inhibe les neurones loigns et laisse agir les neurones voisins.
Les modles de Hopfield reprsentent une architecture plus historique que pratique. Ils
sont importants car apparus un tournant de l'histoire du connexionnisme. Ils sont considrs
comme la base de son redmarrage. En revanche ils ne sont quasiment plus utiliss dans leur
El
ect
rot
ech
niq
ueM
sil
a2006 10
Chapitre I Les Rseaux de Neurones Artificiels
version de base en raison de leur cot en terme de temps de calculs et de leurs relativement
faibles performances [7].
I.7.2.1 L'architecture
S1 S2 Sn-1
Sn
O1 O2 On-1 On
X1 X2 Xn-1 Xn
Un neurone est li tous les autres, les liaisons sont symtriques, un neurone n'est pas li
lui-mme et un seul neurone est actualis par itration. Chaque neurone est la fois neurone
d'entre et de sortie du rseau [7].
El
ect
rot
ech
niq
ueM
sil
a2006 11
Chapitre I Les Rseaux de Neurones Artificiels
I.7.3 Le Perceptron
L
architecture g
n
ral
ed
unPe
rce
ptr
onc
ommed
cri
tenfigure (I.8) comprend trois
lments principaux :
I.7.3.1.1 Rtine
I.7.3.1.2 Couche d
ass
oci
ati
on
La deuxime couche d
ass
oci
ati
on e
stc
ompos
edec
ell
ule
sassociatives qui sont
connectes totalement ou de faon alatoire aux cellules de la rtine, Ces cellules
d
ass
oci
ati
onsAj s
ontdo
te
sdef
aonsd
ass
oci
ati
onh qui peuvent par exemple raliser des
fonctions boolennes ou bien utiliser des fonctions linaires. Dans le perceptron, les
fonctions hi, i=1,2,.N s
ontd
ter
min
esl
ava
ncee
tel
lesr
est
entf
ixe
spe
nda
ntl
aphase
d
appr
ent
is
sage
.Las
ort
ieXj del
ace
llul
ed
ass
oci
ati
onAj est transmise la cellule de
dcision de Pi aprs avoir t pondre par le coefficient ajustable Wij,
Couche de dcision
Rtine Couche d
ass
oci
ati
on
Figure (I.8) Sc
hmad
unPe
rce
ptr
on
El
ect
rot
ech
niq
ueM
sil
a2006 12
Chapitre I Les Rseaux de Neurones Artificiels
Las
truc
tur
edel
Ada
line di
ff
redu pe
rce
ptr
on pa
rl
uti
li
sat
iond
unes
eul
ece
llul
e
d
ass
oci
ati
one
tl
uti
li
sat
iond
unef
onc
tiondes
eui
ldi
ff
re
ntdec
ell
edeHe
aviside (-1 et t+1).
Depl
us,i
lut
il
is
euna
lgor
it
hmea
dapt
ati
fpourme
sur
erl
c
art
eent
rel
asor
ti
er
ell
eetl
a
s
ort
iedupr
oce
sse
ur
lme
nta
ire
.Les
ch
madel
Adaline est reprsent en
figure (I.9). Le plus souvent, les entres sont binaires et la rponse souhaite est galement
binaire
L
Ada
linee
stl
ese
ulr
se
audene
urone
sar
ti
fi
cie
lsut
il
is
ma
ssi
veme
ntd
ansl
i
ndus
tri
e,Ce
circuit est en effet utilis dans la tlcommunication pour amliorer le signal sur bruit en
t
prenant en compte la variaiondel
i
mp
danc
ede
sdi
ff
re
nte
sli
gne
st
lphoni
que
s[11].
j N
S W j X j
X0 j 0
W0 S Y
X1
W1
Xn
Wn -
Yd Sortie dsire
+
Rgle
dap
prentiss
ag
e
Si
gnald
err
eur
Figure (I.9) Sc
hmadepr
inc
ipedel
ada
line
El
ect
rot
ech
niq
ueM
sil
a2006 13
Chapitre I Les Rseaux de Neurones Artificiels
rseau de neurones est un apprentissage qui est une phase du dveloppement d'un rseau de
neurones durant laquelle le comportement du rseau est modifi jusqu' l'obtention du
comportement dsir. L'apprentissage neuronal fait appel des exemples de comportement
L
appr
ent
is
sage des rseaux de neurones consiste adapter ses diffrents paramtres
(
poi
ds)d
apr
suna
lgor
it
hmei
tr
ati
f d
ajus
teme
ntoud
ada
pta
tionl
uipe
rme
tta
ntdepr
endr
e
en considration toutes les donnes (exemples) qui lui sont fournies son entre et ainsi
a
jus
ters
espa
ram
tre
spourt
rouve
rlej
ust
emi
li
eupe
rme
tta
ntdepr
endr
eenc
har
gen
impor
te
quel exemple ou donne apparaissant son entre provenant de son environnement [1][2].
Le
sal
gor
it
hme
sd
appr
ent
is
sage
sdonne
ntde on leur fournit des
s meilleurs rsultats lorsqu
exemples multiples et varis ; ainsi le rseau peut assimiler toutes les connaissances. Il existe
di
ff
re
nter
gl
esd
appr
ent
is
sag
eparmi les quelles on peut distinguer [1]:
L'apprentissage supervis, repose sur le fait que les exemples sont des couples (entre,
.C
sortie dsirer) estdi
requel
ons
uppos
el
exi
st
enc
ed
une
xpe
rtquipr
ende
ncha
rgel
a
sortie de notre rseau en lui fournissant une sortie dsire et les associes aux sorties relles
rl
fournies pa er
se
aud
apr
sl
esdonn
esl
ent
re
.Ler
se
aua
dapt
ese
spa
ram
tre
sen
fonction de la diffrence qui existe entre la sortie relle et la sortie dsire en prenant compte
det
ousl
ese
xempl
esdel
envi
ronne
ment[1][2].
El
ect
rot
ech
niq
ueM
sil
a2006 14
Chapitre I Les Rseaux de Neurones Artificiels
Superviseur
Erreur
Rseaux de
neurones
Rseaux de
neurones Sortie
Figure (I.11) I
ll
ust
rat
iondel
appr
ent
iss
agenons
upe
rvi
s
El
ect
rot
ech
niq
ueM
sil
a2006 15
Chapitre I Les Rseaux de Neurones Artificiels
En s
ins
pir
antdu pe
rceptron monocouche, une architecture plus complexe englobant
plusieurs neurones a t mise au point.
Cette nouvelle architecture est le perceptron multicouches (ou MLP pour Multi Layer
Pe
rce
ptr
one
nang
lai
s).L
appa
rit
iondec
ett
ear
chi
tec
tur
eape
rmi
s de rsoudre les problmes
de classification non linaire du perceptron et de dpasser les limites principales de celui-ci.
L'ide principale est de grouper des neurones dans une couche. En plaant ensuite bout
bout plusieurs couches et en connectant compltement les neurones de deux couches
adjacentes. Les entres des neurones de la deuxime couche sont donc en fait les sorties des
neurones de la premire couche [1][13].
I.9.1 Architecture
+1 +1 +1
w110 w210 wL10 yj
+1 +1 +1
El
ect
rot
ech
niq
ueM
sil
a2006 16
Chapitre I Les Rseaux de Neurones Artificiels
L
ann
e1986 a vul
a i
ppart
iondel
al
gor
it
hmeder
tr
opr
opa
gat
iondel
er
reurpubl
i par
Rume
lha
rt,Hi
ntone
tWi
ll
iams
rre
urquipe
rme
td
opt
imi
serl
espa
ram
tre
sd
unr
se
au de
neurones plusieurs couches [1].
I.10.1 Introduction
Le d
vel
oppe
ment d
alg
ori
thme
s d
appr
ent
is
sag
esupe
rvi
s pour l
esr
se
aux
multicouches se heurte au problme de calcul des erreurs de sortie pour les neurones cachs.
Ene
ffe
t,l
esne
urone
sca
ch
sn
ontpa
sunr
lepr
d
fini
,c
estl
appr
ent
is
sag
equil
es
utilise sa convenance pour former des reprsentations internes, c
aus
edel
abs
enc
ed
une
rgle d
appr
ent
is
sage convenable, les perceptrons taient limits une seule couche pendant
plusieurs annes, mais ce type de perceptron ne peut rsoudre que les problmes dont les
donnes sont linairement sparables. Les limitations du perceptron ont t leves par la
dcouve
rtedel
al
gor
it
hmeder
tr
opropagation qui a permis de rsoudre le problme de
calcul des erreurs associes aux neurones cachs. Les applications de cet algorithme ont
connu un succs spectaculaire et ses performances taient quelques fois surprenantes.
El
ect
rot
ech
niq
ueM
sil
a2006 17
Chapitre I Les Rseaux de Neurones Artificiels
nk 1
S ik Wijk O kj 1 (t ) i = 1,2, n k ; k = 1,2,L (I.4)
j 0
Avec :
S (t )f
nk 1
Oik (t ) f k
i
k
W
k k
ij O kj 1 (t )
(I.8)
j 0
est la sortie du neurone i, Wijk est le coefficient synaptique de la connexion entre le neurone i
Laf
onc
tiond
act
iva
tiong
n
ral
eme
ntc
hoi
si
ees
tlaf
onc
tions
igmo
de:
1 e x
F(x) = (I.9)
1 e x
L
objectif de la mthode de rtropr
opa
gat
ion e
std
ada
pte
r les paramtres Wijk de faon
1 T 1 T
E E (t ) [Y d (t ) Y (t )] 2 (I.10)
2 t 1 2 t 1
El
ect
rot
ech
niq
ueM
sil
a2006 18
Chapitre I Les Rseaux de Neurones Artificiels
Onc
omme
ncel
ent
ra
neme
ntpa
runc
hoi
xal
at
oir
ede
sva
leur
sinitiales des poids. On
prsente l
epr
emi
erve
cte
urd
ent
re
.Unef
oisl
asor
ti
edur
se
au,l
er
reurc
orr
esponda
ntee
t
le gradient de l
er
reurpa
rra
ppor
tt
ousl
espoi
dsest calcule, les paramtres sont ajusts
da
nsl
adi
rec
tionoppos
ec
ell
edug
radi
entdel
er
reur
.Onr
efa
itl
am
mepr
oc
dur
epour
tous l
ese
xempl
esd
appr
ent
is
sage
.Cepr
oce
ssuse
str
p
tj
usqu
cequel
ess
ort
iesdu
rseau soient suffisamment proches des sorties dsires.
correspondant une entre X (t), en utilisant les quations (I.4)-(I.10). Les paramtres du
rseau sont alors ajusts par la mthode de gradient en utilisant la formule itrative :
E
Wijk (n) k (I.12)
Wij (n)
Sa valeur est gnralement choisie exprimentalement. Si est trop petit la convergence est
lente mais la direction de descente est optimale. Si est trop grand la convergence est
r
api
dema
isl
apr
ci
si
one
stm
dioc
re,unph
nom
ned
osc
ill
ati
oni
nte
rvi
entd
squ
on
v
approche du minimum. La dri edel
er
reurE par rapport au poids Wijk (n) est donne par :
E T
E (t )
Wij (n) t 1
k
Wijk (n)
(I.13)
El
ect
rot
ech
niq
ueM
sil
a2006 19
Chapitre I Les Rseaux de Neurones Artificiels
Avec
E (t )
ik (t )Oik 1 (t ) (I.14)
Wij (n)
k
O ik (t ) e
stl
er
reurquivalente la sortie du neurone i de la couche k, pour les neurones des
couches de sortie :
s
Pour minimierl
er
reurtotale E s
url
ens
embl
ed
ent
ra
neme
nt,l
espoi
dsdur
se
audoi
vent
tre ajusts aprs la reprsentation de tous les exemples. Cependant on peut ajuster les poids
aprs la reprsentation de chaque exemple, les corrections sont assez faibles et la
minimisation de E (t) est une bonne approximation de la minimisation de E,l
qua
tion(
I.12)
est remplace par :
E (t )
Wijk (n) k (I.17)
Wij (n)
Alors on :
El
ect
rot
ech
niq
ueM
sil
a2006 20
Chapitre I Les Rseaux de Neurones Artificiels
I.10.5 Algorithme
Etape 1: Initialiser les poids Wij et les biais des neurones des petites valeurs alatoires.
I.10.6 Te
chni
que
sd
acc
l
ration de la rtropropagation
Sibi
enquel
al
gor
it
hmeder
tr
opr
opa
gat
ions
oitl
al
gor
it
hmel
epl
usut
il
is
pou
r
l
appr
ent
is
sage supervis des rseaux multicouche son implantation se heurte aux plusieurs
di
ff
icul
tst
echni
que
s.I
ln
exi
st
epa
sdem
thode
spe
rme
tta
ntde:
- viter l
ese
ffe
tsdel
ent
ra
neme
nt(dgradation des performances due un entranement
prolong) et la convergence vers un minimum local.
Pour trouver une architecture approprie (nombre de neurones cachs), Ash a propos une
a
ppr
oched
addi
ti
oni
nte
rac
tive de neurones dans la quelle on ajoute des neurones aux couches
c
ach
espe
nda
ntl
appr
ent
is
sag
e.Un ne
uronee
sta
jout
cha
quef
oisquel
er
reurs
est
abi
li
se
El
ect
rot
ech
niq
ueM
sil
a2006 21
Chapitre I Les Rseaux de Neurones Artificiels
unni
vea
uina
cce
pta
ble
.Ce
ttet
echni
ques
appe
llel
ate
chni
quedec
ra
tiondy
nami
quede
neurones (DNC : Dynamic Node Creation).
Pour viter le problme des oscillations,be
auc
oupd i
auteurs modifentl
al
gor
it
hmee
nlui
ajoutant un moment
Lal
oid
ada
pta
tionde
vie
nt:
Avec
0 1
i
Des mthodes sont suivre afnd
vi
terl
esmi
nimal
oca
ux:
- Mod
ifi
erl
epa
sd
appr
ent
is
sag
edur
se
aupourpousser le rseau hors des minima locaux.
- R
dui
rel
espoi
dsdu r
se
au pa
runepe
tit
equa
nti
tc
haquepa
sd
appr
ent
is
sag
e.
L
act
iva
tiond
unne
urones
atur
equa
nds
esl
ienspos
sde
ntdet
ropg
randspoi
dss
yna
pti
que
s.
Cepr
obl
mee
stdi
ff
ici
ler
soudr
elor
sdel
appr
ent
is
sag
e,c
arl
esva
leur
sd
act
iva
tion
extrmes se traduisent souvent au niveau de la rtro-propagation par de petites corrections. Le
rseau se trouve alors dans un minimum local. Rduire systmatiquement tous les poids par
une petite valeur chaque correction contribue garder les petits poids synaptiques, et peut
rsoudre ce problme.
El
ect
rot
ech
niq
ueM
sil
a2006 22
Chapitre I Les Rseaux de Neurones Artificiels
- Re
lan
cerl
appr
ent
is
sagepl
usi
eur
sfoi
senut
il
is
antde
spoi
dsi
nit
iau
xdi
ff
re
nts, ce qui
entrane un temps de calcul plus lev [12].
Fonction d
err
eur
Minimum
local
Minimum
global
Le
spr
opr
it
sd
appl
ica
tione
td
appr
oxi
mat
ionde
sr
sea
uxdene
urone
sontpe
rmi
sune
importante application de ces derniers dans les diffrentes domaines pratiques, notamment, les
domaines suivants :
Classer des signaux dans des catgories diffrentes en fonction des caractristiques de
.
forme (amplitude, frquence, phase, etc..)
,pe
ut
trer
al
is
ai
sme
ntpa
rl
uti
li
sat
iond'
un
rseau de neurones.
Supposons qu'on a deux catgories de signaux A et B et qu'on souhaite classer des formes
dans ces deux catgories en fonction des caractristiques de ces formes.
On peut simplement dfinir la fonction non linaire F qui vaut +1 pour les formes de la
classe A et -1 pour celles de la classe B, le problme de classification revient l
approximation
El
ect
rot
ech
niq
ueM
sil
a2006 23
Chapitre I Les Rseaux de Neurones Artificiels
de la fonction non linaire F qui peut tre rsolue par un rseau de neurones qui possde des
entres et une seule sortie pour fournir la dcision [15].
Le
sd
bouc
hsc
omme
rci
auxde
ste
chni
que
sne
urona
les(
enc
hif
fred
aff
air
esoue
npa
rts
dema
rch
)set
rouve
nts
urt
outda
nsde
spr
odui
tsl
ogi
cie
lse
tma
tr
iel
sd
usa
geg
nr
al,e
tpl
us
encore dans des prestations de service, alors que la pa
rtus
agei
nte
rnede
sent
repr
ise
s(c
es
t-
-dire les dveloppement destins amliorer des mthodes ou des produits) est beaucoup
plus difficile estimer. La part de march des applications militaires est importe, et on peut
l
es
ti
mera
ppr
oxi
mat
ive
ment (avec prudence, tant donn que les informations sont
i
nce
rta
ine
s)e
ntr
eunt
ier
setl
amoi
ti
del
ens
embl
e.
Il est difficile de dresser un panorama exhaustif des applications des rseaux de neurones,
pourpl
usi
eur
sra
isons
.D
unepa
rt,l
esa
ppl
ica
tions potentielle de certains types de rseaux
dcrits dans ce chapitre (en particulier les rseaux multicouches) sont si vastes et si diverses
qu
ell
esr
ecouvr
entde
sdoma
ine
str
sva
ri
s,a
yantpa
rai
ll
eur
spe
udec
hos
ese
ncommun.
D
aut
repa
rt,l
ap
nt
rat
ionde
ste
chni
que
sut
il
is
antl
esr
se
auxdene
urone
s,s
eul
soue
n
a
ssoc
iat
iona
vecd
aut
rest
echni
que
s,e
stt
rsi
nga
le,e
tset
rouveda
nsunepha
sed
expa
nsi
on
et de diversification. Enfin, beaucoup des ralisations connues sont plus souvent dans un tat
depr
otot
ypequ
ene
xpl
oit
ati
onv
rit
abl
e.
Pl
uttquedepr
oc
derune
num
rat
iond
exe
mpl
espr
ci
sdontl
avi
abi
li
te
tl
uti
li
sat
ion
relle peuvent tre incertaines ou imprcises, il nous a sembl plus appropri de tenter une
prsentation sommaire en suivant grossirement deux axes diffrents : par classe
d
appl
ica
tion,e
npr
emi
erl
ieu,pa
rdoma
ined
act
ivi
tensuite [16].
Da
nsl
emonde
,ete
npa
rti
cul
iera
uxU.
S.A.
,l
int
r
tpourl
esr
se
auxdene
urone
sa
dmarr plus tt. Ds 1986, de 600 2000 visiteurs participent aux quelques grands congrs
annuels. Au niveau commercial, la figure (I.14) montre que plus de 200 compagnies sont
a
ujour
dhuiimpliques dans des dveloppements d
appl
ica
tionsc
onne
xionni
st
es[1].
El
ect
rot
ech
niq
ueM
sil
a2006 24
Chapitre I Les Rseaux de Neurones Artificiels
El
ect
rot
ech
niq
ueM
sil
a2006 25
Chapitre I Les Rseaux de Neurones Artificiels
L
ide
nti
fi
cat
ione
tlac
omma
ndedes
yst
me
scompl
exe
s(i
ncl
uantla robotique) sont un
domaine oles rseaux de neurones prennent une place croissante : aide au pilotage de
racteurs chimiques ou de colonnes distiller, c
omma
nded
uneautomobile sans pilote ayant
pour consigne de suivre une certaine trajectoire en terrain accident, commande de niveau de
lingotire dans une acire coule continue, les applications se multiplient. En gnral, elles
ne demandent que des ressources assez modestes, dans la mesure oles temps caractristiques
sont relativement longs : une simple simulation sur micro-ordinateur suffit trs souvent en
pha
sed
expl
oit
ati
on,l
uti
li
tde
sr
sea
uxdene
urone
sseme
sur
e galement dans ce domaine
pa
rl
ass
ez gr
ande r
api
dit
de mi
see
n uvr
e initial
e,c
es
t--di
rel
i
dent
if
ica
tio
n pa
r
apprentissage.
Mentionnons que les techniques de commande logique floue peuvent faire appel aux
rseaux de neurones pourl
appr
ent
is
sage des rgles [16].
Bien que naturellement les publications soient relativement rares et que peu de dtails
soient donns, les applications militaires classiques se retrouvent en reconnaissance de
a
cibles, anly
sed
ima
ge,t
rai
teme
ntdes
igna
uxr
ada
rous
ona
r,e
tda
nsunec
ert
aineme
sur
een
r
obot
ique
.Lede
rni
erc
irc
uiti
nt
grd
Int
el(
quie
stunacclrateur de reconnaissance ,
selon ses propres termes) a t financ pour moiti sur crdits militaires, ha
ute
urd
envi
ron
1,5 million de dollars $. Ce circuit implante une architecteur de type RBF (mesure des
distances entre stimulus prototypes), dveloppe par la socit Nestor [16].
El
ect
rot
ech
niq
ueM
sil
a2006 26
Chapitre I Les Rseaux de Neurones Artificiels
I.13 Conclusion
El
ect
rot
ech
niq
ueM
sil
a2006 27