Vous êtes sur la page 1sur 27

Chapitre I

Les rseaux de Neurones


Artificiels
Chapitre I Les Rseaux de Neurones Artificiels

I.1 Introduction

L
vol
uti
on t
echnol
ogi
que dur
antl
esde
rni
re
sann
esa pe
rmi
s aux scientifiques
d
la
bor
ere
tdepe
rfe
cti
onne
rde
sm
thode
spourdi
ff
re
ntsdoma
ine
s.L
vol
uti
on de
s
or
dina
teur
senpa
rti
cul
iere
tlac
apa
cit
d
int
gr
ati
ondec
ompos
ant
sfor
mida
blea
tte
int
es nos
jours ont permis une grande vitesse de calcul et une grande capacit mmoire. Parmi ces
mthodes, il existe une mthode qui est utilise dans plusieurs domaines de recherches et de
di
ff
re
nte
sma
ni
res
,ai
nsie
llepe
ut
treut
il
is
ed
unema
ni
rec
ompl
te
mentSof
tenut
il
is
ant
uni
que
mentl
or
dina
teurou d
unema
ni
reHa
rde
n ut
il
is
antl
esc
irc
uit
s intgrs. Cette
mthode est celle des rseaux de neurones artificiels (RNA).

Les rseaux de neurones artificiels sont des outils puissants capables d


tr
eut
il
is
s dans
prs que tous les domaines technologiques, et on peut citer : Le traitement du signal, vision,
parole, prvision, modlisation, aide la dcision, robotique, valuation des cosystmes,
identification des bactries, commande des processus, modlisation des systmes physiques,
reconnaissance des formes, mesure, instrumentation,... [1].

I.2 Historique

Les dbuts des RNA ont t mouvements, leur conception et leur d


vel
oppe
mentn
a
pas t une chose facile car aprs leur mise au point, il y a plus de soixante ans, ils ont
r
enc
ont
runep
riode des
omme
ilc
aus
edel
eurc
ompl
exi
td
impl
me
nta
tion e
tde
ralisation mais ils ontf
inipa
rr
appa
ra
tr
eave
cl
appa
rit
ionde
spui
ssa
nts ordinateurs.

Les RNA ont commenc voir le jour ds 1890 avec W. James, un clbre psychologue
Amricain qui a introduit le concept de mmoire associative, et proposa une loi de
fonctionnement pourl
appr
ent
is
sag
esurl
esr
se
auxdene
urone
s. Cette rgle sera connue sous
le nom : la rgle de Hebb. En 1943, Mc Culloch et Pitts deux bio-physiciens de l
uni
ver
sit
de
Chi
cag
oontd
mont
rqu
unr
se
audene
urone
sdi
scr
etpe
utr
epr
se
nte
rn
impor
tequelle
f
onc
tion bool
enne
,pr
inc
ipedeb
ased
un or
dina
teur
.Que
lque
s annes aprs, en 1949
D.
Hebb,phy
siol
ogi
st
eam
ric
aine
xpl
iquel
econdi
ti
onne
mentc
hezl
ani
malpa
rle
spr
opr
it
s
des neurones eux-mmes. La loi de modification des proprits des connexions entre neurones
qu
ilpr
opos
e dmontre en partie ses rsultats exprimentaux. Il introduit le terme
connexionisme pour parler de modles massivement parallles, connects et propos de
nombreuses rgles de mise jour des poids dont la clbre rgle de Hebb. Rosenblatt proposa

El
ect
rot
ech
niq
ueM
sil
a2006 2
Chapitre I Les Rseaux de Neurones Artificiels

en 1958 le perceptron, un rseau de neurones inspir du systme visuel. Il possde deux


couches de neurones :

- une couche de perception,

- une couche lie la prise de dcision.

C'est le premier systme artificiel capable d'apprendre par exprience. Ce rseau, tait
c
apa
bled
appr
endr
edi
ff
re
nci
erde
sfor
mess
impl
ese
tc
alc
ule
rce
rta
ine
sfonc
tions
logiques. Dans la mme priode, Le modle de L'Adaline (adaptive linar element) a t
prsent par B. Widrow, chercheur Amricain Stanford. Ce modle sera par la suite le
modle de base des rseaux multicouches.

L
unede
sca
use
squie
stl
or
igi
nedud
sint
re
sse
mentde
sche
rche
ursa
uxRNA est
apparue en 1969, avecl
appa
rit
iond
unl
ivr
econnusous le nom Perceptrons de Minsky et
Papert et dans lequel ils publirent leur argumentation mathmatique visant dmontrer les
limitations du perceptron (Rseaux de neurones une seule couche) et en particulier,
l
i
nca
pac
itdur
se
aur
soudr
ele
spr
obl
me
snonl
in
air
eme
nts
pa
rabl
es,dontl
afonc
tion
logique XOR est un clbre exemple. Cen
estqu
aud
butde
sann
es80 quel
i
nt
rtde
s
chercheurs pour les rseaux de neurones renat et plus prcisment en 1982 grce Hopfield
qui proposa les rseaux de neurones associatifs. Paralllement, Werbos conoit un mcanisme
d
appr
ent
is
sagepourl
esr
se
auxmul
ti
couc
hesdet
ypepe
rce
ptr
on.
L
ann
e1986 a vul
appa
rit
iond
el
alg
ori
thmeder
tr
opropagat
iondel
er
reurpubl
i par
Rume
lha
rt,Hi
ntone
tWi
ll
iams
rre
urquipe
rme
td
opt
imi
serl
espa
ram
tre
sd
unr
se
au de
neurones plusieurs couches, ainsi les recherches sur les rseaux de neurones ont dmarr
fortement, impliquant le succs de cette mthode et son application dans divers domaines [1]
[2].

I.3 Le neurone biologique

I.3.1 Systme Nerveux

Le cerveau humain, est le meilleur modle de la machine, polyvalente incroyablement


r
api
dee
tsur
toutdou
ed
unei
nco
mpa
rabl
eca
pac
itd
aut
o organisation. Son comportement
est beaucoup plus mystrieux que le comportement de ses cellules de base. Il est constitu
d
ungrand nombr
ed
uni
tsbi
olog
ique
sl
me
nta
ire
s(1000 10000 synapse par neurone).

El
ect
rot
ech
niq
ueM
sil
a2006 3
Chapitre I Les Rseaux de Neurones Artificiels

Les cellules nerveuses appeles " neurones ", sont les lments de base du systme nerveux
central. Elles sont constitues de trois parties essentielles : le corps cellulaire, les dendrites et
l
axonefigure (I.1) [1][2].

I.3.1.1 Le corps cellulaire


Il contient le noyau du neurone et effectue les transformations biochimiques ncessaires
la synthse des enzymes et des autres molcules qui assurent la vie de neurone. Sa forme est
pyramidale ou sphrique dans la plupart des cas, elle dpend souvent de sa position dans le
cerveau. Ce corps cellulaire fait quelques microns de diamtre [3].
I.3.1.2 Les dendrites
Chaque neurone possde une chevelure de dendrites. Celles-ci sont de fines extensions
t
ubul
air
es,deque
lque
sdi
xi
mesdemi
cronsdedi
am
tree
td
unel
ong
ueurde quelques
dizaines de microns. Elles sont les rcepteurs principaux du neurone qui servent capter les
signaux qui lui parviennent [3].
I.3.1.3 L
axone
L
axone
,quie
stpr
opr
eme
ntpa
rle
rlaf
ibr
ene
rve
use
,se
rtdemoy
endet
rans
por
tpour
les signaux mis par le neurone. Il se distingue des dendrites par sa forme et par les proprits
de sa membrane externe. En effet, il est gnralement plus longue que les dendrites, et se
ramifie son extrmit, l o i
lcommuni
que a
vecl
esa
utr
esne
urone
s,a
lor
sque l
es
ramifications des dendrites se produisent plutt prs du corps cellulaire.
Pour former le systme nerveux, les neurones sont connects les uns aux autres suivant des
rpartitions spatiales complexes. Lat
rans
mis
sione
ntr
ede
uxne
urone
sn
estpa
sdi
rec
te.Enfait,
ul
il existe un espace intercell a
ired
eque
lque
sdi
zai
nesd
Angstrom (10-9 m) ent
rel
axonedu
neurone et les dendritesd
una
utr
eneurone. La jonction entre deux neurones est appele la
synapse [1][3].

Figure (I.1) Le neurone biologique

El
ect
rot
ech
niq
ueM
sil
a2006 4
Chapitre I Les Rseaux de Neurones Artificiels

I.4 Le neurone formel

I.4.1 Dfinition

Le neurone formel est le modle mathmatique du neurone biologique. Il fait la somme


pondre de ses entres, s
uivi
ed
unenonl
in
ari
t(
l
mentdedcision pour les classifieurs)
a
ppe
lef
onc
tiond
act
iva
tionou fonction de seuil.
Le
sent
re
sd
unne
urones
onts
oitd
ese
ntr
ese
xte
rne
s,s
oitde
ssor
ti
esd
autres neurones [4].
Les
ch
mad
unne
uronef
orme
l est donn par la figure (I.2)

+1
Ei1
Wi1 Wi 0
Oi f
Li
Ei 2


Wi 2

LI f

Sortie


E
in

Win
Entre Poids

Figure (I.2) Sc
hmad
unne
uronef
orme
l

Le choix de la fonction d'activation dpend de l'application [1].

I.4.2 Principe de fonctionnement

L
qua
tiondes
ort
ieOi du neurone i est donne par :

Oi f
Li (I.1)

Li Wijk Eij Wiok (I.2)

Les coefficients de pondration Wij sont appels coefficients synaptiques

Souvent, il y a un paramtre additionnel Wi0, ce terme est considr comme la valeur du seuil
interne du neurone [4].

El
ect
rot
ech
niq
ueM
sil
a2006 5
Chapitre I Les Rseaux de Neurones Artificiels

I.4.3 Fonc
tiond
activation

C
estunef
onc
tion prsente gnralement par une non linarit appele aussi fonction
de seuil. Elle permet de d
fini
rl
ta
tint
ernedune
uronee
n fonction de son entre totale

Les fonctions les plus souvent utilises sont reprsentes par la figure (I.3) [11].

f
f

s
s s

(b) Fonction sigmode f


1
(a) Fonction linaire avec seuil s
1 e S

f
f +1

s s

-1
1 e S
(c) Fonction a seuils multiples (d) Fonction sigmode f
s
1 e S

(f) Fonction de stochastique

El
ect
rot
ech
niq
ueM
sil
a2006 6
Chapitre I Les Rseaux de Neurones Artificiels


+1

s s
s
(e) Fonction de Heaviside (g) Fonction linaire sans saturation

i
Figure (I.3) Les diffrentes formes de la fonctond
act
iva
tion

Tout
esl
esf
onc
tionsd
act
iva
tionutilis
esdoi
vent
tredi
ff
re
nti
abl
es,c
arl
ar
chi
tec
tur
edu
r
se
audene
urone
sl
impos
epourq
uel
appr
ent
is
sages
oitpos
sibl
e[11].

I.5 Proprits des rseaux de neurones

L
int
r
tpor
ta
ujour
dhuia
uxr
se
auxde neurones tient sa justification dans quelques
pr
opr
it
si
nt
res
sant
esqu
il
spos
sde
nte
tquide
vra
ientpe
rme
ttr
eded
pas
serl
esl
imi
tat
ions
del
i
nfor
mat
iquet
radi
ti
onne
lle
,ta
nta
uni
vea
upr
ogr
amma
tionqu
auni
vea
uma
chi
ne[6].

I.5.1 Le paralllisme

Ce
tt
enot
ions
esi
tuel
aba
sedel
ar
chi
tec
tur
ede
sr
sea
uxdene
urone
scons
id
rs
c
omme e
nse
mbl
e d
ent
it
s
lme
nta
ire
s travaillant simultanment. Avec l
t
ude du
fonctionnement des rseaux de neurones, on pourrait aboutir des nouvelles techniques de
formalisation de problme qui permettraient de les traiter en parallle [6].

I.5.2 Lac
apac
itd
ada
pta
tion

is
Celle-c ema
nif
est
epa
rlac
apa
cit
d
appr
ent
is
sagequipe
rme
tdet
eni
rcompt
ede
s
nouvelles contraintes ou des nouvelles donnes du monde extrieur. Certains rseaux se
c
ara
ct
ris
enta
uss
ipa
rle
urc
apa
cit
d
aut
oor
gani
sat
ionquia
ssur
ele
urs
tabi
li
te
nta
ntque
systmes dynamiques capables de tenir compte des situations non encore connues [6].

I.5.3 La mmoire distribue

Da
nsl
esr
se
auxdene
uron
es,l
am
moi
rec
orr
espondunec
art
ed
act
iva
tionde
neurones. Cette carte est en quelque sorte un codage du fait mmoris ce qui attribue ces

El
ect
rot
ech
niq
ueM
sil
a2006 7
Chapitre I Les Rseaux de Neurones Artificiels

r
se
auxl
ava
nta
geder
si
st
era
uxbr
uit
s(pa
nne
s)c
arl
ape
rted
unlment ne correspond pas
l
ape
rted
unf
aitm
mor
is[6].

I.5.4 La capacit de gnralisation

Cette capacit est important s


urt
outda
nsl
eca
sol
acons
ti
tut
ionder
ecue
ilsd
expe
rti
se
pour un systme expert devient difficile (reconnaissance intuitive ou implicite). Les rseaux
neuronaux peuvent apprendre retrouver des rgles partir des exemples [6].

I.6 Architectures des rseaux de neurones


Il existe deux grands t
ype
sd
arc
hit
ect
ure
s de rseaux de neurones :

Les rseaux statiques non rcurrents et les rseaux dynamiques rcurrents [4].

I.6.1 Les rseaux statiques


Da
nsunr
se
auxs
tat
iqueounonr
cur
rent,l
asor
ti
ed
unne
uronenepe
utpa
st
re
injecte ni directement son entre ni indirectement trave
rsd
aut
resneurones ;c
es
t- dire
qu
unes
ort
iec
our
ant
en
aauc
unei
nfl
uenc
esurl
ess
ort
iesf
utur
es.Da
nsc
eca
s,l
asor
ti
edu
r
se
aue
stobt
enuedi
rec
teme
nta
pr
sl
appl
ica
tiondus
igna
ld
ent
re l
inf
orma
tioncircule
dans une seule direction ;del
ent
revers la sortie.

Les rseaux statiques ralisent des transformations non linaires de la forme :

Y f [x] Ou x R m et Y R n , m et n sont les dimensions duve


cte
urd
ent
rexe
tdu
vecteur de sortie Y respectivement.

Les neurones qui ne sont pas des sorties du systme sont appels neurones cachs
(neurones invisibles dans la sortie). da
nsl
ar
chi
tec
tur
ela plus gnral
e,l
ent
redec
haque
neurone est connecte toutes les sorties des neurones prcdents mais , la plupart des
rseaux de neurones statiques utiliss , sont organiss en plusieurs couches de neurones ,
appels rseaux multi couches aux perceptrons multi couches.

Un rseau multi couches comporte : unec


ouc
hed
ent
re
,uneou plusieurs couches
caches et une couche de sortie.

Da
nsu
nte
lr
sea
ux,l
asor
ti
edec
haquene
uroned
unec
ouc
hel e
stc
onne
ct
el
ent
rede
chaque neurone de la couche suivant l+1.

L
arc
hit
ect
ure d
unt
elr
seau est donne par la figure (I.4) [4].

El
ect
rot
ech
niq
ueM
sil
a2006 8
Chapitre I Les Rseaux de Neurones Artificiels

Entre Sortie

Couche intermdiaire dite cache

Figure (I.4) For


med
unr
se
aunonbouc
l

I.6.2 Les rseaux dynamiques

Ces rseaux, appels aussi rseaux rcurrents, sont organiss de telle sorte que chaque

neurone reoit sur ses entres une partie ou la totalit de lta
tdur
se
au(sortie des autres
neurones) en plus des informations externe
s.Pourl
esr
se
aux r
cur
rent
sl
inf
lue
nce entre les
ne
urone
ss
exe
rceda
nsl
esde
uxs
ens
.L
ta
tgl
oba
ldur
se
aud
pend aussi de ses tats
prcdents. L
qua
tiondune
urone
,da
nsc
eca
s,e
std
cri
tepa
rde
squa
tionsdi
ff
re
nti
ell
es
ou aux diffrences. Un exemple de rseaux dynamiques est donn par la figure (I.5) [4].

Figure (I.5) For


med
unr
se
aubouc
l

I.7 Quelques modles des rseaux de neurones

Cette partie est consacre une prsentation des modles connexionnistes


incontournables. Ces modles refltent les diffrentes topologies des rseaux de neurones
dans le sens o la grande majorit des rseaux classiques [7].

El
ect
rot
ech
niq
ueM
sil
a2006 9
Chapitre I Les Rseaux de Neurones Artificiels

I.7.1 Modle de Kohonen


Ler
se
audeKohone
nes
tunr
se
audene
urone
sdontl
apa
rti
cul
ari
te
std
agi
rent
ant
que compresseur de donnes, en conservant uniquement les informations caractrisant

L
obj
etp
rs
ent
aur
se
aus
anspe
rtei
mpor
tant
e d
inf
orma
tion.Une
limi
nat
ion de
s
Pa
ram
tre
scor
rl
ss
ef
fec
tue
.Ene
ffe
t,s
aca
pac
itdec
ons
erva
tiont
opol
ogi
quepe
rme
tune
rduction des donn
esdel
ent
res
elonl
enombre de neurone formant le rseau [5].

Ce modle a t prsent par Kohonen en 1982 en se basant sur des constatations biologiques
Il a pour objectif de prsenter des donnes complexes et appartenant gnralement une
espace discret de grandes dimensions dont la topologie est limite une ou deux dimensions.

Le
sca
rte
sdeKohone
nsontr
al
is
espa
rti
rd
unr
se
aude
uxc
ouc
hes
,unee
nent
ree
t
une en sortie.

Not
onsquel
esne
urone
sdel
aco
uched
ent
res
onte
nti
re
mentconnects la couche de
sortie figure (I.6) [13].

X1 S1

X2 S2


Xn Sn

Figure (I.6) Le modle de Kohonen

Le
sne
urone
sdel
acouc
hedes
ort
ies
ontpl
ac
sda
nsun e
spa
ced
uneoudede
ux
dimensions en gnral, chaque neurone possde donc des voisins dans cet espace. Et enfin
chaque neurone de la couche de sortie possde des connexions latrales rcurrentes dans sa
couche. Le neurone inhibe les neurones loigns et laisse agir les neurones voisins.

I.7.2 Modle de Hopfield

Les modles de Hopfield reprsentent une architecture plus historique que pratique. Ils
sont importants car apparus un tournant de l'histoire du connexionnisme. Ils sont considrs
comme la base de son redmarrage. En revanche ils ne sont quasiment plus utiliss dans leur

El
ect
rot
ech
niq
ueM
sil
a2006 10
Chapitre I Les Rseaux de Neurones Artificiels

version de base en raison de leur cot en terme de temps de calculs et de leurs relativement
faibles performances [7].

I.7.2.1 L'architecture

Les modles connexionnistes de Hopfield sont constitus de neurones formels de type


Mc Culloch et Pitts, totalement connects entre eux. Tous les neurones de cette architecture
sont la fois neurone d'entre et neurone de sortie du rseau. La spcificit de ce rseau
rside dans une recherche permanente, pour chacun des neurones du rseau, d'un tat stable
[7].

Formellement, comme la montre la figure (I.7), un rseau de Hopfield est un rseau


rcurrent, chacun des neurones du rseau tant connect tous les autres, mais pas lui-
mme. Les neurones disposent de sorties binaires (+1 ou -1), et les interconnexions entre les
neurones sont symtriques (Pour tous les neurones i et j, wij = wji) [7].

S1 S2 Sn-1
Sn

O1 O2 On-1 On

X1 X2 Xn-1 Xn

Figure (I.7) Rseau de Hopfield

Un neurone est li tous les autres, les liaisons sont symtriques, un neurone n'est pas li
lui-mme et un seul neurone est actualis par itration. Chaque neurone est la fois neurone
d'entre et de sortie du rseau [7].

El
ect
rot
ech
niq
ueM
sil
a2006 11
Chapitre I Les Rseaux de Neurones Artificiels

I.7.3 Le Perceptron

Le Perceptron a t dvelopp par Roseblatt en 1950 pour rsoudre, l


ai
dede
s
neurones de Mc Culloch et Pitts, les problmes de la vision humaine.

I.7.3.1 Structure du Perceptron

L
architecture g
n
ral
ed
unPe
rce
ptr
onc
ommed
cri
tenfigure (I.8) comprend trois
lments principaux :
I.7.3.1.1 Rtine

La premire couche, compose de la rtine, comprend plusieurs cellules qui jouent le


rle de capteurs. Elle reoit les exemples ou formes classer. Chaque lment de la rtine
peut tre considr comme un pixel prenant des valeurs binaires 1 et 0

I.7.3.1.2 Couche d
ass
oci
ati
on
La deuxime couche d
ass
oci
ati
on e
stc
ompos
edec
ell
ule
sassociatives qui sont
connectes totalement ou de faon alatoire aux cellules de la rtine, Ces cellules
d
ass
oci
ati
onsAj s
ontdo
te
sdef
aonsd
ass
oci
ati
onh qui peuvent par exemple raliser des
fonctions boolennes ou bien utiliser des fonctions linaires. Dans le perceptron, les
fonctions hi, i=1,2,.N s
ontd
ter
min
esl
ava
ncee
tel
lesr
est
entf
ixe
spe
nda
ntl
aphase
d
appr
ent
is
sage
.Las
ort
ieXj del
ace
llul
ed
ass
oci
ati
onAj est transmise la cellule de
dcision de Pi aprs avoir t pondre par le coefficient ajustable Wij,

I.7.3.1.3 Couche de cellule de dcision


La cellule de dcision est un automate seuil de fonction de transfert fi qui dlivre la
sortie binaire Si. La combinatoire de toutes les configurations possibles est presque infinie si
l
oni
nfl
ues
url
esc
onne
xionse
tlana
tur
ede
sfonc
tionsf et h [11][15].

Couche de dcision
Rtine Couche d
ass
oci
ati
on

Figure (I.8) Sc
hmad
unPe
rce
ptr
on

El
ect
rot
ech
niq
ueM
sil
a2006 12
Chapitre I Les Rseaux de Neurones Artificiels

I.7.4 Modle Adaline


Au dbut des annes 60 B. Widrow et M.E. Hoff ont propos un systme adaptatif
qu
il
sonta
ppe
lAda
line(
del
ang
lai
sADApt
iveLI
Nea
rEl
eme
nt)

Las
truc
tur
edel
Ada
line di
ff
redu pe
rce
ptr
on pa
rl
uti
li
sat
iond
unes
eul
ece
llul
e
d
ass
oci
ati
one
tl
uti
li
sat
iond
unef
onc
tiondes
eui
ldi
ff
re
ntdec
ell
edeHe
aviside (-1 et t+1).
Depl
us,i
lut
il
is
euna
lgor
it
hmea
dapt
ati
fpourme
sur
erl
c
art
eent
rel
asor
ti
er
ell
eetl
a
s
ort
iedupr
oce
sse
ur
lme
nta
ire
.Les
ch
madel
Adaline est reprsent en

figure (I.9). Le plus souvent, les entres sont binaires et la rponse souhaite est galement
binaire

L
Ada
linee
stl
ese
ulr
se
audene
urone
sar
ti
fi
cie
lsut
il
is
ma
ssi
veme
ntd
ansl
i
ndus
tri
e,Ce
circuit est en effet utilis dans la tlcommunication pour amliorer le signal sur bruit en
t
prenant en compte la variaiondel
i
mp
danc
ede
sdi
ff
re
nte
sli
gne
st
lphoni
que
s[11].

j N
S W j X j
X0 j 0

W0 S Y
X1
W1
Xn

Wn -
Yd Sortie dsire
+

Rgle
dap
prentiss
ag
e
Si
gnald
err
eur

Figure (I.9) Sc
hmadepr
inc
ipedel
ada
line

I.8 Apprentissage des rseaux de neurones


On peut considrer les rseaux de neurones comme une boite noire contenant
l
i
nfor
mat
ionqu
ell
edoi
tappr
endr
eetm
mor
ise
r.Mais au dmarrage lorsqu
on choisit notre
rseau, la boite noire est vide et ne contient aucune information, ni aucune connaissance sur
s
ons
uje
t,c
es
tpour
quoiun apprentissage est ncessaire.L
ens
eig
neme
ntquedoi
tsubi
rle

El
ect
rot
ech
niq
ueM
sil
a2006 13
Chapitre I Les Rseaux de Neurones Artificiels

rseau de neurones est un apprentissage qui est une phase du dveloppement d'un rseau de
neurones durant laquelle le comportement du rseau est modifi jusqu' l'obtention du
comportement dsir. L'apprentissage neuronal fait appel des exemples de comportement

L
appr
ent
is
sage des rseaux de neurones consiste adapter ses diffrents paramtres
(
poi
ds)d
apr
suna
lgor
it
hmei
tr
ati
f d
ajus
teme
ntoud
ada
pta
tionl
uipe
rme
tta
ntdepr
endr
e
en considration toutes les donnes (exemples) qui lui sont fournies son entre et ainsi
a
jus
ters
espa
ram
tre
spourt
rouve
rlej
ust
emi
li
eupe
rme
tta
ntdepr
endr
eenc
har
gen
impor
te
quel exemple ou donne apparaissant son entre provenant de son environnement [1][2].

Le
sal
gor
it
hme
sd
appr
ent
is
sage
sdonne
ntde on leur fournit des
s meilleurs rsultats lorsqu
exemples multiples et varis ; ainsi le rseau peut assimiler toutes les connaissances. Il existe
di
ff
re
nter
gl
esd
appr
ent
is
sag
eparmi les quelles on peut distinguer [1]:

- la rgle de Widrow-Hoff, la rgle de Hebb, la rgle du perceptron et la rgle de


Grossberg, etc...

I.8.1 Apprentissage supervis


Les rseaux multicouches avaient dj t dfinis par Rosenblatt, mais on ne savait pas
comment f
air
el
appr
ent
is
sag
e.Ave
clad
couve
rtedel
al
gor
it
hmeder
tr
opr
opa
gation de
l
er
reur(
RP)pa
rRume
lha
rt,on ac
omme
ncf
air
edel
appr
ent
is
sag
ede
sr
sea
ux de
ne
urone
smul
ti
couc
hespa
rti
rd
exe
mpl
es.Ce
ttem
thodeded
ter
mina
tionde
spoi
dse
st
appele apprentissage supervis [8].

L'apprentissage supervis, repose sur le fait que les exemples sont des couples (entre,
.C
sortie dsirer) estdi
requel
ons
uppos
el
exi
st
enc
ed
une
xpe
rtquipr
ende
ncha
rgel
a
sortie de notre rseau en lui fournissant une sortie dsire et les associes aux sorties relles
rl
fournies pa er
se
aud
apr
sl
esdonn
esl
ent
re
.Ler
se
aua
dapt
ese
spa
ram
tre
sen
fonction de la diffrence qui existe entre la sortie relle et la sortie dsire en prenant compte
det
ousl
ese
xempl
esdel
envi
ronne
ment[1][2].

El
ect
rot
ech
niq
ueM
sil
a2006 14
Chapitre I Les Rseaux de Neurones Artificiels

Superviseur

Erreur

Rseaux de
neurones

Figure (I.10) Illustration del


appr
ent
iss
ages
upe
rvi
s

I.8.2 Apprentissage non supervis


La diffrence majeure e
ntr
el
appr
ent
is
sages
upe
rvi
se
tnons
upe
rvi
spe
uttre rsume
da
nsl
efa
itquel
ede
uxi
met
yped
appr
ent
is
sagee
sta
utodi
dac
tequi n
apa
sbe
soi
nd
expe
rt
i
pour le guider adapter ses paramtres qulnedi
spos
equede
sva
leur
sent
re
. Remarquons
cependant que les modles d
apprentissage non supervis ncessitent avant la phase
d'utilisation une tape de labellisation effectue par l'oprateur, qui n'est pas autre chose
qu'une part de supervision [1][2].

Rseaux de
neurones Sortie

Figure (I.11) I
ll
ust
rat
iondel
appr
ent
iss
agenons
upe
rvi
s

I.9 Le Perceptron multi couche


Co
mmenousl
avonsd
jdi
t le cerveau humain est compos de millier et des milliers
ntqu
de neurones, alors il est vide uns
impl
ene
uroneet seul ne peut rien faire lui tous seul
il l
uif
autl
acoop
rat
iond
aut
resne
urone
s.Ens
uiva
ntc
er
sonne
menti
les
tvi
dentqu
il
vaut trouver une architecture qui relie les neurones entre eux, qui cre une liaison entre les
neurones pour crer un rseau de neurones.

El
ect
rot
ech
niq
ueM
sil
a2006 15
Chapitre I Les Rseaux de Neurones Artificiels

En s
ins
pir
antdu pe
rceptron monocouche, une architecture plus complexe englobant
plusieurs neurones a t mise au point.

Cette nouvelle architecture est le perceptron multicouches (ou MLP pour Multi Layer
Pe
rce
ptr
one
nang
lai
s).L
appa
rit
iondec
ett
ear
chi
tec
tur
eape
rmi
s de rsoudre les problmes
de classification non linaire du perceptron et de dpasser les limites principales de celui-ci.

L'ide principale est de grouper des neurones dans une couche. En plaant ensuite bout
bout plusieurs couches et en connectant compltement les neurones de deux couches
adjacentes. Les entres des neurones de la deuxime couche sont donc en fait les sorties des
neurones de la premire couche [1][13].

I.9.1 Architecture

+1 +1 +1
w110 w210 wL10 yj

x01 w111 F(.) x11 w211


F(.) x21 wL11
F(.)
yL1 xL1

+1 +1 +1

x02 F(.) x12 F(.) x22 F(.) xL2



yL2
. . .
w1N2
. . .
. . .
+1 +1 +1
w11N
x1N
F(.) F(.) x2N F(.) xLN
x0N
w1NN yLN
Entres Couche 1 Couche 2 Couche L Sorties

Figure (I.12) Architecture de rseaux multi couche

El
ect
rot
ech
niq
ueM
sil
a2006 16
Chapitre I Les Rseaux de Neurones Artificiels

I.10 Mthode de rtropropagation


l
La rtropropagation est actueleme
ntl
out
ill
epl
usut
il
is
dans le domaine des rseaux
dene
urone
s.C
estunet
echni
quedec
alc
ulde
sd
riv
esquipe
ut
trea
ppl
iqu
en
impor
te
quelle structure des fonctions drivables [4].

L
ann
e1986 a vul
a i
ppart
iondel
al
gor
it
hmeder
tr
opr
opa
gat
iondel
er
reurpubl
i par
Rume
lha
rt,Hi
ntone
tWi
ll
iams
rre
urquipe
rme
td
opt
imi
serl
espa
ram
tre
sd
unr
se
au de
neurones plusieurs couches [1].

I.10.1 Introduction

Le d
vel
oppe
ment d
alg
ori
thme
s d
appr
ent
is
sag
esupe
rvi
s pour l
esr
se
aux
multicouches se heurte au problme de calcul des erreurs de sortie pour les neurones cachs.

Ene
ffe
t,l
esne
urone
sca
ch
sn
ontpa
sunr
lepr
d
fini
,c
estl
appr
ent
is
sag
equil
es
utilise sa convenance pour former des reprsentations internes, c
aus
edel
abs
enc
ed
une
rgle d
appr
ent
is
sage convenable, les perceptrons taient limits une seule couche pendant
plusieurs annes, mais ce type de perceptron ne peut rsoudre que les problmes dont les
donnes sont linairement sparables. Les limitations du perceptron ont t leves par la
dcouve
rtedel
al
gor
it
hmeder
tr
opropagation qui a permis de rsoudre le problme de
calcul des erreurs associes aux neurones cachs. Les applications de cet algorithme ont
connu un succs spectaculaire et ses performances taient quelques fois surprenantes.

Malgr sa complexit apparente, la mthode de rtropropagation n


estqu
unet
echni
que
s
impl
esma
ise
ffi
cac
edec
alc
uld
esd
riv
esd
unee
nti
tpa
rra
ppor
tl
ensemble de ses
e
ntr
es
.El
lepe
ut
trea
ppl
iqu
en
impor
teque
lsy
st
mec
ompos
depl
usi
eur
ssous
-
systmes lmentaires qui peuvent tre reprsents par des fonctions connues, continues et
drivables [4].

I.10.2 Equations du rseau

Avant de dfinir la rgle d


appr
ent
is
sage
,ondoi
td
fini
rlar
ela
tione
ntr
ele
ssor
ti
esdu
r
se
au,d
unepa
rt,e
tle
sent
re
setl
espoi
ds d
aut
repa
rt.Onc
ons
id
reda
nsc
equis
uitl
es
rseaux non rcurrents multicouches.

El
ect
rot
ech
niq
ueM
sil
a2006 17
Chapitre I Les Rseaux de Neurones Artificiels

Pour un rseau multicouches M entres et N sorties, compos de L couches (couches


caches et couche de sortie), les tats des neurones sont donns par les quations suivantes :

nk 1
S ik Wijk O kj 1 (t ) i = 1,2, n k ; k = 1,2,L (I.4)
j 0

Avec :

O0k (t ) 1 k=0, 1,2, L (I.5)

Oi0 (t ) X i (t ) i = 1,2,, m (I.6)

yi (t ) OiL (t ) i =1,2,, n (I.7)

S (t )f
nk 1
Oik (t ) f k
i
k
W


k k
ij O kj 1 (t )
(I.8)
j 0

Avec pour la couche k : fk (.) e


stl
afonc
tiond
act
iva
tion,nk est le nombre de neurones, Oik (t)

est la sortie du neurone i, Wijk est le coefficient synaptique de la connexion entre le neurone i

de la couche k et le neurone j de la couche prcdente (k-1). Wi 0k est le seuil adaptable du

neurone i . Yi (t) et X i (t) sont les iemes composant e


sduve
cte
urd
ent
rex (t)

Et du vecteur de sortie Y (t) respectivement.

Laf
onc
tiond
act
iva
tiong
n
ral
eme
ntc
hoi
si
ees
tlaf
onc
tions
igmo
de:

1 e x
F(x) = (I.9)
1 e x

I.10.3 Principe du rtropropagation

L
objectif de la mthode de rtropr
opa
gat
ion e
std
ada
pte
r les paramtres Wijk de faon

minimiser la valeur moyenne del


er
reurs
url
ens
embl
ed
ent
ra
neme
nt. La fonction cot la
plus utilise est donne par :

1 T 1 T
E E (t ) [Y d (t ) Y (t )] 2 (I.10)
2 t 1 2 t 1

El
ect
rot
ech
niq
ueM
sil
a2006 18
Chapitre I Les Rseaux de Neurones Artificiels

O Y d est le vecteur de sortie dsire, Y le vecteur de sortie du rseau et T la longueur de


l
ens
embl
ed
appr
ent
is
sag
e.Ce
penda
nt,da
nsque
lque
ssi
tua
tionsd
aut
resc
rit
re
sd
err
eur
uve
pe nt
trepl
usa
ppr
opr
is
.L
appr
ochel
apl
usut
il
is
epourl
ami
nimi
sat
iondel
afon
cti
on
E est base sur les mthodes de gradient.

Onc
omme
ncel
ent
ra
neme
ntpa
runc
hoi
xal
at
oir
ede
sva
leur
sinitiales des poids. On
prsente l
epr
emi
erve
cte
urd
ent
re
.Unef
oisl
asor
ti
edur
se
au,l
er
reurc
orr
esponda
ntee
t
le gradient de l
er
reurpa
rra
ppor
tt
ousl
espoi
dsest calcule, les paramtres sont ajusts
da
nsl
adi
rec
tionoppos
ec
ell
edug
radi
entdel
er
reur
.Onr
efa
itl
am
mepr
oc
dur
epour
tous l
ese
xempl
esd
appr
ent
is
sage
.Cepr
oce
ssuse
str
p
tj
usqu
cequel
ess
ort
iesdu
rseau soient suffisamment proches des sorties dsires.

I.10.4 Adaptation des poids

Pour un ensemble de poids donn, il est facile de calculer la sortie Y (t ) e


tl
err
eurE (t)

correspondant une entre X (t), en utilisant les quations (I.4)-(I.10). Les paramtres du
rseau sont alors ajusts par la mthode de gradient en utilisant la formule itrative :

Wijk (n) Wijk (n 1) Wijk (n) (I.11)

E
Wijk (n) k (I.12)

Wij (n)

Ou est un constant appel f


act
euroupa
sd
appr
ent
is
sag
e.n Est l
enum
rodel
i
tr
ati
on.

La vitesse de convergence dpend de la constant .

Sa valeur est gnralement choisie exprimentalement. Si est trop petit la convergence est
lente mais la direction de descente est optimale. Si est trop grand la convergence est
r
api
dema
isl
apr
ci
si
one
stm
dioc
re,unph
nom
ned
osc
ill
ati
oni
nte
rvi
entd
squ
on
v
approche du minimum. La dri edel
er
reurE par rapport au poids Wijk (n) est donne par :

E T
E (t )

Wij (n) t 1
k
Wijk (n)
(I.13)

El
ect
rot
ech
niq
ueM
sil
a2006 19
Chapitre I Les Rseaux de Neurones Artificiels

Avec

E (t )
ik (t )Oik 1 (t ) (I.14)
Wij (n)
k

O ik (t ) e
stl
er
reurquivalente la sortie du neurone i de la couche k, pour les neurones des
couches de sortie :

i1 (t ) f 1 '[ S i1 (t )][Yi d (t ) Yi (t )] (I.15)

Pour les neurones des couches caches :


nk 1
ik (t ) f k '[ S ik (t )]jk 1 (t )Wijk 1 (n) (I.16)
j
1

s
Pour minimierl
er
reurtotale E s
url
ens
embl
ed
ent
ra
neme
nt,l
espoi
dsdur
se
audoi
vent
tre ajusts aprs la reprsentation de tous les exemples. Cependant on peut ajuster les poids
aprs la reprsentation de chaque exemple, les corrections sont assez faibles et la
minimisation de E (t) est une bonne approximation de la minimisation de E,l
qua
tion(
I.12)
est remplace par :

E (t )
Wijk (n) k (I.17)

Wij (n)

Alors on :

Wijk (n 1) Wijk (n) ik Oik 1 (I.18)

El
ect
rot
ech
niq
ueM
sil
a2006 20
Chapitre I Les Rseaux de Neurones Artificiels

I.10.5 Algorithme

Etape 1: Initialiser les poids Wij et les biais des neurones des petites valeurs alatoires.

Etape 2: Prsenter le vecteur d'entre et de sortie dsirs correspondants.


Etape 3: Calculer :
1- La somme des entres des neurones d'une couche cache : Eq.(I.4).
2- Les sorties des neurones de la couche cache : Eq.(I.8).
3- La somme des entres de la couche de sortie : Eq.(I.4).
4- Les sorties du rseau : Eq.(I.8).
Etape 4: calculer :
1- Le
ste
rme
sdel
er
reurpourl
esne
urone
sdel
acouc
hedes
ort
ie: Eq.(I.15)
2- Le
ste
rme
sdel
er
reurpourl
esne
urone
sdel
acouc
hec
ach
e: Eq.(I.16)
Etape 5 : Ajuster :
1- Les poids de la couche de sortie et la couche cache: Eq.(I.18)
Etape 6 : Si la condition sur l'erreur ou sur le nombre d'itration est atteinte, aller l'tape 7,
si non revenir l'tape 3 jusqu' la stabilisation du systme.
Etape 7 : Fin.

I.10.6 Te
chni
que
sd
acc
l
ration de la rtropropagation

Sibi
enquel
al
gor
it
hmeder
tr
opr
opa
gat
ions
oitl
al
gor
it
hmel
epl
usut
il
is
pou
r
l
appr
ent
is
sage supervis des rseaux multicouche son implantation se heurte aux plusieurs
di
ff
icul
tst
echni
que
s.I
ln
exi
st
epa
sdem
thode
spe
rme
tta
ntde:

- Trouver une architecture approprie (nombre de couches caches, nombre de neurones


cachs et connexions).

- Choisir une taille et une qualit adquate des exemples d


entranement, choisir des valeurs
initiales satisfaisantes pour les poids, et des valeurs convenables pour les paramtres
d
appr
ent
is
sage(
fac
teurd
appr
ent
is
sage
)pe
rme
tta
ntd
acc
l
rer la vitesse de convergence.

- viter l
ese
ffe
tsdel
ent
ra
neme
nt(dgradation des performances due un entranement
prolong) et la convergence vers un minimum local.
Pour trouver une architecture approprie (nombre de neurones cachs), Ash a propos une
a
ppr
oched
addi
ti
oni
nte
rac
tive de neurones dans la quelle on ajoute des neurones aux couches
c
ach
espe
nda
ntl
appr
ent
is
sag
e.Un ne
uronee
sta
jout
cha
quef
oisquel
er
reurs
est
abi
li
se

El
ect
rot
ech
niq
ueM
sil
a2006 21
Chapitre I Les Rseaux de Neurones Artificiels

unni
vea
uina
cce
pta
ble
.Ce
ttet
echni
ques
appe
llel
ate
chni
quedec
ra
tiondy
nami
quede
neurones (DNC : Dynamic Node Creation).
Pour viter le problme des oscillations,be
auc
oupd i
auteurs modifentl
al
gor
it
hmee
nlui
ajoutant un moment
Lal
oid
ada
pta
tionde
vie
nt:

Wijk (n 1) Wijk (n) Wijk (n) Wijk (n) (I.19)

Wijk (n 1) Wijk (n) ik Oik 1 (Wijk (n) Wijk (n 1)) (I.20)

Avec
0 1

I.11 Le minimum local

Le fait que l'apprentissage utilise un principe de descente de gradient sur la surface


d'erreur pour modifier les poids. Malheureusement il est possible de tomber dans des
minimums locaux. Le rseau de neurones est une mthode qui se base sur le calcul de la
s
urf
aced
er
reur
.Laf
ormeobt
enued
apr
sl
qua
tion del
er
reure
sts
ousf
ormed
une
c
onve
xee
tenc
her
cha
ntmi
nimi
serl
er
reur
,las
olut
iont
endve
rsl
emi
nimum.Lepr
obl
me
quis
epos
eda
nsc
eca
s,c
es
tqu
ilpe
utya
voi
runoupl
usi
eur
smi
nimu
ms locaux induisant
ainsi notre rseau en erreur [9][10][16] vue que si on a deux rseaux avec les mme
paramtres, i
lsepe
utquel
appr
ent
is
sag
edel
uns
oitme
ill
eurquec
eluidus
econd[
9].

i
Des mthodes sont suivre afnd
vi
terl
esmi
nimal
oca
ux:

- Mod
ifi
erl
epa
sd
appr
ent
is
sag
edur
se
aupourpousser le rseau hors des minima locaux.

- R
dui
rel
espoi
dsdu r
se
au pa
runepe
tit
equa
nti
tc
haquepa
sd
appr
ent
is
sag
e.
L
act
iva
tiond
unne
urones
atur
equa
nds
esl
ienspos
sde
ntdet
ropg
randspoi
dss
yna
pti
que
s.
Cepr
obl
mee
stdi
ff
ici
ler
soudr
elor
sdel
appr
ent
is
sag
e,c
arl
esva
leur
sd
act
iva
tion
extrmes se traduisent souvent au niveau de la rtro-propagation par de petites corrections. Le
rseau se trouve alors dans un minimum local. Rduire systmatiquement tous les poids par
une petite valeur chaque correction contribue garder les petits poids synaptiques, et peut
rsoudre ce problme.

El
ect
rot
ech
niq
ueM
sil
a2006 22
Chapitre I Les Rseaux de Neurones Artificiels

- Re
lan
cerl
appr
ent
is
sagepl
usi
eur
sfoi
senut
il
is
antde
spoi
dsi
nit
iau
xdi
ff
re
nts, ce qui
entrane un temps de calcul plus lev [12].

- Ajouter une dose de bruit alatoire auxpoi


dsdur
se
aux,pui
sre
lanc
erl
appr
ent
is
sag
e,
dans le but de dloger le rseau hors de bassins peu profonds [8][12][13].

dpart alatoire des wi

Fonction d
err
eur

Minimum
local

Minimum
global

Figure (I.13) Courbe explicative du phnomne du minimum local

I.12 Quelques applications des rseaux de neurones

Le
spr
opr
it
sd
appl
ica
tione
td
appr
oxi
mat
ionde
sr
sea
uxdene
urone
sontpe
rmi
sune
importante application de ces derniers dans les diffrentes domaines pratiques, notamment, les
domaines suivants :

I.12.1 Classification des signaux

Classer des signaux dans des catgories diffrentes en fonction des caractristiques de
.
forme (amplitude, frquence, phase, etc..)
,pe
ut
trer
al
is
ai
sme
ntpa
rl
uti
li
sat
iond'
un
rseau de neurones.
Supposons qu'on a deux catgories de signaux A et B et qu'on souhaite classer des formes
dans ces deux catgories en fonction des caractristiques de ces formes.
On peut simplement dfinir la fonction non linaire F qui vaut +1 pour les formes de la
classe A et -1 pour celles de la classe B, le problme de classification revient l
approximation

El
ect
rot
ech
niq
ueM
sil
a2006 23
Chapitre I Les Rseaux de Neurones Artificiels

de la fonction non linaire F qui peut tre rsolue par un rseau de neurones qui possde des
entres et une seule sortie pour fournir la dcision [15].

I.12.2 Applications industrielles

Le
sd
bouc
hsc
omme
rci
auxde
ste
chni
que
sne
urona
les(
enc
hif
fred
aff
air
esoue
npa
rts
dema
rch
)set
rouve
nts
urt
outda
nsde
spr
odui
tsl
ogi
cie
lse
tma
tr
iel
sd
usa
geg
nr
al,e
tpl
us
encore dans des prestations de service, alors que la pa
rtus
agei
nte
rnede
sent
repr
ise
s(c
es
t-
-dire les dveloppement destins amliorer des mthodes ou des produits) est beaucoup
plus difficile estimer. La part de march des applications militaires est importe, et on peut
l
es
ti
mera
ppr
oxi
mat
ive
ment (avec prudence, tant donn que les informations sont
i
nce
rta
ine
s)e
ntr
eunt
ier
setl
amoi
ti
del
ens
embl
e.
Il est difficile de dresser un panorama exhaustif des applications des rseaux de neurones,
pourpl
usi
eur
sra
isons
.D
unepa
rt,l
esa
ppl
ica
tions potentielle de certains types de rseaux
dcrits dans ce chapitre (en particulier les rseaux multicouches) sont si vastes et si diverses
qu
ell
esr
ecouvr
entde
sdoma
ine
str
sva
ri
s,a
yantpa
rai
ll
eur
spe
udec
hos
ese
ncommun.
D
aut
repa
rt,l
ap
nt
rat
ionde
ste
chni
que
sut
il
is
antl
esr
se
auxdene
urone
s,s
eul
soue
n
a
ssoc
iat
iona
vecd
aut
rest
echni
que
s,e
stt
rsi
nga
le,e
tset
rouveda
nsunepha
sed
expa
nsi
on
et de diversification. Enfin, beaucoup des ralisations connues sont plus souvent dans un tat
depr
otot
ypequ
ene
xpl
oit
ati
onv
rit
abl
e.
Pl
uttquedepr
oc
derune
num
rat
iond
exe
mpl
espr
ci
sdontl
avi
abi
li
te
tl
uti
li
sat
ion
relle peuvent tre incertaines ou imprcises, il nous a sembl plus appropri de tenter une
prsentation sommaire en suivant grossirement deux axes diffrents : par classe
d
appl
ica
tion,e
npr
emi
erl
ieu,pa
rdoma
ined
act
ivi
tensuite [16].
Da
nsl
emonde
,ete
npa
rti
cul
iera
uxU.
S.A.
,l
int
r
tpourl
esr
se
auxdene
urone
sa
dmarr plus tt. Ds 1986, de 600 2000 visiteurs participent aux quelques grands congrs
annuels. Au niveau commercial, la figure (I.14) montre que plus de 200 compagnies sont
a
ujour
dhuiimpliques dans des dveloppements d
appl
ica
tionsc
onne
xionni
st
es[1].

El
ect
rot
ech
niq
ueM
sil
a2006 24
Chapitre I Les Rseaux de Neurones Artificiels

1960 1985 1987 Anne

Figure (I.14) Evolution du nombre de compagnies proposant


des produits connexionnistes

I.12.2.1 Reconnaissance de formes statiques

Citons en premier lieu la reconnaissance def


orme
sst
ati
que
s(c
es
t--dire indpendantes
du temps). De faon gnrique, une forme est tout ensemble de grandeurs qui peut se
reprsenter par un vecteur, ayant des composantes homognes ou non. Par exemple, une
image peut tre mi
ses
ousf
ormed
unes
ucc
ess
iondepi
xel
s,r
sul
tantd
unba
lay
age
,oubi
en
un cho sonar peut tre reprsent par une succession de pics frquentiels en fonction de
l
i
nst
antder
etour
,et
c.l
etr
ait
eme
ntd
ima
gespr
oprement dit fait videment partie intgrante
de la reconnaissance de formes en gnral. Des applications civiles (par exemple
reconnaissance de visages) aussi bien que militaires (reconnaissance de cibles) ont t dcrites
avec plus ou moins de dtails. Une des applications les plus tudies consistes dans la
reconnaissance de signes manuscrits, en particulier les chiffres, en vue de la reconnaissance de
codes postaux. Les laboratoires AT & T de Holmdel ont mis au point un systme assez
complexe, ma
ise
ffi
cac
e,dontl
ecure
stunr
se
auc
inqc
ouc
hespoi
dspa
rta
gs
,pr
c
d
d
uns
yst
medepr
tr
ait
eme
nte
tdenor
mal
is
ati
on.Unepa
rti
edec
er
sea
ues
tcons
ti
tu
epa
r
un circuit intgr spcialement conu, contenant quatre des cinq couches, et 130 000
connexions. Les performances atteignent 1000 caractres par seconde pour la puce seule, bien
suprieure celles du systme complet, e
ts
l
vents
eul
eme
nt20 caractres par seconde
pour une i
mpl
ant
ati
ons
urunpr
oce
sse
urpl
usg
n
ral
is
te.D
aut
resr
al
is
ati
ons(
acc
omp
agn
es
ou non de circuits intgrs spcifiques) ont t annonces dans le domaine de la lecture
automatique de caractres imprims, en alphabet romain comme en alphabet japonais [16].

El
ect
rot
ech
niq
ueM
sil
a2006 25
Chapitre I Les Rseaux de Neurones Artificiels

I.12.2.2 Identification et commande de processus

L
ide
nti
fi
cat
ione
tlac
omma
ndedes
yst
me
scompl
exe
s(i
ncl
uantla robotique) sont un
domaine oles rseaux de neurones prennent une place croissante : aide au pilotage de
racteurs chimiques ou de colonnes distiller, c
omma
nded
uneautomobile sans pilote ayant
pour consigne de suivre une certaine trajectoire en terrain accident, commande de niveau de
lingotire dans une acire coule continue, les applications se multiplient. En gnral, elles
ne demandent que des ressources assez modestes, dans la mesure oles temps caractristiques
sont relativement longs : une simple simulation sur micro-ordinateur suffit trs souvent en
pha
sed
expl
oit
ati
on,l
uti
li
tde
sr
sea
uxdene
urone
sseme
sur
e galement dans ce domaine
pa
rl
ass
ez gr
ande r
api
dit
de mi
see
n uvr
e initial
e,c
es
t--di
rel
i
dent
if
ica
tio
n pa
r
apprentissage.
Mentionnons que les techniques de commande logique floue peuvent faire appel aux
rseaux de neurones pourl
appr
ent
is
sage des rgles [16].

I.12.2.3 Application militaires

Bien que naturellement les publications soient relativement rares et que peu de dtails
soient donns, les applications militaires classiques se retrouvent en reconnaissance de
a
cibles, anly
sed
ima
ge,t
rai
teme
ntdes
igna
uxr
ada
rous
ona
r,e
tda
nsunec
ert
aineme
sur
een
r
obot
ique
.Lede
rni
erc
irc
uiti
nt
grd
Int
el(
quie
stunacclrateur de reconnaissance ,
selon ses propres termes) a t financ pour moiti sur crdits militaires, ha
ute
urd
envi
ron
1,5 million de dollars $. Ce circuit implante une architecteur de type RBF (mesure des
distances entre stimulus prototypes), dveloppe par la socit Nestor [16].

El
ect
rot
ech
niq
ueM
sil
a2006 26
Chapitre I Les Rseaux de Neurones Artificiels

I.13 Conclusion

A partir du comportement du cerveau huma


ine
td
unmod
lene
urona
lbi
olog
ique
simple, les chercheurs ont arriv construire des modles neuronaux artificiels plus
complexes. Les rseaux de neurones prsentent donc une trs grande diversit, dans ce
chapitre nous avons expos les rseaux de neurones, en spcifiant leurs dfinitions, les
c
onc
ept
sdeba
sedec
ett
ete
chni
que
,l
appr
ent
issage des rseaux de neurones et ses diffrents
doma
ine
sd
uti
li
sat
ion.
Nous avons prsent une tude sur l
al
gor
it
hmedur
tr
opropagation qui a prouv son
e
ffi
cac
itda
nsl
apr
ati
quea
vecs
esc
apa
cit
sd
appr
ent
is
sag
eetd
ide
nti
fi
cat
ion.
Pour ces raisons, cet algorithme sera la base du travail qui sera prsent dans le prochain
c
hapi
tr
equit
rai
tel
i
dent
if
ica
tione
tlac
omma
ndepa
rle
sr
sea
uxdene
urones.

El
ect
rot
ech
niq
ueM
sil
a2006 27

Vous aimerez peut-être aussi