Académique Documents
Professionnel Documents
Culture Documents
Introduction
52
53
54
55
59
60
3.7 Le Perceptron
63
64
65
66
70
3.12 Conclusion
79
Chapitre Trois
3.1. Introduction
Les rseaux des neurones formels sont des structures la plupart du temps simuls
par des algorithmes excuts sur les ordinateurs dusage gnral, parfois sur des machines ou
mme des circuits spcialiss, qui prennent leurs inspirations partir du fonctionnement
lmentaire des systmes nerveux. Ils sont utiliss essentiellement pour rsoudre des
problmes de classification, de reconnaissance de formes, dassociation, dextraction de
caractristique, et didentification, etc.
Classiquement, lhistoire commence ainsi : en 1943 que, dans un article rest fameux,
MC CLLOCH et PITTS ont mis lide simplificatrice du neurone formel, c'est--dire une
opration binaire interconnecte ses semblables par des synapses excitatrices ou
inhibitrices. Une assemble de tels oprateurs en interaction devait avoir des proprits
collectives mergentes, cest--dire capables de certain calcul que chacun deux
sparment est capable dexcuter.
En 1949, D.O.HEBB, dans un livre rest lui aussi fameux introduisit la notion de
plasticit synaptique , c'est--dire le mcanisme de modification progressive des
couplages inter neurone responsables de changement permanent de leurs proprits
collectives, ce que lon peut appeler lapprentissage .
Son hypothse, limite laugmentation du coefficient de couplage entre deux
neurones rels qui sont excits simultanment, a t tendue aux neurones artificiels comme
une rgle par laquelle les couplages se modifient proportionnellement aux corrlation entre
neurones, que ces corrlations soient positives activation ou ngatives inhibition .
Les travaux sur les rseaux de neurones formels ont connu des dbuts prometteurs vers
la fin des annes 50. Cest en 1958 que ROSENBLATT dcrivit le premier modle
oprationnel de rseaux de neurones, mettant en uvre les ides de HEBB, MC CULLOCH
et PITTS.
En 1969, MINSKY et PEPART, dmontrrent les limites thoriques du perceptron, qui
est capable dapprendre calculer certaines fonctions logiques, mais un certain manque
dapprofondissement de la thorie et le mouvement concurrent de lintelligence artificielle,
ont conduit une mise sommeil assez prolonge des travaux sur le connexionnisme.
52
Chapitre Trois
Assez peu darticles furent publis entre 1970 et 1980, avec un peu de ralentissement en
raison du faible nombre de chercheurs intresss. Ils ont cependant permis une certaine
continuit et surtout ont servi de germes une renaissance frappante de lactivit dans le
dbut des annes 80. Sil faut citer des travaux de cette priode, cest celui de HOPFIELD en
1982, qui dtaille dans un article le bon usage du rseaux de neurones formels, en sappuyant
sur lorganisation en couches et la simulation numrique sur ordinateur et ceux de WIDROW
et HOFF sur les algorithmes adaptatifs.
En 1986, Rumelhart, Hinton et Williams publient, lalgorithme de la rtropropagation
de lerreur qui permet doptimiser les paramtres dun rseau de neurones plusieurs
couches.
partir de ce moment, la recherche sur les rseaux de neurones connat un ressort
fulgurant et les applications commerciales de ce succs acadmique suivent au cours des
annes 90.
Actuellement, les chercheurs sintressent beaucoup plus lexploitation des structures
didentification et de contrle mono et multivariable de la commande adaptative avec les
rseaux de neurones [14].
Le conduire.
53
Chapitre Trois
54
Chapitre Trois
55
Chapitre Trois
Les rseaux de neurones artificiels sont des rseaux fortement connects de processeurs
lmentaires fonctionnant en parallle. Chaque processeur calcule une sortie unique sur la
base des informations quil reoit. Toute structure hirarchique de rseaux est videmment
un rseau [19].
3.4.1. Modlisation
La premire modlisation dun neurone date des annes quarante. Elle a t prsente
par Mac CULLOCH et PITTS. Sinspirant de leurs travaux sur les neurones biologiques, ils
ont propos le modle suivant : un neurone formel fait une somme pondre des potentiels
daction qui lui parviennent (chacun de ces potentiels est une valeur numrique qui
reprsente ltat du neurone qui la mis), puis sactive suivant la valeur de cette sommation
pondre. Si cette somme dpasse une certain seuil, le neurone est activ et transmet une
rponse (sous forme de potentiel daction) dont la valeur est celle de son activation, si le
neurone nest pas activ il ne transmet rien.
La fonction de transfert est un simple effet de seuil. Alors, si une cellule i est
relie N autres cellules, le neurone formel donn par la figure 3.2, effectue une somme
pondre des N entres, augmente dune entre externe dsignant le seuil de
neurone i .
Le tout est suivi dun lment de dcision qui reprsente la fonction dactivation non
linaire qui dtermine la sortie du neurone. La fonction de dcision peut avoir les formes les
plus utilises donnes par la figure 3.3 [20].
Si on dsigne par X le vecteur dentres du neurone i , Wi reprsente la force de la
connexion simulant les poids synaptiques des neurones, tels que :
X=[X1, X2 , Xn]
Wj= [Wj1, Wj2Wjn]
La sortie intermdiaire Si est donne par :
Si = Wi * (X) - i
(3.1)
56
(3.2)
Chapitre Trois
X1
Wj1
X2
Wj2
Xn
Wjn
Fonction
Dactivation
Corps cellulaire
Synaps
es
57
Chapitre Trois
f
+1
Fonction de Heaviside
s
Fonction
Linaire sans
saturation
Fonction
linaire avec seuil
Fonction a
seuils multiples
Fonction sigmode
1
= F1(s)
1 + e s
Fonction sigmode
1 es
2(s) =
1 + e s
Fonction
de stochastique
Le choix de la fonction d'activation dpend de l'application. S'il faut avoir des sorties binaires
c'est la premire fonction que l'on choisit habituellement. Une entre spciale est
pratiquement toujours introduite pour chaque neurone. Cette entre, normalement appele
biais, sert pour dplacer le pas de la fonction d'activation sur l'axe S.
3.4.1.4. La fonction de sortie
Elle calcule la sortie de neurone en fonction de sont tat dactivation, en gnral cette
fonction est considre comme la fonction identit, par la suite confondrons toujours
activation et sortie du neurone.
58
Chapitre Trois
Les fonctions dentre et dactivation sont choisies en fonction des types dautomates
utiliss, c'est--dire tout dpend de la nature des entres et des sorties. En gnral, ils sont au
nombre de six [22]:
3.4.1.5. Les automates boolens
La sortie est binaire alors, que les entres peuvent tre binaires ou relles.
Les entres et les sorties sont comprises dans un intervalle [u, v].
Si les entres et les sorties sont entires, on obtient un automate multi seuils.
3.4.1.9. Les automates continus
59
Chapitre Trois
3.5.1. Le paralllisme
Cette notion se situe la base de larchitecture des rseaux de neurones considrs
comme ensembles dentrs lmentaires qui travaillent simultanment.
3.5.2. La rsistance aux pannes
A cause de labondance des entres et la structure du rseau. Les donnes bruites ou
les pannes locales dans un certain nombre de ses lments naffectent pas ses fonctionnalits.
Cette proprit rsulte de fonctionnement collectif et simultan des neurones qui les
composent.
3.5.3. La capacit dadaptation
Celle-ci se manifeste tout dabord dans les rseaux de neurones par la capacit
dapprentissage qui permet au rseau de tenir compte des nouvelles contraintes ou des
nouvelles donnes du monde extrieur. De plus, ils se caractrisent par leur capacit
dauto organisation qui assure leur stabilit en tant que systme dynamique.
3.5.4. La gnralisation
La capacit de gnralisation dun rseau de neurone est son aptitude de donner une
rponse satisfaisante une entre qui ne fait pas partie des exemples partir desquels il a
appris
3.5.5. Structure de connexion
Les connexions entre les neurones qui composent le rseau dcrivent la topologiedu
modle. Elles sont trs varies, le nombre de connexions tant norme. Cette topologie fait
apparatre une certaine rgularit de larrangement des neurones.
60
Chapitre Trois
couche, do le nom de feedforwarde. Les liens dirigs connectant les neurones sont appels
les interconnections [14].
On distingue des rseaux deux couches tel que le perceptron et ladaline (adaptative linear
neurone) qui sont caractriss par :
Ces rseaux ne pouvaient rsoudre que des problmes simples de classification. Pour
des problmes complexes, une solution consiste organiser le rseau en plusieurs
couches[23].
W1
W2
W3
X1
X2
X3
Couche de
sortie
X4
Couche cache
2
Couche
dentre
Couche cache
1
Figure 3.4 Structure dun rseau statique avec deux couches caches.
61
Chapitre Trois
Y0
Yn
W2
W1
X1 Xn
Figure 3.6 Un rseau FeedForward avec une couche cache.
3.6.2. Les rseaux dynamiques (rcurrents)
Comme leurs noms lindique, contiennent des dbouclages partiels ou totaux entre
neurones, ils reprsentent donc une volution dpendante du temps.
Il faut bien distinguer la dpendance thorique, pour laquelle ltat du rseau un certain
instant dpend de son tat linstant ou aux instants prcdents, du temps ncessaire
obtenir une rponse, dans le cas dune ralisation matrielle ou dune simulation sur
ordinateur.
La thorie de ces rseaux fut publie par HOPFIELD dans les annes 1980 et sont souvent
appeles HOPFIELD nets . Ils sont principalement utiliss pour limplmentation des
mmoires associatives BAM : bidirectional associative memory [14].
S1
S2
O2
O1
X1
Sn-1
X2
On-1
Xn-1
62
Sn
On
Xn
Chapitre Trois
3.7. Le Perceptron
A la fin des annes 50, la neurobiologie ne disposait pas encore des techniques
modernes de llectrochimie pour tudier les structures du cerveau. Lide de certaine
chercheurs fut alors dutilis les modlisations des neurones et de lvolution des synapses
pour simuler des rseaux de neurones. Ceux-ci pourraient exhiber des comportements proche
de ceux du cerveau et ainsi fournir des explications sur le fonctionnement de celui-ci.
Le premier modle fut prsent par ROSEBLATT ctait le perceptron ce modle a pour
proprits [18] :
Dtre suffisamment complexe pour que lon puisse esprer des comportements
intressants.
Dtre suffisamment simple pour que ses performances puissent tre prdites et
analyses.
63
Chapitre Trois
Cellule de
dcision
Rtine
Cellule dassociation
64
Chapitre Trois
Cellule de dcision
Cellule dassociation
Rtine
65
Chapitre Trois
qui revient
assurer
66
Chapitre Trois
Pi
(3.3)
: le pas dadaptation
i et j : fonctions dactivations de Pi et Pj.
Si et Sj : valeurs dactivations de Pi et Pj.
ti : entre professeur de Pi.
(3.4)
La rgle de WIDROW HOFF, connue galement sous le nom de Delta rgle (ou
rgle) ncessite un professeur et se formule en prsence de fonctions dactivation linaire
sous la forme :
Wij = (ti Si) Sj
67
(3.5)
Chapitre Trois
(3.6)
g (x)= wtrx
(3.7)
Classe w2
Classe w1
g(x) < 0.
Figure 3.11 - Sparation de deux classes avec adaptateur linaire
3.10.2. Les mmoires associatives
Les ordinateurs classiques de type Neumann traitent de faon squentielle des
informations qui sont codes sous forme binaire et ranges dans des mmoires accessibles
par leur adresse indpendamment de leur contenu. La dfaillance dune seule mmoire
provoque linterruption de la chane de traitement squentiel des oprations. Une
68
Chapitre Trois
caractristique importante des rseaux de neurones rside dans la manire avec laquelle sont
stockes les informations et dans la faon de les associer.
En rgle gnrale, la mmoire des rseaux de neurones est distribue et toute ou partie des
poids de connexion du rseau constitue la mmoire du rseau. Ainsi, un exemple de la base
des exemples dapprentissage sera mmoris par un sous ensemble particulier des cellules
qui contient galement la mmoire de certains autres exemples de la base dapprentissage. La
majorit des rseaux de neurones utiliss en diagnostic industriel pour la classification des
dfauts sont appels des mmoires associatives ou classifieurs. On distingue deux familles de
rseau de neurones : les rseaux base de neurones appels souvent neurones grand-mre
et les mmoires auto associatives et les mmoires htro associatives
Dans ce type de rseau, les neurones rpondent spcifiquement un seul exemple de
la base dapprentissage. Le traitement de linformation est ralis par plusieurs neurones
indpendants les un des autres. Le surnom de tels rseaux repose sur lhypothse que le
cerveau humain stocke limage de notre grand-mre dans un neurone particulier plac dans
un endroit prcis du cerveau. Ces rseaux sont particulirement adapts aux problmes de
classification [21].
3.10.3. Mmoires auto associatives et htro associatives
Dans une mmoire associative, les informations ne sont pas localises des
emplacements dtermins, mais la mmorisation de chaque exemple est distribue sur
lensemble de la structure du rseau qui constitue ainsi la mmoire. Les seules sorties
possibles sont galement des contenus des mmoires. Les mmoires auto associatives ont
pour caractristique essentielle de reproduire en sortie, limage apprise de lentre partir
dun exemple incomplet ou bruit. Les mmoires htro associatives apprennent une relation
entre un exemple donn et une sortie dsire diffrente de lexemple. Si un nouvel exemple
prsent est proche de lexemple appris, il restituera la sortie dsire. Ces mmoires sont
particulirement performantes pour la reconnaissance de caractres avec des donnes
incompltes ou bruites [21].
69
Chapitre Trois
mis
au
France FEGELAM N
point
simultanment
SAULIE,
par
GALLINARI,
deux
quipes
LECUN
indpendantes
et
aux
en
Etats-Unis
70
Chapitre Trois
(3.8)
Les tats des diffrents neurones dans un rseau ayant L couches (couches caches et
couches de sortie) donnes ayant N entres et M sorties, sont donnes par les quations
suivantes :
Opi = (Spi)
(3.9)
Avec :
S Pi = Wij .Oij
(3.10)
Telle que
Opi : La sortie de neurone i pour lexemple (entre, sortie dsire) p.
Spi : Le potentiel somatique du neurone i pour lexemple (entre, sortie dsire) p.
Wij : Coefficient synaptique (poids) de la jeme entre du neurone i.
3.11.5. Principe de rtro propagation
La rtro propagation est base sur ladaptation des coefficients synaptiques dites
encore des coefficients de pondration dans le but de minimiser une fonction de cot
(performance) donne par :
P
E (W ) = E P (W )
(3.11)
P =1
E P (W ) =
1 n
(t Pi O Pi ) 2
2 i =1
(3.12)
71
Chapitre Trois
La minimisation de lerreur se fait par une approximation dune descente de gradient comme
dans la rgle de Widrow Hoff (rgle delta). Toute la difficult pour effectuer cette descente
dans un rseau multi couches tait de pouvoir calculer la drive de lerreur quadratique par
rapport un poids donn.
3.11.6. Adaptation des poids
Ladaptation (ajustement, mise en forme) des coefficients synaptique, se fait par la
mthode du gradient base sur la formule itrative suivante :
Wij (n + 1) = Wij (n) + Wij
PWij = .
( poque )
E P
Wij
(3.13)
(3.14)
(3.15)
Avec :
Opj : Sortie du neurone j pour un exemple p.
pi :
Pi =
Lastuce est de calculer
pi
E P
= (t Pi O Pj )
S Pi
(3.16)
nous avons driv maintenant, est quil y a un simple calcule rcursif de ces qui peuvent
tre implments par la rtro propagation du signal derreur travers le rseau.
Pour calculer : Pi =
E P
S Pi
Pi =
O
E P
E
= P * Pi
S Pi
OPi S Pi
72
Chapitre Trois
O Pi
= f ( S Pi )
S Pi
O : (Spi) : Est la drive de la fonction dactivation du neurone I value Spi.
Pour calculer le premier facteur nous considrons deux cas :
Supposant que le neurone Ui est un neurone de sortie du rseau, dans se cas, il parait de la
dfinition de Ep que :
E P
= (t Pi OPj )
O Pi
Substitutions les deux facteurs dans lquation (16) nous obtenons :
Pi = (t Pi OPj ) f ( S Pi )
(3.17)
E P
Pi
S Pk
E
E
= P *
Wki OPi = P Wki = Pk Wki
OPi
S Pk OPi
S Pk
Dans ce cas, substituions les deux facteurs dans lquation (16) nous obtenons :
Pi = f ( S Pi ) Pk * Wki
(3.18)
E P (W )
Wij (n)
(3.19)
73
Chapitre Trois
Etape 05 : Calculer :
1- Les termes de lerreur pour les neurones de la couche de sortie par lquation (3.17).
2- Les termes de lerreur pou les neurones de la couche cache par lquation (3.18).
Etape 06 : Calculer la variation des poids par lquation (3.15).
Etape 07 : Calculer lerreur Ep par lquation (3.12).
Etape 08 : Prsenter un autre couple (entre, sortie dsire) et aller ltape quatre.
Etape 09 : Si tout lensemble des couple est prsent, calculer la variation total des poids par
poque, en utilisant lexpression :
Wij
= PWij
( poque )
P =1
].
74
Chapitre Trois
Initialiser les poids Wij et les seuils internes des neurones de petites valeurs alatoires.
tpi : la sortie dsire (Target), Opi : la sortie (output) du rseau, Fi (Opi) :la drive de la
fonction dactivation du neurone i value Opi ,
(S) = 1/(1+e-s)
Opi = (Spi)
Spi = Wij. Opi
(Spi) pk * Wki
pi = (tpi Opi) (Spi)
pi =
Tout lensemble
des couples est
prsent
1
75
Chapitre Trois
A
1
P
Wij
(poque)
= p Wij.
P=1
E (W) = Ep (W)
P=1
Non
| E E PR | <
Oui
FIN
76
Chapitre Trois
77
Chapitre Trois
Aide la dcision.
Robotique.
Ces quelques domaines possdent pratiquement toutes les caractristiques exposes
prcdemment, cest pourquoi ils constituent le cur des applications des rseaux de
neurones.
Il ne faut cependant pas oublier le rle que peuvent jouer les rseaux de neurones formels
dans ltude du cerveau en tant quinstrument de simulation, et dans la recherche sur les
neuro-ordinateurs et les nouvelles architectures dordinateurs en tant quinstruments de
formalisation et de simulation [16].
78
Chapitre Trois
3.14. Conclusion
Dans ce chapitre, nous avons prsent les rseaux de neurones, en spcifiant leurs
dfinitions, les concepts de base de cette technique, lapprentissage des rseaux de neurones,
et ses diffrents domaines dutilisation.
Nous avons prsent une tude sur lalgorithme du rtro propagation qui a prouv son
efficacit dans la pratique avec ses capacits dapprentissage et didentification.
Pour ces raisons, cet algorithme sera la base du travail qui sera prsent dans les prochains
chapitres qui traite la commande d'un bras manipulateur par des technique neuro-floue
(ANFIS).
79