Académique Documents
Professionnel Documents
Culture Documents
Introduction
Dfinition
Contexte Scientifique
Historique
Fondements Biologiques
Dfinition
Les rseaux de neurones artificiels sont des rseaux
fortement connects de processeurs lmentaires
fonctionnant en parallle.
Chaque processeur lmentaire (neurone artificiel)
calcule une sortie unique sur la base des informations
quil reoit.
Parallel Distributed Processing :
Calculs lmentaires et parallles
Donnes/informations distribues dans le rseau
Contexte Scientifique
Neuromimtisme et sciences de la cognition :
comprendre et simuler le fonctionnement du cerveau
reproduire les phnomnes cognitifs (I.A.)
Connexionisme :
outils dingnierie performants
Intelligence computationnelle :
une intelligence base sur le calcul numrique
oppose l intelligence artificielle (calcul symbolique)
rseau de neurones; logique floue; algorithmes gntiques; ...
4
Historique
la prhistoire
James [1890] :
mmoire associative
Hebb [1949]
Organisation of behavior
le conditionnement est une proprit des neurones
loi dapprentissage
Historique
les premiers succs
Rosenblatt [1957] :
le perceptron, premier modle oprationnel
reconnaissance d une configuration apprise
tolrance aux bruits
Widrow [1960] :
adaline, adaptive linear element
Historique
lombre et le renouveau
[1967 - 1982] :
Mise en sommeil des recherches sur les RNA. Elles
continuent sous le couvert de domaines divers.
Grossberg, Kohonen, Anderson, ...
Hopfield [1982] :
modle des verres de spins
Boltzmann [1983] :
premire rponse Minsky et Papert
[1985] :
la rtro-propagation du gradient et le perceptron multicouche
Domaines dapplication
Classification :
rpartir en plusieurs classes des objets
donnes quantitatives informations qualitatives
reconnaissance des formes
Recherche Oprationnelle
rsoudre des problmes dont on ne connat pas la solution
Mmoire Associative
restituer une donne partir dinformations incompltes et/ou
bruites.
8
Fondements Biologiques
Structure des neurones
Fondements Biologiques
Fonctionnement des neurones
10
Fondements Biologiques
Fonctionnement des neurones
11
Fondements biologiques
Le cerveau
Dcoupage en rgions :
au niveau morphologique et fonctionnel
13
Le Neurone de
McCulloch & Pitts
0
1
Inh
Exc
1.0
2.0
1.0
1
Exc
14
Le Neurone Formel
Le Neurone Formel
La fonction dentre :
somme pondre des signaux dentre
Le Neurone Formel
Les fonctions dactivation :
17
Le Neurone Formel
La fonction linaire et la fonction seuil :
Output (sortie)
Activation de la cellule
Output (sortie)
Activation de la cellule
fonction linaire du type
y = x
maximum
maximum
minimum
Input (entres)
Somme pondre des entres
L'activation augmente en mme temps
que la somme pondre des entres. Elle
varie entre un minimum et un maximum
minimum
seuil
Input (entres)
Somme pondre des entres
18
Le Neurone Formel
La fonction sigmode :
t+1
i
1
1+e
X i Si
avec
X i = Wij a j
19
Stimulus
codage
0
1
0
1
1
1
0
0
Pattern
de sortie
Rseau
1
1
0
0
1
dcodage
0
1
0
Rponse
20
Structure dInterconnexion
propagation avant (feedforward)
couche dentre
couche cache
couche de sortie
rseau multicouche
rseau connections
locales
Structure dInterconnexion
modle rcurrent (feedback network)
Apprentissage
Dfinition
Apprentissage supervis
Apprentissage non supervis
Rgles d apprentissage
23
Dfinition
L apprentissage est une phase du dveloppement dun
rseau de neurones durant laquelle le comportement du
rseau est modifi jusqu lobtention du comportement
dsir.
On distingue deux grandes classes dalgorithmes
dapprentissage :
Lapprentissage supervis
Lapprentissage non supervis
24
Apprentissage supervis
superviseur
sortie dsire
erreur
rseau
sortie obtenue
25
rseau
sortie obtenue
26
Rgles dapprentissage
Lapprentissage consiste modifier le poids des
connections entre les neurones.
i
Wij
Rgles dapprentissage
Loi de Hebb :
Si deux units connectes sont actives simultanment, le poids
de leur connexion est augment ou diminu. R est une constante
positive qui reprsente la force d'apprentissage (learning rate).
ai = -1
ai = 1
aj = -1 Wij = R Wij = -R
aj = 1 Wij = -R Wij = R
w ij
Wij = Rai a j
28
Rgles dapprentissage
Loi de Widrow-Hoff (delta rule) :
ai activation produite par le rseau
di rponse dsire par l'expert humain
Par exemple si la sortie est infrieure la rponse dsire, il
va falloir augmenter le poids de la connexion condition bien
sr que l'unit j soit excitatrice (gale 1). On est dans
l'hypothse d'units boolennes {0,1}.
j
i
ai = 0
ai = 1
w
di = 0 Wij = 0
Wij = -R
di = 1 Wij = R
Wij = 0
ij
Wij = R(di a i )a j
29
Rgles dapprentissage
Loi de Grossberg :
On augmente les poids qui entrent sur l'unit gagnante
ai s'ils sont trop faibles, pour les rapprocher du vecteur
d'entre aj. Cest la rgle dapprentissage utilise dans
les cartes auto-organisatrices de Kohonen
w ij
30
Diffrents modles
Le perceptron
Limite du perceptron
Le perceptron multicouche
Le modle de Hopfield
Le modle d Elmann
Les rseaux ART
31
Le perceptron
Le perceptron de Rosenblatt (1957) est le premier RNA
oprationnel. Cest un rseau propagation avant avec
seulement deux couches (entre et sortie) entirement
interconnectes.
Il est compos de neurones seuil.
L apprentissage est supervis et les poids sont
modifis selon la rgle delta.
32
Le perceptron
Traits significatifs
Classification
j=1
Rtine
Entre
Wij
Sortie
i
ai {-1,+1 }
j=n
aj {1,0 }
33
Limite du perceptron
Le perceptron est incapable de distinguer les patterns
non sparables linairement [Minsky 69]
P
input P
input Q
ET
XOR
0
1
0
1
1
0
0
1
0
0
0
0
1
1
1
0
fonction ET logique
1 0
0 0
0
0
1
0 0
0
1
1
34
Le perceptron multicouche
architecture
Environnement
bias 1
M
bias
couche
d'entre
couche
(input) i
cache
(hidden) j
E
1
couche
de sortie
Environnement
(output) k
35
Le perceptron multicouche
activation
ai
aj
W ji
x j = w jiai
a j = f (x j )
Wbias
bias = 1
fonction sigmode
1
a = f (x ) =
x
1+ e
e x e x
a = f (x ) = x
x
e +e
f ( x ) = f ( x ).(1 f (x ))
f ( x ) = (1 + f ( x )).(1 f (x ))
36
Le perceptron multicouche
apprentissage : retropropagation de lerreur
S j = aiWij
S k = a jW jk
a j = f (S j )
1 Calcul activations
2 Calcul activations
units caches
units de sortie
Units a
d'entre i
Units a
de sortie k
Units a
caches j
j = W jk k . f (S j )
ak = f ( S k )
Calcul Erreur 3
entre
sorties dsires
et
sorties obtenues
Calcul de l'erreur 5
sur les units caches
Calcul de l'erreur 4
sur les units de sortie
ek = d k ak
k = ek . f (S k )
Wij = j ai
W jk = k a j
37
Le modle de Hopfield
les mmoires associatives
Dans une mmoire informatique classique, une information est
retrouve partir d'une cl arbitraire. Par opposition, une
donne entrepose dans une mmoire associative est
accessible partir d'informations qui lui sont associes.
La fonction d'une mmoire associative est de restituer une
information en tenant compte de sa perturbation ou de son
bruit. L'information doit alors se rapprocher d'une information
apprise ou connue.
Si les mmoires associatives restituent des informations
qu'elles ont apprises partir d'entres incompltes ou
bruites, il existe aussi des mmoires htro-associatives qui
en plus peuvent associer plusieurs informations entre elles.
38
Le modle de Hopfield
larchitecture du rseau
Les neurones de Hopfield sont discrets et rpondent une
fonction seuil. Pour des commodits dutilisation, on considre
une fonction seuil trs simple :
1, si x > 0
F(x) =
-1, sinon
Le rseau est compltement connect, et les connexions sont
symtriques.
Les valeurs dentre sont binaires (-1, 1) mais peuvent tre
aisment remplaces par les valeurs binaires usuelles (0, 1) en
utilisant une simple transformation. A(-1,1) = 2.A(0,1) - 1
39
Le modle de Hopfield
principe de fonctionnement
1
Wij = W ji =
P
Utilisation :
p p
s
i sj
p
P
P
Wii = 0
Le modle de Hopfield
principe de fonctionnement
t 1
t
si
W
.
s
<
0
alors
s
i = 1
ij j
jN
t 1
t
si Wij .s j > 0 alors si = 1
jN t 1
t
t 1
si Wij .s j = 0 alors si = si
jN
Energie du rseau
E=
1
Wij .s j .si
2 i , jN
41
Le modle de Hopfield
application : reconnaissance de caractre
42
Le modle dElman
le modle rcurrent de rtro-propagation
apprentissage : rtropropagation
application : reconnaissance de srie temporelle
output
Frquence
etc.
input
f(x)
Units de contexte
(retour des units caches)
43
Le modle dElman
le modle rcurrent de rtro-propagation
Phase dapprentissage
Reconnaissance
Lorsquon prsente une fonction de frquence apprise,
aprs quelques itrations, le rseau russi la reconnatre
Gnralisation
Lorsquon prsente une fonction de frquence non apprise,
le rseau peut interpoler cette dernire
44
47
48