Académique Documents
Professionnel Documents
Culture Documents
Hélène Paugam-Moisy
Professeur à l’Université Lyon 2
Laboratoire LIRIS - CNRS
hpaugam@liris.cnrs.fr
Les réseaux de neurones naturels
Cerveau, neurones et intelligence
autre
dendrites
axone dendrite
soma
connexion
synaptique
environnement
neurone d’entrée
Le graphe d’interconnexion
neurone caché peut être quelconque ; il peut
y avoir des circuits (boucles).
neurone de sortie
Topologies et dynamiques
Les architectures varient, entre deux schémas extrêmes :
x1
y1
ym
xn
x1 xn
vecteur d’entrée
RNA vecteur de sortie
cependant...
intelligence raisonnement
raisonnement logique
logique neurones
Synthèse des fonctions booléennes
Ainsi, les premiers travaux de McCulloch et Pitts ont été de
réaliser la synthèse des fonctions booléennes élémentaires
à partir de réseaux de neurones formels.
1950
Loi de renforcement de Hebb } notions fondatrices
Perceptron de Rosenblatt
1960 Adaline de Widrow
1970
20...
Apprentissage et généralisation
Neurones jouets (empruntés à Alexander, 1990)
0 = blanc
Codage d’un caractère : 3x3 pixels
1 = violet
0 0 1 ? 0 0 1 ? 0 0 1 ?
0 1 0 ? T 0 1 0 1 T 0 1 0 1
0 1 1 ? 0 1 1 ? 0 1 1 ?
1 0 0 ? 1 0 0 ? 1 0 0 ?
H 1 0 1 0 1 0 1 ? H 1 0 1 0
1 1 0 ? 1 1 0 ? 1 1 0 ?
T 1 1 1 1 H 1 1 1 0 1 1 1 ?
0 0 1 ? 0 0 1 ? 0 0 1 ?
0 1 0 ? T 0 1 0 1 T 0 1 0 1
0 1 1 ? 0 1 1 ? 0 1 1 ?
1 0 0 ? 1 0 0 ? 1 0 0 ?
H 1 0 1 0 1 0 1 ? H 1 0 1 0
1 1 0 ? 1 1 0 ? 1 1 0 ?
T 1 1 1 1 H 1 1 1 0 1 1 1 ?
Td H d
Hamming [ (0,0,0) , (1,1,1) ] = 3 Hamming [ (0,0,0) , (1,0,1) ] = 2
0 0 1 ? 0 0 1 ? 0 0 1 ?
0 1 0 ? T 0 1 0 1 T 0 1 0 1
0 1 1 ? 0 1 1 ? 0 1 1 ?
1 0 0 ? 1 0 0 ? 1 0 0 ?
H 1 0 1 0 1 0 1 ? H 1 0 1 0
1 1 0 ? 1 1 0 ? 1 1 0 ?
T 1 1 1 1 H 1 1 1 0 1 1 1 ?
T d Hd
Hamming [ (0,0,0) , (0,1,0) ] = 1 Hamming [ (0,0,0) , (1,1,1) ] = 3
0 0 1 ? 0 0 1 ? 0 0 1 ?
0 1 0 ? T 0 1 0 1 T 0 1 0 1
0 1 1 ? 0 1 1 ? 0 1 1 ?
1 0 0 ? 1 0 0 ? 1 0 0 ?
H 1 0 1 0 1 0 1 ? H 1 0 1 0
1 1 0 ? 1 1 0 ? 1 1 0 ?
T 1 1 1 1 H 1 1 1 0 1 1 1 ?
T d Hd
Hamming [ (0,0,1) , (0,1,0) ] = 2 Hamming [ (0,0,1) , (1,1,1) ] = 2
0 0 1 0 0 0 1 ? 0 0 1 0
0 1 0 1 T 0 1 0 1 T 0 1 0 1
0 1 1 1 0 1 1 ? 0 1 1 1
1 0 0 0 1 0 0 ? 1 0 0 0
H 1 0 1 0 1 0 1 0 H 1 0 1 0
1 1 0 1 1 1 0 ? 1 1 0 1
T 1 1 1 1 H 1 1 1 0 1 1 1 0
1 0 1 0 1 T 0 1 0 1 T 0 1 0 1
0 1 1 1 0 1 1 ? 0 1 1 1
1 1 0 0 0 1 0 0 ? 1 0 0 0
H 1 0 1 0 1 0 1 0 H 1 0 1 0
1 1 0 1 1 1 0 ? 1 1 0 1
même réponse que pour le : T T 1 1 1 1 H 1 1 1 0 1 1 1 0
c’est un T bruité
Utilisation du réseau en généralisation
neurone 1 neurone 2 neurone 3
0 0 0 0 0 0 0 1 0 0 0 1
0 0 0 1 0 0 0 1 ? 0 0 1 0
0 0 1 0 1 T 0 1 0 1 T 0 1 0 1
0 1 1 1 0 1 1 ? 0 1 1 1
0 1 0 0 0 1 0 0 ? 1 0 0 0
H 1 0 1 0 1 0 1 0 H 1 0 1 0
1 1 0 1 1 1 0 ? 1 1 0 1
même réponse que pour le : H T 1 1 1 1 H 1 1 1 0 1 1 1 0
? 0 1 0 1 T 0 1 0 1 T 0 1 0 1
0 1 1 1 0 1 1 ? 0 1 1 1
1 1 0 0 0 1 0 0 ? 1 0 0 0
H 1 0 1 0 1 0 1 0 H 1 0 1 0
1 1 0 1 1 1 0 ? 1 1 0 1
même réponse que ........ RIEN ! T 1 1 1 1 H 1 1 1 0 1 1 1 0
caractère
non reconnu
T (bruité) H (bruité)
Premiers modèles connexionnistes
Premiers modèles connexionnistes
1940
Neurone formel de McCulloch & Pitts
1950
Loi de renforcement de Hebb } notions fondatrices
Perceptron de Rosenblatt
1960 Adaline de Widrow
1970
20...
Le Perceptron (Rosenblatt, 1958)
x1
w1
y
wn
xn
rétine cellules cellule
(capteurs) d’association de décision
Notion de biais :
on inclut le seuil dans les connexions, avec
un poids w0 = - θ, en créant une entrée
virtuelle et fixe, x0 = 1
apprentissage supervisé
par correction d’erreur
Théorème de convergence
Soit S un ensemble quelconque de vecteurs unitaires.
S’il existe un vecteur unitaire W* et un réel δ>0 tels que
W*TX > δ pour tout X dans S+
et
W*TX < δ pour tout X dans S-
alors le programme définissant la règle d’apprentissage
du Perceptron passera par les procédures ADD et SUB
seulement un nombre fini de fois (convergence algo).
mais...
0 1 1
le XOR n’est pas
1 0 1 (0,0) (1,0) linérairement
séparable
1 1 0
+1
Un réseau à une couche x1 0 +1
+1
cachée est nécessaire +1
0 y
-2
pour réaliser le XOR : x2 +1
1
sortie
Σ seuillage binaire
seuillée
xn
wn Inspiration :
∆W règle traitement
X delta Σ
du signal
signal de la mais... le modèle a les
sortie désirée mêmes limitations
que le Perceptron
Règle d’apprentissage de l’Adaline
Règle de Widrow-Hoff, encore appelée règle delta
A chaque instant t :
présentation d’un exemple Xt
calcul de la sortie linéaire :
s(t) = Σ wi(t)xi(t) = WtTXt
présentation de la sortie désirée sd(t)
calcul de l’erreur quadratique :
E(t) = ½ (sd(t) – s(t))2
mise à jour des poids :
(∀i∈{1,...,n}) wi(t+1) = wi(t) + α (sd(t) – s(t)) xi(t)
ce qui peut s’écrire : ∆Wt = α (sdt – WtTXt) Xt
1950
Loi de renforcement de Hebb } notions fondatrices
Perceptron de Rosenblatt
1960 Adaline de Widrow
1970
20...
Réseau de Hopfield (Hopfield, 1982)
y1 yn
Architecture du réseau :
Dynamique du réseau :
yi(0) = xi mémoire associative
n (auto-association)
yi(t+1) = signe ( Σ wijyj(t) – θi)
j=1
sorties calculées : yi(tcvg) pour i allant de 1 à n
Apprentissage du réseau de Hopfield
Règle de Hebb, quantitative
Ensemble S d’exemples Xs , à composantes bipolaires
(∀i∈{1,...,n}) xis ∈ {-1,+1}
la dynamique converge
vers les exemples appris.
(sous certaines conditions)
Réseau multicouche, ou réseau MLP
(Rumelhart et al., 1986)
entrées sorties sorties
x1k x1 calculées désirées
y1 y1k t1 k
X ym ymk tmk Y
xnk xn erreur
= neurone caché
X
neurone à seuil Nj neurone sigmoïde Nj
[comme dans le Perceptron] Ex. σ = tanh
yj = signe ( Σwijxi - θj ) yj = σ ( Σwijxi - θj )
Apprentissage par rétro-propagation
x1
carte 2D
x2
Architecture du réseau :
a a c k k k k l l Exemple :
b b c c c f k l l l reconnaissance des
d b e c f f f f l t caractères
d e e e f f g g t t à moins que....
h h e s s g g g t t reconnaissance
h h h s s s g q t
des formes
de leurs tracés
i h m m s s o q q q
i m m m n o o o q r Extraction de
j m m n n n o p r r caractéristiques
j j m n n p p p p r communes
Les réseaux RBF (Radial Basis Function)
= centres RBF couche cachée :
neurones distance
entrées
w11 C1 couche de sortie :
x1 w1 sortie neurone linéaire
Chaque
y neurone caché
xn wm
est appelé “centre RBF”,
wnm il représente un prototype
Cm
étape 1
étape 2 dans l’espace d’entrée X.