Académique Documents
Professionnel Documents
Culture Documents
d’après B. Solaiman
Dépt. Image & Traitement de l'Information
Ecole Nationale Supérieure des Télécommunications de
Bretagne
Plan
1. Introduction, définition
2. Réseaux compétitifs
Extraction Système
X des Y de D
primitives décision
s réseaux de neurones
3
xtracteurs de primitives/Classifieu
Réseau d’extraction de primitives / classifieurs
Extraction Système
des de
primitives décision
Moyens 2 17 1 85 %
Pâles 0 0 20 100 %
Total 21 18 21
(35.0 %) (30.0%) (35,0 %) 93 %
Réseau de neurones
d’extraction de primitives
Système de
décision
Déroulement de l’apprentissage
a j (0 ) entrée du noeud A j
1 - 1
A1 A4 ⎧1 si i = j
w ij = ⎨ 1
- ⎩−ε si i ≠ j avec 0 < ε <
m
Étape 1 (tant que 4 vrai faire 2-4) :
- -
- Étape 2 : Mise à jour des activations
A2 A3 ⎡ ⎤
a j (t ) = f ⎢a j ( t −1) −ε ∑a k (t −1) )⎥
1 - 1 ⎣ k ≠j ⎦
Étape 3 : Sauvegarder activations
a j (t ) = a j ( t − 1) , j = 1, L , m
Étape 4 : Si plus d’une activation 0
continuer, sinon arrêt
Cours #6 - 16 GPA-779 Application des réseaux de neurones et des systèmes experts
Le réseau Maxnet : Exemple A = [0,2 0,4 0,6 0,8]
Étape 0 : Initialiser les activations et les poids
a j (0 ) entrée du noeud A j
1 - 1
A1 A4 ⎧1 si i = j
w ij = ⎨
- ⎩−0.2 si i ≠ j
Étape 1 (tant que 4 vrai faire 2-4) :
- -
- Étape 2 : Mise à jour des activations
A2 A3 ⎡ ⎤
a j (t ) = f ⎢a j ( t −1) −ε ∑a k (t −1) )⎥
1 - 1 ⎣ k ≠j ⎦
Étape 3 : Sauvegarder activations
a j (t ) = a j ( t − 1) , j = 1, L , m
Étape 4 : Si plus d’une activation 0
continuer, sinon arrêt
Cours #6 - 17 GPA-779 Application des réseaux de neurones et des systèmes experts
Le chapeau mexicain :
w0
w2 w2
w1 w1 XI+
Xi-3 Xi-2 Xi-1 Xi Xi+1 Xi+2
3
w3 w3
si
R1
R2
wk est positif dans 0 k R1 et négatif dans R1 k R2
x est le vecteur d’activations
x_vieux est le vecteurs d’activations à t-1
t_max est le nombre maximal d’itérations
s est un signal externe
Cours #6 - 18 GPA-779 Application des réseaux de neurones et des systèmes experts
C2 C1
Le chapeau mexicain :
0.6
-0.4 -0.4
si
R1
R2
0.6
-0.4 -0.4
si
R1
R2
0.6
-0.4 -0.4
0.6
-0.4 -0.4
Couche de sortie m
wm1 wmN
wmn
Couche d’entrée
x1 xn xN
Neuronem*
Neurone m*est
estleleneurone
neuronegagnant
gagnant
yym* =
m* = Max yyj j
m∈<1, M>
Attention
Cours #6 - 26 GPA-779 Application des réseaux de neurones et des systèmes experts
2 Réseaux Compétitifs Linéaires
Implémentation mathématiques
{Xk, k = 1, 2, …, K} une base d’apprentissage
1 Initialisation aléatoire des poids synaptiques
2 Apprentissage
a Présentation de la forme Xk à la couche d’entrée
b Calcul de l’activation des neurones de la couche de sortie
ym(k), m = 1, 2, ..
c Détermination du neurone gagnant m*
d Ajustement des poids synaptiques du neurone gagnant :
Δ W j* = η ym*(k) xn (k) pour n = 1, …, N
Explication graphique
Neurone gagnant
W2 Wm*
Xk
WM Wm*
W2 Xk
WM
W1
Compétition Adaptation
Théorème
Théorème
LLeeréseau
réseaucompétitif
compétitiflinéaire
linéaireassocié
associéavec
avecla
larègle
règle
d'apprentissagede
d'apprentissage deHebb
Hebbn'a
n'aaucun
aucunpoint
pointd'équilibre
d'équilibrestable.
stable.
Point d’équilibre
ym*(k) ym*(k)
m m
* *
Wm*1 Wm*N Wm*1 Wm*n
Wm*n
Théorème
Théorème
LL'algorithme
'algorithme d'apprentissage
d'apprentissage d'Oja
d'Oja appliqué
appliqué àà un
un
réseau compétitif
réseau compétitif linéaire,
linéaire, converge
converge en
en moyenne
moyenne statistique
statistique
versun
vers vecteur**ayant
unvecteur ayantles
lespropriétés
propriétéssuivantes
suivantes::
||||*||
*||==1.1.
**aala
ladirection
directiondu
duvecteur
vecteurpropre
propremaximal
maximalde
dela
lamatrice
matricede
de
corrélationC.
corrélation C.
**permet
permetla
lamaximisation
maximisationde
dela
lavariance
variancede
dela
lasortie.
sortie.
Les primitives :
. . . z. . .
. ..
...z........ ... v
. . .
... ....... u...
y1
.. V2 ..
j j V1
x x
x1
i i
z = x1 i + y1 j z = u V1 + v V2
Cours #6 - 34 GPA-779 Application des réseaux de neurones et des systèmes experts
2 Réseaux Compétitifs Linéaires
X Y = X - u1V1
V2 : 1ère composante principale du vecteur Y
Règle de Sanger
. . . . . . . .. P1
.
. . ...
P3 . . P1 . . ... d3
. P3 . . d1
.
y . . . .z . . .
d2
.z
P2. ... P2. ...
.. ..
x
z (x,y) z (d1,d2,d3)
Cours #6 - 38 GPA-779 Application des réseaux de neurones et des systèmes experts
3 Réseaux de quantification vectorielle
Couche m
compétitive
wm1 wmn wmN
Couche
d’entrée
x1 xn xN
pour n = 1, …, N
Cours #6 - 39 GPA-779 Application des réseaux de neurones et des systèmes experts
3 Réseaux de quantification vectorielle
. . . .. . . .. .. .
. .. . . .. .. . .. . . .. ..
... . . . .. . ... . . . .. .
. .. . . . . .. . . .
.. . . .. . .
... ...
. . . .. . . .. .. .
. .. . . . .. .. . .. . . . .. ..
... . . . . ... . ... . . . . ... .
. .
.. . .... .. . ....
.. . .. .
Cours #6 - 40 GPA-779 Application des réseaux de neurones et des systèmes experts
3 Réseaux de quantification vectorielle
Explication graphique
Neurone gagnant
W2 Wm*
Xk
WM Wm*
W2 Xk
WM
W1
Compétition Adaptation
Wm* Wm*
WM Xk WM Xk
Wm* Wm*
W2 W2
W1 W1
Récompense Punition
Classe(Xk) = Classe (Wm*) Classe(Xk) Classe (Wm*)
1 Classe(Xk) Classe(Wm1)
erreur de classification du neurone gagnant
2 Classe(Xk) = Classe(Wm2)
bonne classification du second neurone gagnant
3 distance(Xk,Wm2) distance(Xk,Wm1)
le vecteur Xk est très proche de la surface de
séparation entre les classes m1 et m2
Adaptation
Wm1 = - (t) [Xk - Wm1] Punition
Wm2 = + (t) [Xk - Wm2] Récompense
Cours #6 - 46 GPA-779 Application des réseaux de neurones et des systèmes experts
3 Réseaux de quantification vectorielle
Surface de Zone de
séparation modification
Pas de modification
Récompense / Punition
2ème constatation
Les réseaux compétitifs linéaires
s’éloignent de la réalité Neurobiologique
« les zones d’activité ».
Cours #6 - 48 GPA-779 Application des réseaux de neurones et des systèmes experts
4 Cartes topologiques de Kohonen
Architecture proposée :
une couche linéaire mono ou multi dimensionnel.
Voisins ordonnés 1 2 3 i
du neurone m 1
m 3
la taille de la carte
Exemple : Instant : t0
Vecteur d’entrée : X
Neurone gagnant
Neurone m Vm*(t0)
(t)
1
(t0)
t
t0
(m,m*) = 1, m Vm*(t) : Interaction latérale uniforme
(m,m*) gaussien
« similaire »
« distance »
Irréversible
taux élevé
distorsion introduite
Générique Spécifique
transformation + élimination adaptée à l’application
des hautes fréquences connaissances a priori sur le contenu
Textures mal restituées
Cours #6 - 57 GPA-779 Application des réseaux de neurones et des systèmes experts
5 Applications - Compression d’images
Quantification Vectorielle (QV)
indices
... bloc ...
Le plus Restitution
proche voisin du bloc
Image Image
originale reconstruite
W W
W W
Dictionnaire W W
des mots de Dictionnaire
...
code
W W
Codeur Décodeur
Cours #6 - 58 GPA-779 Application des réseaux de neurones et des systèmes experts
5 Applications - Compression d’images
Avantages / problèmes
... ...
Le plus Restitution
proche voisin
... ...
Activations
des neurones
Poids synaptiques Wi
(mots de code)
Base x
d’apprentissage
X=
Représentation graphique
du dictionnaire
Cours #6 - 61 GPA-779 Application des réseaux de neurones et des systèmes experts
5 Applications - Compression d’images
Dictionnaire obtenu
Dictionnaire
Image testée
Cours #6 - 64 GPA-779 Application des réseaux de neurones et des systèmes experts Image de test
5 Applications - Compression d’images
Exemples d’apprentissage
Dictionnaire
Image testée
Cours #6 - 65 GPA-779 Application des réseaux de neurones et des systèmes experts Image de test
5 Applications - Compression d’images
Exemples d’images comprimées
SOFM, 2D SOFM, 3D
(exemple, 16 x 16) (exemple, 8 x 8 x 8)
Méthode de
post-traitement
x1
y1
x2
xn ym
55
«5 »
SOFM
5 i f f r e
, Ch
(Self Organizing Feature Map)
Vecteurs
prototypes
Entrée du réseau :
16
X=
16
Normalisation à [0, 1]
Cours #6 - 76 GPA-779 Application des réseaux de neurones et des systèmes experts
5 Applications - OCR
Architecture du réseau :
10
j
10
X
Cours #6 - 77 GPA-779 Application des réseaux de neurones et des systèmes experts
5 Applications - OCR
Base d’apprentissage : S.R.T.P (France)
5000 Chiffres
Poids synaptiques
à la convergence :
Préservation topologique
Transitions « douces »
Classification
Solution :
Hybrid Learning Vector Quantization
Objectif :
Couplage de la préservation topologique et les
performance de l’apprentissage supervisé.
a=10
a=20
a=50 Convergence
a : Nombre d’itérations d’apprentissage
Cours #6 - 82 GPA-779 Application des réseaux de neurones et des systèmes experts
5 Applications - OCR
Cas 2 :
Focalisation d’attention = Algorithme LVQ2 modifié
Modification de l'algorithme LVQ2:Exploiter la relation
topologique reliant les différents neurones de la carte en
recherchant dans le voisinage des neurones gagnants ceux qui
sont susceptibles d'apporter une meilleure réponse en termes
d'activation et de reconnaissance.
Classification
Base d’apprentissage Base de test
(5000 chiffres) (5000 chiffres)
SOFM 75 % 65 %
Réseau
96 % 93 %
multicouches
HLVQ-LVQ2 97 % 90 %
x1 C1
x2
Winner
Winner
we,n Ae takeall
all Ee tm,e
take
xn Cm
xN
CM
Couche Couchecachée
Couche cachée Couchede
desortie
sortie
Couche Couche
d’entrée (couchedes
(couche desformes)
formes) (couchedes
desclasses
classes) )
d’entrée (couche
Cours #6 - 86 GPA-779 Application des réseaux de neurones et des systèmes experts
5 Applications - Réseau GAL
Couche des formes mémorisées :
N
Ae = ∑x n we,n
n=1
n,e est le poids synaptique reliant l'entrée "n" à la cellule "e"
Le vecteur e mémorise la forme « Xe »
Ee = 1 si Ae = Max ( Ai )
i
= 0 sinon
m1 m2 m1 m2
e1(m2) e1(m2)
e2(m1)
e1(m1) e1(m1)