Académique Documents
Professionnel Documents
Culture Documents
Langages
Parole naturels
Tâches
formelles
Sens
Réseaux
commun
neuroniques
Systèmes
experts
Cours #10GPA-779
- 2 Application des réseaux de neurones et des systèmes experts
Domaines d’application de l ’IA
Vision
Robotique
Langages
Parole naturels
Tâches
formelles
Sens
Réseaux
commun
neuroniques
Systèmes
experts
Cours #10GPA-779
- 3 Application des réseaux de neurones et des systèmes experts
Domaines d’application de l ’IA
Vision
Robotique
Langages
Parole naturels
Tâches
formelles
Sens
Réseaux
commun
neuroniques
Systèmes
experts
Cours #10GPA-779
- 4 Application des réseaux de neurones et des systèmes experts
Domaines d’application de l ’IA
Vision
Robotique
Langages
Parole naturels
Tâches
formelles
Sens
Réseaux
commun
neuroniques
Systèmes
experts
Cours #10GPA-779
- 5 Application des réseaux de neurones et des systèmes experts
Domaines d’application de l ’IA
Vision
Robotique
Langages
Parole naturels
Tâches
formelles
Sens
Réseaux
commun
neuroniques
Systèmes
experts
Cours #10GPA-779
- 6 Application des réseaux de neurones et des systèmes experts
Domaines d’application de l ’IA
Vision
Robotique
Langages
Parole naturels
Tâches
formelles
Sens
Réseaux
commun
neuroniques
Systèmes
experts
Cours #10GPA-779
- 7 Application des réseaux de neurones et des systèmes experts
Domaines d’application de l ’IA
Vision
Robotique
Langages
Parole naturels
Tâches
formelles
Sens
Réseaux
commun
neuroniques
Systèmes
experts
Cours #10GPA-779
- 8 Application des réseaux de neurones et des systèmes experts
Domaines d’application de l ’IA
Vision
Robotique
Langages
Parole naturels
Tâches
formelles
Sens
Réseaux
commun
neuroniques
Systèmes
experts
Cours #10GPA-779
- 9 Application des réseaux de neurones et des systèmes experts
Domaines d’application de l ’IA
Vision
Robotique
Langages
Parole naturels
Tâches
formelles
Sens
Réseaux
commun
neuroniques
Systèmes
experts
Cours #10GPA-779
- 10 Application des réseaux de neurones et des systèmes experts
Chapitre 1
Réseaux de neurones artificiels
Modèle d’un neurone artificiel N
net = ∑w x −θ
m i=1 mn n m
x1 Wm N
1
y = f (F ( ∑ w x , a )) = f (a )
x2 Wm m n=0 mn n m m
Entrée xk
x3 Wm 3
€ am (k)
Wm ym
x4
4
netm
Wm 5 € = =
x5 Wm
m f(a) Sortie
n
F(net,a)
xn
Wm N
f :
xN
Binaire ou Linéaire Sigmoïde
Signe à seuil
Cours #10GPA-779
- 12 Application des réseaux de neurones et des systèmes experts
netj : Somme pondérée de toutes les
entrées à ce site du neurone
netj : lorsqu’il y a 1 site
skj : lorsqu’il y a plus d’un site par
neurone
I v v
∑
net j= w ji xi=Wj• X
i=0
v v ⎛
net j=W j⋅X cosθ ⎞
⎝ ⎠ W
j
Cours #10GPA-779
- 13 Application des réseaux de neurones et des systèmes experts
N
neti= ∑ winxn±θi
n=1
Δwin=η⋅xn⋅r(win,yi,di)
x1 Wi 1
x2 Wi 2 ΔWi=η r(Wi,yi,di)X
x3 Wi
Entrée X
3
ai (k)
yi Sortie yi
Wi
x4
4
neti
Wi 5 = =
x5 Wi n
j f(a)
F(net,a)
xn Wi N
wi n
Générateur du
xN xn
r
di
Signal
d’apprentissage
Cours #10GPA-779
- 14 Application des réseaux de neurones et des systèmes experts
Taxonomie générale
Réseaux Réseaux
# couches
monocouches multicouches
Cours #10GPA-779
- 15 Application des réseaux de neurones et des systèmes experts
Taxonomie pour la
reconnaissance de formes
Problématique
Extraction Système
X des Y de D
primitives décision
Cours #10GPA-779
- 16 Application des réseaux de neurones et des systèmes experts
Les réseaux de neurones extracteurs de primitives
Réseau de neurones
d’extraction de
primitives Système
de
décision
Composantes
principales
y
y1
.
z
..
.
...
............
.
z.
.. .. . Système
v . .. .. . ... . ..
j
V2 de
i
x1 .. u décision
j V1
x
i
Vecteurs
prototypes
P3 . . . .. P1
Extraction . .. ... d3 . . d1
des
primitives
. ..
d2
.z
P1, P2, P3 . ...
..
P2
Primitives visuelles
Système
de
décision
Éléments linéaires
Système
de
décision
Réseau de
neurones
classifieur
Extraction
des
primitives
Extractio Système
n des de
primitive décision
s
Cours #10GPA-779
- 24 Application des réseaux de neurones et des systèmes experts
Chapitre 2
Domaines d’application
Principaux domaines
d ’application
1. Classification
2. Regroupement
3. Approximation
4. Prédiction
5. Optimisation de
parcours
6. Mémoire
associative
7. Commande
Cours #10GPA-779
- 26 Application des réseaux de neurones et des systèmes experts
Introduction aux
Réseaux de Neurones
Application en Reconnaissance de Formes
B. Solaiman
Dépt. Image & Traitement de l'Information
Ecole Nationale Supérieure des Télécommunications de
Bretagne
Neurone formel
4 Réseaux Madaline
Le neurone formel de McCulloch&Pitts
.AND.
?
.OR.
.XOR.
…....
Fonctions logiques
Version circuit à seuil
x1
1
y yq
N xn
wn
y = X × WT = ∑w n xn Circuit à seuil
n =1
xN
wN
⎧ 1 si y > θ
yq = ⎨
Combinateur linéaire adaptatif
⎩- 1 sinon.
x1 x1
w1=+1 w1=+1
x2 x2
w2=+1 ET w2=+1 OU
x1 x2 Sortie ET Sortie OU
-1 -1 -1 -1
-1 1 -1 1
1 -1 -1 1
1 1 1 1
Cours #10GPA-779
- 30 Application des réseaux de neurones et des systèmes experts
4 Neurone formel - Réseaux Madaline
x2 x3
x2
D +
D+
x1 x1
D - D-
2 Surface de séparation :
N
∑ω n x n - = 0
3 Apprentissage n =1
Base d’exemples
(Xk, d(k)) Estimer wn et
d(k) = 1
L’algorithme d’apprentissage de Rosenblatt , 1958
x1(k)
w1
y(k)
yq(k)
xn(k)
wn
Xk W(t+1) = eq(k) Xk
W(t+1)
W(t)
x1
x2
La modification de poids est proportionnelle à l’erreur et au vecteur d’entrée et est
de même direction que ce dernier
Cours #10GPA-779
- 35 Application des réseaux de neurones et des systèmes experts
Le déroulement de l’algorithme d'apprentissage
initialisation aléatoire des poids synaptiques;
tant que CONDITION D’ARRÊT non vérifiée faire
Pour k=1 jusqu'à k=K
faire
présenter la forme Xk à l'entrée;
calculer yq(k);
calculer eq(k);
Pour n = 0 jusqu'à n = N faire
ajustement des poids :
wn(t+1) = wn(t) +
eq (k) xn(k)
Exemple : = 0, d(k)= 1
y (k) = 0.0001 eq(k) = 0
y (k) = 0.9999
L’algorithme de Widrow-Hoff, 1960
x1(k)
w1
yq(k)
xn(k)
y(k)
wn
xN(k) Algorithme
d(k)
de
wN Widrow-
Nouveaux
[w1, w2,…, wN] Hoff e(k)
C1 C1 C1
C2 C2 C2
Widrow-Hoff
A p p r e n t i s s a g e
Rosenblatt
C1 C1 C1
C2 C2 C2
6 Applications - OCR
Classe 1 : -1
Classe 2 : +1
Imagette Poids
d’entrée synaptiques
X
4 Neurone formel - Réseaux Madaline
réseaux Madaline
x2
x1 AN Décision
D
C1 : {-1,+1}
x2 OR Décision
x1
C2 : {-1,+1}
Solution « artificielle »
et si N > 3 ?
Naissance de l’architecture multicouches
Réseaux de Neurones Multicouches
Algorithme de rétropropagation de gradient
B. Solaiman
Dépt. Image & Traitement de l'Information
Ecole Nationale Supérieure des Télécommunications de
Bretagne
1 Réseaux multicouches
x1
x2
X xn
S
xN
B = {( X , D ), k=1, 2, …, K}
k k
x1(k)
x2(k)
d1(k) = 1
xi(k) d2(k) = 0
d3(k) = 0
xN(k)
concrètement :
x1(k)
x2(k) s1(k) d1(k)
xi(k) s2(k) d2(k)
s3(k) d3(k)
xN(k)
P(n+1) = P(n) -
∂Coût ( p)
∂p P(n)
p
P(n)
P (n+1)
Fonction du coût à minimiser : Coût(p1, p2 ,…., pL)
∂Coût ( p ,..., p ,..., p )
Pl(n+1) = Pl(n) - 1 l L
∂p P (n)
l l
Cas d’une couche cachée
x1(k) s1(k)
x2(k)
xN(k)
sM(k)
Vecteur
d’entrée Couche cachée Vecteur de sortie
comportant J neurones obtenu
Cours #10GPA-779
- 50 Application des réseaux de neurones et des systèmes experts
Fonction du coût : Erreur quadratique instantanée
1 M
2
E =
k 2 ∑ m(d (k) −s m (k))
m =1
pour les poids synaptiques wm,j
Δw = η y (k) δ (k)
m, j j m
Wm,j
Erreur liée à sm
L
€ δ (k) = (d (k) − s (k)) f ′( ∑ w y (k))
m m m m, j j
j =1
Cours #10GPA-779
- 51 Application des réseaux de neurones et des systèmes experts
pour les poids synaptiques vj,i
Δv = η x n (k) δ j (k)
j,n
€
vj,n
M
?
δ δ j (k) = f ' ( net j ( k )) ∑ δ (k) w
m m, j
1 m =1
δ' δ
j m
€
δ
M
Cours #10GPA-779
- 52 Application des réseaux de neurones et des systèmes experts
Le déroulement de l'algorithme de la
rétropropagation du gradient
La propagation directe
1. La forme Xk est présentée à l'entrée du réseau
2. Calcul des y (k), j= 1, 2, .., J, et
j sm(k), m= 1, 2, .., M
3. Calcul des (k), m= 1, 2, .., M
m
La rétropropagation
1. Rétropropagation et calcul de , j=1,2, … ,J j
Cours #10GPA-779
- 53 Application des réseaux de neurones et des systèmes experts
Résumé: fonctionnement du rétro-prop.
a) propagation directe
Cours #10GPA-779
- 54 Application des réseaux de neurones et des systèmes experts
Résumé: fonctionnement du rétro-prop.
b) propagation inverse du gradient
Cours #10GPA-779
- 55 Application des réseaux de neurones et des systèmes experts
Point de vue extraction de primitives
. . ** ..
. * 0
.. 0 0
. 0 0
0 0 0 00 0
* *0 * ***
*
4
Applications
Reconnaissance Optique des Caractères (O.C.R)
Seuillage d’images
Cours #10GPA-779
- 59 Application des réseaux de neurones et des systèmes experts
5.1 Architecture
x1 y1
x2 y2
W
xN yM
Cours #10GPA-779
- 60 Application des réseaux de neurones et des systèmes experts
Phases d’opération
1- Entraînement
Prototype à mémoriser: V k 1 ≤k ≤P
p
Mémorisation: W = ∑W
(k)
k:1
Entrée:
Tk
2- Recherche
Y = XW T
Y T = WX T
Cours #10GPA-779
- 61 Application des réseaux de neurones et des systèmes experts
Catégories
1- Mémoire auto- Tk → Vk V =T 1 ≤k ≤P
associative k k
2- Mémoire héréro- Tk → Vk V ≠T 1 ≤k ≤P
associative k k
Cours #10GPA-779
- 62 Application des réseaux de neurones et des systèmes experts
5.2 Entraînement
Règle de Hebb
Algorithme
0- Initialisation
Wmn = 0
Cours #10GPA-779
- 63 Application des réseaux de neurones et des systèmes experts
Algorithme alternatif: produit externe de vecteurs
P
W = ∑TkT × Vk
k =1
W0 = W −PI
Cours #10GPA-779
- 64 Application des réseaux de neurones et des systèmes experts
Phase de recherche
X = Tk =l = Tl
Y = XW T
p
= ∑TlTkT Vk
k:1
= TlTl T Vl + ∑TlTkT Vk
k ≠l
1- Entrées non-corrélés (vecteurs orthogonaux)
recouvrement total et parfait
2- Entrées corrélés
recouvrement croisé (bruit d’intercorrélation)
Cours #10GPA-779
- 65 Application des réseaux de neurones et des systèmes experts
Règle Delta
Règle itérative utilisée pour des vecteurs à mémoriser qui
sont linéairement indépendants mais non-orthogonaux. La
règle atténue les effets de corrélation croisée et produit une
solution de moindres carrés lorsque les vecteurs ne sont pas
linéairement indépendants
xi = ti
⎛ ⎞
y j = f ⎜∑ xi w ji = net j ⎟
⎝ i ⎠
Δwij = η f ′(net j ) (v j −y j ) xi
Cours #10GPA-779
- 66 Application des réseaux de neurones et des systèmes experts
5.3 Mémoires anticipatives
Algorithme
1- Entraînement
a) Hebbien
b) Delta
2- Forme (partielle ou bruitée) présentée à l’entrée
netj = ∑ xi w ji
i
netj > 0
1
yj = 0 netj = 0
−1 netj < 0
Cours #10GPA-779
- 67 Application des réseaux de neurones et des systèmes experts
5.4 Mémoires itératives
5.4.1 Réseau de Hopfield
y1 y3
-2
1 1
wij = w ji
1 wii = 0
+4 +1
x1
-1
⎧1
⎪
∑w ij y j ≥0
1 yi = ⎨ j
x2 y2 ⎪−1 ∑w ij yj < 0
⎩ j
Cours #10GPA-779
- 68 Application des réseaux de neurones et des systèmes experts
Chapitre 6
Réseaux récurrents
Énergie d ’un réseau de Hopfield
• Décroissance assurée de
la fonction d’énergie
• Neurones activés à 1
• Activations calculées
une à une
Cours #10GPA-779
- 70 Application des réseaux de neurones et des systèmes experts
Exemple de calcul de l’énergie
V1 V2
- E=−[V1V3T13+V1V2T12+V2V3T23]−[S1V1+S3V3]
1 1 2 1
−E=−4+(−2)+(−1)+1+(−1)
S1
+ +
4 1 −E=−7
-1
1
V3
S3
Cours #10GPA-779
- 71 Application des réseaux de neurones et des systèmes experts
6.2 Dynamique du réseau:
relaxation
Objectif : Partir d’un niveau d’énergie
donné, atteindre le minimum local le plus
proche pour récupérer l’information stockée
Cours #10GPA-779
- 73 Application des réseaux de neurones et des systèmes experts
Relation entre changement d’état et
minimisation de l’énergie (2)
⎛
ΔE=−ΔVk⎜∑TikVi+Sk⎞
⎝ i≠k ⎠
ΔE=0 ΔE<0
Cours #10GPA-779
- 74 Application des réseaux de neurones et des systèmes experts
Algorithme de relaxation
DÉPART
Vk =1si∑TikVi+Sk≥0
i
Vk =−1si∑TikVi+Sk<0
i
Non Vj tous
visités ?
Oui
Non
P stable ?
Oui
FIN
Cours #10GPA-779
- 75 Application des réseaux de neurones et des systèmes experts
6.3 Apprentissage
« tailler » la courbe d’énergie
La règle la plus simple: Hebb
L’apprentissage est réalisé AVANT
d’utiliser le réseau comme mémoire
associative pour retrouver la forme
emmagasinée à partir d’information
partielle ou bruitée
Cours #10GPA-779
- 76 Application des réseaux de neurones et des systèmes experts
6.4 Optimisation
Une fonction de coût remplace la
fonction d’énergie
L’optimisation consiste à minimiser la
fonction de coût
La fonction de sortie utilisée est la
fonction sigmoïde (au lieu de la
fonction signe ou échelon)
tanh(net
2 ) ou 1−net
1+e
Cours #10GPA-779
- 77 Application des réseaux de neurones et des systèmes experts
Exemple: Voyageur de commerce
Un vendeur doit établir un itinéraire de visite
de 5 villes. Il doit partir de Boston et revenir à
Boston à la fin de son itinéraire.
Chaque ville est visitée une et une seule fois
L’itinéraire doit être le plus court possible afin de
minimiser les frais d’essence
La principale difficulté rencontrée avec ce type
de problème est l’explosion combinatoire des
solutions à évaluer.
Cours #10GPA-779
- 78 Application des réseaux de neurones et des systèmes experts
Réseau de Hopfield
Lignes villes
Colonnes séquence de
visite
Poids contraintes du
problème à résoudre
– 1 ville visitée 1 seule fois
– 1 étape 1 seule ville
– Distance entre les villes
Activation du réseau
minimisation du coût
Cours #10GPA-779
- 79 Application des réseaux de neurones et des systèmes experts
Fonction de coût C
C1 C2 C3 C4
Cours #10GPA-779
- 80 Application des réseaux de neurones et des systèmes experts
Calcul des poids
Cours #10GPA-779
- 81 Application des réseaux de neurones et des systèmes experts