Plan
• Le perceptron.
Modélisation du neurone
Le neurone réel
• Dans un cerveau, il y a 10^12
neurones avec 10^3 à 10^4
connexions par neurone.
• Dendrite : récepteur des
messages
• Corps : génère le potentiel
d’action (la réponse)
• Axone : transmet le signal aux
cellules suivantes
• Synapse : jonction axone -
dendrite (plus ou moins
passante)
• Neurone : élément autonome
dépourvu d’intelligence
Modélisation du neurone
La modélisation du système nerveux biologique repose sur la correspondance suivante
Les poids
x1 :Entrée 1 La fonction de transfert
x1 w1
Ou d’activation
y : Sortie
f(x)
x2 :Entrée 2
x2 w2
Modélisation du neurone
X1 w1
X2 w2 g
w3
X3
w4 Σ f Y
X4 wn
Xn
Notions de base
Modélisation du neurone
Les éléments constitutifs du neurone artificiel
Modélisation du neurone
g = ∑ W i Xi X2 w2 g
• Wi :
• Poids de la
X3
w3
w4
Σ f Y
connexion à X4 wn
l’entrée i.
• Xi : Xn
• Signal de l’entrée i. FONCTION
de
COMBINAISON
Notions de base
Modélisation du neurone
• La fonction de X4 wn
transfert "f" peut
avoir plusieurs Xn
formes.
FONCTION
de TRANSFERT
Notions de base
Modélisation du neurone
• Fonction en échelon.
Modélisation du neurone
Fonction de transfert en échelon :
Y = f(g)
+1
g
SEUIL
-1
Notions de base
Modélisation du neurone
Fonction de transfert linéaire par morceaux :
Y = f(g)
+1
g
SEUIL
-1
Notions de base
Modélisation du neurone
Fonction de transfert dérivable (sigmoïde) :
Y = f(g)
+1
g
SEUIL
-1
Notions de base
Types d’apprentissage
Le but des réseaux neuronaux est d’apprendre à répondre correctement à
différentes entrées.
Moyen : modification des poids par apprentissage supervisé, ou non
supervisé.
• Apprentissage supervisé: un système “instructeur”
corrige les réponses éronnées.
erreur
Types d’apprentissage
Types d’apprentissage
Apprentissage supervisé (ex: OCR)
RESEAU b
Σ f
c
z
Notions de base
Types d’apprentissage
Apprentissage non supervisé
Le perceptron
Le perceptron
Plan de la partie
UTILISATION
APPRENTISSAGE du RESEAU
PHASE 1 PHASE 2
Le perceptron
L’algorithme d’apprentissage
• Le perceptron est un
X1 w +1
classificateur linéaire 1
• Il réalise une partition de son X2 w2 g ↑
espace d’entrée (X1,…,Xn) en
deux, ou plusieurs classes C1, w3
…, Cm. séparables linéairement
X3
w4 Σ f Y
-1
Le perceptron
L’algorithme d’apprentissage
Algorithme du perceptron (algorithme de principe)
X1
• Dans le cas de la fonction OU,
une droite permet toujours la + +
séparation des deux classes.
X2
• Pour deux classes :
– C1 (Y = +1): – +
• {(+1;+1); (+1;-1);(-1;+1)}
– C2 (Y = -1):
• (-1;-1) « OU » logique
Le perceptron
• Dans le cas de la
X1
fonction OU-EXCLUSIF,
la séparation des deux + –
classes ne peut se faire
par une droite mais par X2
une courbe. – +
– C1 (Y = +1):
• {(-1;+1); (+1;-1)}
– C2 (Y = -1): « OU-Exc » logique
• {(+1;+1); (-1;-1)}
Le perceptron
Plan de la partie
• Réseaux de neurones
formels
• Apprentissage d’un réseau
multicouche
• L’algorithme d’apprentissage
Réseaux multicouches à rétro-propagation de l’erreur
F(x)
COUCHE UNIQUE*
F(x)
F(x)
*Les entrées des réseaux sont soit des sorties d'autres neurones, soit des
entrées directes dans le réseau (par exemple des pixels).
Réseaux multicouches à rétro-propagation de l’erreur
ΣF(x)f
F(x)
ΣF(x)f
F(x)
ΣF(x)f
COUCHE EN SORTIE
COUCHE EN ENTREE*
*Les entrées des réseaux sont soit des sorties d'autres neurones, soit des
entrées directes dans le réseau (par exemple des pixels).
Réseaux multicouches à rétro-propagation de l’erreur
ΣF(x)f
F(x)
ΣF(x)f ?
F(x)
ΣF(x)f
COUCHE COUCHE EN SORTIE
CACHEE
COUCHE EN ENTREE*
*Les entrées des réseaux sont soit des sorties d'autres neurones, soit des entrées directes
dans le réseau (par exemple des pixels).
Réseaux multicouches à rétro-propagation de l’erreur
ACTIVATION
ACTIVATION
F(x) E
F(x) F(x) R
R
F(x) E
F(x) F(x) U
R
F(x) COUCHE COUCHE EN SORTIE
CACHEE
COUCHE EN ENTREE CORRECTION
CORRECTION de l'ERREUR
de l'ERREUR
Réseaux multicouches à rétro-propagation de l’erreur
W Z
x1 F(x) E
F(x) R
R
x2 F(x) E
F(x) U
R
xn
h
F(x)
COUCHE
x L neurones o
ENTREES COUCHE EN SORTIE
I J neurones
Réseaux multicouches à rétro-propagation de l’erreur
• et sa edérivée
x
1: e x
f ( x) f ( x)1 f ( x)
1 e
x 2 x
1 e 1 e x
Réseaux multicouches à rétro-propagation de l’erreur
L’algorithme d’apprentissage
• Soit le vecteur xk à
l’entrée (forme k). hk f (Wx k )
• La réponse de la
cellule cachée est le
ok f ( Zhk )
vecteur :
• La réponse des
cellules de la couche
de sortie est le
Réseaux multicouches à rétro-propagation de l’erreur
L’algorithme d’apprentissage
L’algorithme d’apprentissage
L’algorithme d’apprentissage
L’algorithme d’apprentissage
• L’erreur sortie,k se propage en sens
inverse (back-propagation)f à(Wx travers
) les
k
connexions Z.
• Elle est pondérée par l’activation
cachée,k des (Wxk ) Zcachées.
f cellules T
t sortie,k hk 1 hk Z t sortie,k
T
• Le signal d’erreur :
Réseaux multicouches à rétro-propagation de l’erreur
L’algorithme d’apprentissage
Résumé du module
Rétro-
NEURONE propagation de
Perceptron : l'erreur :
principe de =
Combinaison estimation de
séparabilité l'erreur en
linéaire +
Transfert couches cachées