Académique Documents
Professionnel Documents
Culture Documents
Plan du cours
1. Introduction
2. Représentation neuronale : le perceptron
3. Architectures des réseaux de neurones (Perceptrons monocouches et
multicouches)
4. Critères d’optimisation du réseau de neurones multicouches
5. Algorithmes d’apprentissage des réseaux de neurones multicouches
6. Applications
1. Introduction
Neurones biologiques
Corps cellulaire
Noyau
Axone
Direction de
l’impulsion
Synapse
Dendrite
•Dendrite: entrée
•Axone: Sortie
•Synapse: jonction entre deux neurones (pondération)
Si le poids est fort, la jonction est excitatrice
Si le poids est faible, la jonction est inhibitrice
Synapses
Potentiel somatique
(Seuil de déclenchement)
Potentiel somatique
(Seuil de déclenchement)
x1 w1 n
f 1
u wi xi
w2 Fonction
i 1 s f(u)
x2 d’activation
wn 0
xn Neurone formel
Seuil
u u u
u u u
u u T : paramètre qui
e T T contrôle la pente à
f (u)
1
] 1, 1[ f ( u) e u ]0, 1[ l’origine
u
e T 1 1 e T
Vecteur de sortie
Vecteur d’entrée
Vecteur de sortie
= = 1, … ,
indice de la classe
0
= 1
: indice de l’échantillon 0
: indice de la classe
Association Matrice
Couche Couche de Codage
01 0 d’entrée poids W sortie des labels
Entrée = 1, … , Codage des labels :
Activation d’une seule
sortie associée au
vecteur d’entrée de la
classe.
= 1, … , et = 1, … ,
Forme matricielle
1 +
avec = et =
Fin de l’apprentissage
Donnée à = =
reconnaître
= =
Produit scalaire
Perceptron monocouche :
x1
x2
x3 W1 W2
xP
Poids synaptiques
Sortie Sortie
estimée désirée
(Label)
Notation :
Transformation
= =
log( )
log( )
log( )
( , ) log( )
( , ) log( )
log( ) 1
=
=
=
( , )
En remplaçant dans l’équation , on obtient :
( , ) 1
(1 . )
( , )
= =
Le calcul des poids synaptiques est fondé sur la descente du gradient (Gradient descent).
L’algorithme de calcul des poids synaptiques est fondé sur la rétro-propagation des erreurs
de la sortie vers l’entrée.
5. Algorithmes d’apprentissage
Perceptron multicouches : Architecture à une couche cachée
=
= () () =
=
= () () =
=
= () () =
Probabilité
en sortie Sortie désirée
Couche d’entrée (Label)
Couche cachée Couche de sortie
: Poids entre le nœud dans la couche et le nœud dans la couche 1 pour = 1, … , où est le nombre de couches.
: Biais au nœud dans la couche
( ) : Fonction d’activation de forme Sigmoïdale
: Potentiel somatique au nœud dans la couche pour = 2, . . ,
( ) : Fonction d’activation de forme Softmax
: Sortie au nœud dans la couche après la fonction d’activation
5. Algorithmes d’apprentissage
Perceptron multicouches : Configuration d’une couche cachée et d’une couche de sortie
=
=
() ()
= + = +
() ()
1 = = = =
= =
1+
= 1, … , , = 1, … ,
: Nombre de nœuds dans la couche cachée j. : Nombre de classes.
Principe : Recherche d’un paramètre en minimisant une fonction notée ( ) où est le paramètre à rechercher.
0
1
2 >0
( )
<0 3
4
5
=0
Valeur optimale
1
= ( )
= = =
= ( ) log( ) avec
= +
+1 = ( )
1
+1 = ( )
Difficulté : Calcul du gradient sur l’ensemble d’échantillons nécessite un temps de calcul important.
+1 = ( )
• Pour = 1, … , :
+1 = ( )
+1 = ( )
+ 1 : Momentum
+1 = + 1
( )
+1 = ( )
, = , 1 + (1 ) Moment d’ordre 1
, = , 1 + (1 )( ) Moment d’ordre 2
,
= Pas d’apprentissage est mis à jour à chaque itération.
, +
+1 =
=
= () () =
=
= () () =
=
= () () =
Probabilité
en sortie
Couche d’entrée
Couche cachée Couche de sortie
( ) =
= =
()
= 1, … ,
( ) ( )
= = =
=
= = =
= + =
= =( )
+1 = ( )
( ) =
=
+1 =
Prof. Youcef CHIBANI 29
Couche cachée =
( ) () =
=
() () =
( )
=
= + () =
1
= =
1+
( ) ( ) ( ) ( )
= + + =
( )
=
=
( )
=
Comment calculer =?
= +
+
= =
( )
= = = ( )
= ( )
1
= avec = et =
1+
Prof. Youcef CHIBANI 31
= =
Comme : = +
+
=
+1 = avec =
Perte
Bon apprentissage
Itération
Apprentissage Apprentissage
Validation Validation
Sur-apprentissage
Perte
Perte
Sous-apprentissage
Itération Itération
6. Applications
6. Applications
Codage en entrée
Découpage du signal en trames (Nécessité de la normalisation temporelle)
Calcul du vecteur caractéristique pour chaque trame (Coefficients MFCC)
Codage en sortie
Identique à la reconnaissance des chiffres manuscrits