Vous êtes sur la page 1sur 3

USTHB - FGE Master Automatique et Systèmes Année 2022 - 2023

Le perceptron multicouche
Architecture d’un perceptron multicouche à deux couches cachées
(Feedforward)
Il est constitué d’une couche d’entrée, de deux couches cachées et d’une couche de sortie. Ce
réseau est entièrement connecté, cela signifie que chaque neurone d’une couche est relié à
tous les neurones de la couche suivante. L’information qui provient des signaux d’entrée se
propage d’une couche à une autre, de gauche à droite.

Apprentissage

L’algorithme d’apprentissage est le ‘’Back-propagation algorithm’’ qui est basé sur


l’algorithme par correction d’erreur. Il consiste en deux étapes : D’abord un passage ‘’en
avant ou forward’’ de gauche à droite qui consiste à propager le signal d’entrée sur tous les
neurones et à calculer l’activité de chaque neurone sans changer la valeur des poids des
connexions. Un second passage ‘’en arrière ou backward’’ qui consiste à rétropropager des
signaux d’erreur de droite à gauche et à adapter la valeur des poids des connexions suivant
une règle de correction d’erreur (Figure 2)

Fig 2. Propagation des signaux d’entrée et


rétropropagation des signaux d’erreur

N.Achour 1
USTHB - FGE Master Automatique et Systèmes Année 2022 - 2023

Détails de l’algorithmed’apprentissage (Rétropropagation du gradient)


1. Initialisation des poids du PMC
2. Faire : La propagation directe :
pour chaque vecteur de la base d’apprentissage
2.1 xn=Xk (n=1….N)
N
2.2 Calcul de l’entrée de chaque neurone caché z in _ j  v j 0   v jn x n
n1
2.3 Calcul de la sortie de chaque neurone caché hj=f(zin_j)

1
vj0
vjn hj
xn j
n
J
2.4 Calcul de l’entrée de chaque neurone de sortie yin _ m  w j 0   wmj h j
j 1
2.5 Calcul de la sortie de chaque neurone de sortie ym=f(yin_m)

1
wm0
wmj m ym
hj
j m

La rétropropagation
Sachant que chaque neurone de sortie possède une sortie désirée dm
2.6 Calcul des signaux d’erreurs de la sortie  m  d m  ym  f ' ( yin _ m )
2.7 Calcul des modifications des poids de la couche de sortie wmj  h j m
2.8 Rétropropager le signal d’erreur m vers la couche cachée
M
2.9 Calcul du signal  in _ j  
wmj  m
m 1
2.10Calcul du signal d’erreur de la couche cachée  j   in _ j f ' ( zin _ j )
wmj
in-j m ym
vjn j j m

2.11Calcul des modifications des poids de la couche cachée v jn  xn j


2.12Mise à jour des poids
v jn (nouveau )  v jn (ancien )  v jn
w mj (nouveau )  w mj (ancien )  w mj
Jusqu’à critère d’arrêt satisfait
3. Retourner les poids du réseau

N.Achour 2
USTHB - FGE Master Automatique et Systèmes Année 2022 - 2023

4. Fin

N.Achour 3

Vous aimerez peut-être aussi