Académique Documents
Professionnel Documents
Culture Documents
On se propose d’approximer la fonction f ( x) sin x sur l’intervalle [0, 4]
2
avec un réseau MLP à une couche cachée. Pour cela, on dispose de p échantillons
d’apprentissages xi , f ( xi ) choisis uniformément dans l’intervalle [0, 4] (par ex :
p=500). On définit au préalable certains indices de performances :
p
( y i yi *) 2
i 1
Erreur moyenne d’apprentissage t
p
v
( y i y i *) 2
i 1
Erreur moyenne de validation v
v
I. Faire le schéma de la structure du réseau MLP à une couche cachée (avec n neurones
dans la couche cachée) correspondant à ce problème.
II. Ecrire l’algorithme d’apprentissage des poids selon la méthode d’évaluation du
gradient par rétro propagation.
III. Ecrire le programme Matlab correspondant (Version 6 ou moins de 6).
b) Reprendre la question a) avec des valeurs de n >1 (par ex : 2 ; 3 ; etc.) dans la couche
cachée.
IV.2 Reprendre à partir de IV.1 pour p=200 ; puis 300 ; 500 et 700.
I. Schéma de la structure du réseau MLP à une couche cachée (avec n neurones dans
la couche cachée) correspondant à ce problème
Sigmoïdes
W1
Entrée Fonction d’activation
W2
Xi W3 Sortie
Yi *
Wn
Entrée du système Une couche cachee Une couche de sortie
y i yi )2
t i 1
p
Cet algorithme nécessite une fonction continue, non-linéaire et différentiable
comme fonction de transfert du neurone. Nous voulons ici approximer une fonction ;
On va effectuer l’apprentissage supervisé.
1. Initialisation
Nombre d’entrées ;
Nombre de sorties ;
Nombre de couches cachées et de neurones intérieurs ;
Constitution de la base de données d’apprentissage ;
Pré-traitement des données d’entrées ;
Poids à des valeurs aléatoires de faible grandeur.
2. Apprentissage
Sélection d'un exemple d'apprentissage (E, d) dans la base d’apprentissage ;
Présentation de la forme d'entrée (E) sur la couche d'entrée du réseau ;
Calcul par propagation de la sortie obtenue ;
Si erreur en sortie, alors pour tous les neurones i (depuis la sortie jusqu'à l'entrée)
Si i est un neurone de sortie alors qi 2 (ai ) (yi yi ) ;
Si i est un neurone caché (ou d'entrée) alors qi (ai ) Wki yk ;
k