Explorer les Livres électroniques
Catégories
Explorer les Livres audio
Catégories
Explorer les Magazines
Catégories
Explorer les Documents
Catégories
(Mars 2004)
E.M.P
Benbouchama Cherrad
1
LES RESEAUX DE NEURONES Benbouchama Ch. (Mars 2004)
Bibliographie
2
LES RESEAUX DE NEURONES Benbouchama Ch. (Mars 2004)
Chapitre 1
1. INTRODUCTION
10 centimètres Systèmes
1 centimètre Coupe
1 millimètre Circuit
1 micron Synapse
10 Angströms Molécule
3
LES RESEAUX DE NEURONES Benbouchama Ch. (Mars 2004)
L’unité centrale de l’être humain est son cerveau qui est l’organe le plus
complexe. Cet organe lui permet d’analyser et de comprendre les différents
phénomènes qui l’entourent. Cette merveilleuse machine est composée de
361679616 entités élémentaires appelées neurones.
Chaque neurone est relié à d’autres par des synapses (36000 par neurone). C’est
l’interconnexion des neurones qui permet au cerveau de réaliser les différentes
fonctions telles que la réflexion, la vision, l’audition, etc.… On appelle cette
interconnexion " un réseau de neurones ".
4
LES RESEAUX DE NEURONES Benbouchama Ch. (Mars 2004)
Si la station de travail Sun était aussi efficace qu'un pigeon, elle aurait
fini la tâche en 1/100 sec ! !
Malgré cet héritage, l’essentiel des travaux d’aujourd’hui ont pour objet le réseau
de neurones formels et non son corrélat neurobiologique. Vus comme des
systèmes de calcul, les réseaux de neurones possèdent plusieurs propriétés qui les
rendent intéressants d’un point de vue théorique, et fort utiles en pratique
(optimisation, reconnaissance, classification, identification, commande, etc…).
5
LES RESEAUX DE NEURONES Benbouchama Ch. (Mars 2004)
2.1 Le neurone
y1 ai1
yj aij
yN aiN
vi Système xI Fonction yi
u1 bi1 + dynamique d’activation
linéaire
uk bik
uM biM
wi
vi(t) = Σ j=1,N
aij.yj(t) + Σ k=1,M
bik.uk(t)
Ou sous la forme matricielle :
V(t) = A.Y(t) + B.U(t) + W
Avec:
V(t) : vecteur colonne (Nx1).
Y(t) : vecteur colonne (Nx1) représentant les N sorties yi .
U(t) : vecteur colonne (Mx1) représentant les M entrées uk .
W : vecteur colonne (Nx1) représentant les N constantes wi .
A : matrice (NxN) dont l’élément ij est aij.
B : matrice (NxM) dont l’élément ik est bik.
6
LES RESEAUX DE NEURONES Benbouchama Ch. (Mars 2004)
1 si xk+1 > T
k+1
- g(x ) = g(xk) si xk+1 = T
0 si xk+1 < T
7
LES RESEAUX DE NEURONES Benbouchama Ch. (Mars 2004)
Modèle de Hopfield
Modèle d’Elman
8
LES RESEAUX DE NEURONES Benbouchama Ch. (Mars 2004)
L’apprentissage est l’une des propriétés les plus importantes des réseaux de
neurones. C’est un changement des coefficients synaptiques qui se fait de telle
manière que les réseaux remplissent une tâche définie par un ensemble
d’entraînement ou un ensemble d’exemples dit, aussi ensemble d’apprentissage.
Les règles d’apprentissage peuvent être divisées en deux catégories : apprentissage
supervisé et apprentissage non-supervisé (à revoir aprés en détail).
( xi , yi ) Algorithme
d’apprentissage
Exemples de
yi = f(xi)
Implantation neuronale de yi = f(xi)
9
LES RESEAUX DE NEURONES Benbouchama Ch. (Mars 2004)
des états
Introduction Evaluation
des exemples de l’erreur
Rétropropagation
des erreurs
Cette algorithme change les poids d’un réseau, dont l’architecture est fixée par le
superviseur, à chaque fois qu’une paire ( xi , yi ) est présentée. Ce changement est fait
de telle sorte à minimiser l’erreur entre la sortie désirée yi et la réponse du réseau à
une entrée xi. Ceci est réalisé grâce à la descente du gradient : changement des poids
dans le sens oú la fonction d’erreur diminue (le négatif du gradient).
A chaque itération le signal d’entrée se propage dans le réseau dans le sens entrée-
sortie, une sortie est ainsi obtenue, l’erreur entre cette sortie et la sortie désirée est
calculée puis rétropropagée dans le sens sortie-entrée. Malheureusement, cet
algorithme souffre des problèmes de la méthode de la descente du gradient : les
paramètres du réseau se trouvent souvent bloqués dans un minimum local.
Pour l’exemple d’un réseau de neurones à trois couches (la figure suivante),
l’algorithme se présente comme suit :
10
LES RESEAUX DE NEURONES Benbouchama Ch. (Mars 2004)
fks(netpks)
netpks
1 wks M Couche de sortie
bkjs
1 1
1 Poids
constants
fjc(netpjc)
netpjc
1 wjc L Couche cachée
bjic
1 1
1 Poids
Constants
1 i N Couche d’entrée
netpjc = Σ i=1,N
bjic.xpi + wjc
netpks = Σ j=1,L
bkjs.ipj + wks
11
LES RESEAUX DE NEURONES Benbouchama Ch. (Mars 2004)
δpjc = f’jc(netpjc) Σ k
δpks. bkjs
Ep = ½ Σ k=1,M
δpk2
Continuer l’algorithme jusqu’à l’obtention de Ep ≤ Epseuil
a- L’architecture du réseau
Il n’existe pas de règle générale pour déterminer la structure du réseau (le nombre
de couches cachées et le nombre de neurones par couche), sachant que le problème
critique pendant l’apprentissage est de trouver un réseau assez large pour apprendre
mais assez petit pour généraliser.
b- Le temps d’apprentissage
Le temps nécessaire à l’apprentissage augmente avec le nombre de couples
d’apprentissage, ce qui diminue la vitesse de convergence.
c- La convergence de l’algorithme
Aucune preuve mathématique sur la convergence de cet algorithme vers un
minimum global n’existe. Du fait que cette méthode utilise la descente du gradient, la
recherche d’un minimum global, sur la surface de l’erreur dans le domaine des poids,
peut présenter un problème si cette surface possède des minimums locaux qui peuvent
emprisonner l’algorithme.
12
LES RESEAUX DE NEURONES Benbouchama Ch. (Mars 2004)
e- La saturation du réseau
Si les poids prennent de grandes valeurs, les sorties deviennent grandes et se
rapprochent de la zone de saturation de la fonction. La solution à ce problème est un
compromis à faire entre :
- Le choix d’un pas de correction petit.
- L’initialisation des poids à de trés petites valeurs.
Plusieurs approches ont été proposées pour remédier aux différentes difficultés
techniques rencontrées par la rétropropagation :
13
LES RESEAUX DE NEURONES Benbouchama Ch. (Mars 2004)
Comme pour les algorithmes quasi-newton, cet algorithme n’exige pas le calcul
du hessien, seulement il l’approxime d’une façon simple.
Les caractéristiques qui permettent aux réseaux de neurones d’être attractifs sont les
suivantes :
- Capacité d’apprendre :
C’est la qualité la plus importante et remarquable. Avec des données
d’entrées/sorties cibles qui définissent un système, on peut avoir une idée sur ce
dernier à partir de la relation reliant les entrées aux sorties. Ceci, sans connaître au
départ aucune information sur le système ou sur son fonctionnement. Cette relation
peut être imprécise, approximative ou prend beaucoup de temps pour s’approcher du
résultat désiré.
- Capacité de généraliser :
C’est la capacité d’un réseau de neurone d’être insensible aux variations des
données d’entrée. C’est à dire qu’il s’adapte à un environnement non parfait.
- Capacité d’abréger :
C’est la capacité de produire des sorties non rencontrées avant, à partir
d’entrées non rencontrées aussi.
14
LES RESEAUX DE NEURONES Benbouchama Ch. (Mars 2004)
L’une des applications les plus intéressantes des réseaux de neurones est
l’approximation des fonctions.
Comme premier exemple, on approximera la fonction :
y = sin(x)
Pour cela, on utilise un réseau de neurones statique appartenant à la classe η1,20,1. Les
fonctions d’activation des neurones de la couche d’entrée ainsi que celle du neurone
de la couche cachée sont de type tangente-sigmoïde. Celles des neurones de la
couche de sortie sont de type linéaire.
Les graphes suivants montrent l’amélioration des performances du réseau de
neurones durant l’apprentissage.
0.8 0.8
0.6 0.6
0.4 0.4
+ 0.2 +
t: :t 0.2
e
g e
g
r r
a 0 a 0
T T
-, -,
:t :t
u -0.2 u -0.2
pt pt
u u
O -0.4 O -0.4
-0.6 -0.6
-0.8 -0.8
-1 -1
0 1 2 3 4 5 6 7 8 0 1 2 3 4 5 6 7 8
Input Input
1 1
+ 0.5 + 0.5
t: t:
e
g e
g
r r
a a
T T
,- ,-
t: 0 t: 0
u
pt u
pt
u u
O O
-0.5 -0.5
-1 -1
0 1 2 3 4 5 6 7 8 0 1 2 3 4 5 6 7 8
Input Input
15
LES RESEAUX DE NEURONES Benbouchama Ch. (Mars 2004)
sin( x)
y=
x
Pour cela, on utilise un réseau de neurones statique appartenant à la classe η1,50,1. Les
fonctions d’activation des neurones de la couche d’entrée ainsi que celle du neurone
de la couche cachée sont de type tangente-sigmoïde. Celles des neurones de la
couche de sortie sont de type linéaire.
Les graphes suivants montrent l’amélioration des performances du réseau de
neurones durant l’apprentissage.
1
1.5
0.8
+ 1 + 0.6
t: :t
e
g e
r g
a r
T a 0.4
T
-, -,
:t
u
pt
0.5 t:
u
pt 0.2
u
O u
O
0
0
10 itérations -0.2
200 itérations
-0.5
0 5 10 15 20 25 30 35 40 45 -0.4
Input 0 5 10 15 20 25 30 35 40 45
Input
1 0.8
0.8
0.6
+ 0.6 +
:t :t
e e 0.4
g g
r r
a 0.4 a
T T
-, -, 0.2
t: t:
u
p 0.2 u
p
t t
u u
O O
0
0
-0.2
1000 itérations -0.2
10000 itérations
-0.4 -0.4
0 5 10 15 20 25 30 35 40 45 0 5 10 15 20 25 30 35 40 45
Input Input
16
LES RESEAUX DE NEURONES Benbouchama Ch. (Mars 2004)
Chapitre 2
1. INTRODUCTION
Dans l’absence des résultats théoriques concrets pour l’identification par les réseaux
de neurones, nous supposerons que tous les systèmes étudiés dans ce cadre
appartiennent à la classe des systèmes représentables par les réseaux choisis.
2. IDENTIFICATION DIRECTE
Modèle du système
17
LES RESEAUX DE NEURONES Benbouchama Ch. (Mars 2004)
On remarque, que le réseau de neurones est placé en parallèle avec le système, et c’est
l’erreur entre la sortie y(t) du système et celle du réseau ŷ(t) (erreur de prédiction) qui
est utilisée pour l’apprentissage du réseau.
Dans ce cadre, quatre modèles sont introduit pour la représentation des systèmes non-
linéaires SISO avec la possibilité de généraliser aux systèmes MIMO. Ces modèles ne
sont en fait qu’une extension des modèles utilisés dans les systèmes linéaires aux
systèmes non-linéaires. En tenant compte de ceci, des modèles d’identification vont
être proposés en utilisant des réseaux de neurones qui peuvent être entraînés par
l’algorithme de la rétropropagation.
2.1. Modèle I
y(k+1) y(k)
-1
u(k) + z
zn(k)
z-1
zn+m-1(k) zn+1(k) z-1
g(.) αT
zn+2(k)
z2(k)
z-1
zn+1(k) z1(k) z-1
18
LES RESEAUX DE NEURONES Benbouchama Ch. (Mars 2004)
2.2. Modèle II
βT f(.)
zn+2(k) z2(k)
y(k+1) y(k)
u(k) + z-1
zn(k)
19
LES RESEAUX DE NEURONES Benbouchama Ch. (Mars 2004)
2.4. Modèle IV
zn(k)
z-1
zn-1(k)
z2(k)
z-1
z1(k) y(k+1) y(k)
f(.) z-1
u(k)
z-1 zn+m-1(k)
z-1 zn+m-2(k)
zn+2(k)
z-1
zn+1(k)
Ce modèle est le plus général, puisqu’il englobe les précédents modèles. Le sortie à
n’importe quel instant est une fonction non-linéaire des valeurs passées de l’entrée et
de la sortie à la fois.
20
LES RESEAUX DE NEURONES Benbouchama Ch. (Mars 2004)
3. IDENTIFICATION INVERSE
Réseau de neurones
4. EXEMPLE
y (k )
y(k + 1) = + u 3 (k )
1 + y(k ) 2
y (k )
avec : f [ y (k )] = et g[u (k )] = u 3 (k )
1 + y (k ) 2
Le modèle qui sera utiliser pour l’identification est le modèle 3 qui est formé de deux
réseaux Nf et Ng qui appartiennent à la classe η, ce système sera donc décrit par
l’équation aux différences :
yˆ (k + 1) = N f [ y (k )] + N g [u (k )]
21
LES RESEAUX DE NEURONES Benbouchama Ch. (Mars 2004)
Les deux réseaux Nf et Ng sont en fait utilisés pour déterminer les estimées fˆ et ĝ
des fonctions f et g.
0 0
+ +
:t t:
e
g e
g
r r
a a
T T
-, -,
t: t:
u
p u
p
t t
u -0.5 u -0.5
O O
-1 -1
-10 -8 -6 -4 -2 0 2 4 6 8 10 -10 -8 -6 -4 -2 0 2 4 6 8 10
Input Input
0.4
0.2
0
+ 0 +
t: t:
e
g e
g
r r
a -0.2 a
T T
-, -,
t: t:
u
p -0.4 u
p
t t
u u -0.5
O O
-0.6
-0.8
-1 -1
-10 -8 -6 -4 -2 0 2 4 6 8 10 -10 -8 -6 -4 -2 0 2 4 6 8 10
Input Input
22
LES RESEAUX DE NEURONES Benbouchama Ch. (Mars 2004)
6 6
4 4
Output: -, Target: +
Output: -, Target: +
2 2
0 0
-2 -2
-4 -4
-6 -6
-8 -8
-2 -1.5 -1 -0.5 0 0.5 1 1.5 2 -2 -1.5 -1 -0.5 0 0.5 1 1.5 2
Input Input
6 6
4 4
Output: -, Target: +
Output: -, Target: +
2 2
0 0
-2 -2
-4 -4
-6 -6
-8 -8
-2 -1.5 -1 -0.5 0 0.5 1 1.5 2 -2 -1.5 -1 -0.5 0 0.5 1 1.5 2
Input Input
23
LES RESEAUX DE NEURONES Benbouchama Ch. (Mars 2004)
Chapitre 3
1. INTRODUCTION
2. COMMANDE SUPERVISEE
Cette approche appelée aussi ‘copying an existing controller’, est basée sur
l’utilisation d’un régulateur existant (qui pourrait être un opérateur humain) comme
fonction inconnue à approximer par un réseau de neurones. Les sorties désirées du
réseau de neurones pour une entrée donnée sont les valeurs de la commande générés
par le contrôleur existant.
Système
Régulateur
Réseau de neurones
24
LES RESEAUX DE NEURONES Benbouchama Ch. (Mars 2004)
3. COMMANDE INVERSE
yd Inverse du u Système y
système
Sortie désirée Sortie réelle
yd Réseau de u y
neurones Système
+
-
Réseau de
neurones
25
LES RESEAUX DE NEURONES Benbouchama Ch. (Mars 2004)
L’avantage de cette méthode est quelle permet d’entraîner le réseau uniquement dans
le domaine de fonctionnement désiré puisqu’on commence par la sortie désirée yd à
partir de laquelle sont générés tous les autres signaux.
u y
Système
+
-
Réseau de
neurones
Une entrée du système est sélectionnée et appliquée au système pour obtenir la valeur
de y correspondante. Le réseau de neurones est entraîné pour reproduire u à sa sortie à
partir de y. Ainsi entraîné, il doit, par la suite, être capable de produire les valeurs
appropriées de u pour un signal de référence yd donné. Cette méthode ne sera efficace
que si la référence yd est suffisamment proche de l’un des signaux d’entraînement (i.e.
des y utilisées).
yd Réseau de u y
neurones Système
+
-
Cette méthode présente une architecture pour entraîner un réseau de neurones pour
opérer proprement dans le domaine de fonctionnement seulement.
26
LES RESEAUX DE NEURONES Benbouchama Ch. (Mars 2004)
r Modèle de ym
référence
r Réseau de u Système y + e
neurones -
5. COMMANDE OPTIMALE
Cet approche diffère des autres par le fait qu’elle assume que le système est
inconnu, l’erreur utilisée par l’algorithme d’apprentissage est fournie uniquement à
travers une fonction critique.
Système
Fonction critique
Signal d’évaluation
Réseau de neurones
27