Académique Documents
Professionnel Documents
Culture Documents
Réseau Neuronaux Artifitiels
Réseau Neuronaux Artifitiels
architectures et
applications
Patrice Wira
1. Introduction
2. Modèles patrice.wira@uha.fr
de neurones www.trop.mips.uha.fr
3. Structures
des réseaux
Université de Haute Alsace
4. Apprentissage
Laboratoire MIPS (Modélisation, Intelligence, Processus, Systèmes)
5. Applications
Avril 2009
6. Conclusions Patrice.Wira@uha.fr – Université de Haute Alsace
www.trop.mips.uha.fr – Laboratoire MIPS
Université de Haute Alsace
• à Mulhouse et Colmar (France)
• 8000 étudiants
• impliquée dans 3 pôles de compétitivités à vocation internationale
(Fibre Grand Est, Innovation thérapeutique, Véhicule du Futur)
Laboratoire MIPS
(Modélisation, Intelligence, Processus, Systèmes)
• thématique principale : véhicule intelligent
• 100 personnes (75 permanents + 25 doctorants)
1. Introduction
• 3 axes de recherche
2. Modèles
de neurones
3. Structures
axedes
automatique
réseaux axe signal et image axe informatique et réseau
4. Apprentissage
MIAM : applications au LABEL : traitement des GRT : réseaux mobiles et qualité
véhicule
5. Applications images de services
TROP : contrôle FOTI : traitement optique LSI : modèle objet et pattern des
6. Conclusions
neuromimétique Patrice.Wira@uha.fr
des informations – Université lois
de Haute Alsace
de commande
www.trop.mips.uha.fr – Laboratoire MIPS
Master 1 et 2 AII
Automatique et Informatique Industrielle
options Recherche ou Professionnel
http://www.trop.mips.uha.fr/master/
2. Modèles de neurones
1. Introduction
2. Modèles
de neurones
3. Structures
des réseaux Introduction
4. Apprentissage
5. Applications
5. Applications
Dès 1943, Mac Culloch et Pitts ont proposé des neurones formels
mimant les neurones biologiques et capables de mémoriser des
fonctions booléennes simples.
1. Introduction
2. Modèles
de neurones
3. Structures
des réseaux
4. Apprentissage
5. Applications
dendrite arborisation
simplification d’un neurone biologique : terminale
corps cellulaire
noyau (cellule de
Schwann)
noyau gaine de myéline
axone (cellule de Schwann)
1. Introduction
2. Modèles
un neurone formel :
de neurones
3. Structures ∑
des réseaux
4. Apprentissage
5. Applications
Un neurone est une cellule qui "concentre" des signaux, qui les traite et
qui les traduit en une réponse.
1. Introduction
2. Modèles
de neurones
3. Structures
des réseaux Modèles de neurones
4. Apprentissage
5. Applications
w1 f ( )
x2 ∑ y
w2
w3
x3
2 L’Adaline
1. Introduction (ADApitve LINear Element)
2. Modèles de B. Widrow et T. Hoff (1960)
de neurones
3. Structures
des réseaux
4. Apprentissage
5. Applications
A chaque itération : x1
w k +1 = w k + Δw k w1 f ( )
Δw k = η yk x k x2 ∑
y
w2
1. Introduction w3
2. Modèles
de neurones x3 règle
3. Structures d’apprentissage
des réseaux η représente le coefficient d’apprentissage
4. Apprentissage (sa valeur est généralement comprise entre 0 et 1)
5. Applications
Le Perceptron
w k +1 = w k + Δw k
x1
ε k = d k − yk = d k − w x k
T
k
w1
On peut utiliser 2 règles : x2 ∑
y ∑
w2 − +
µ LMS
1. Introduction w3
Δw k = µε k x kα
2. Modèles x3
de neurones règle
3. Structures α LMS d’apprentissage
des réseaux ε k xk
Δw k = α
4. Apprentissage λ + xk
2
5. Applications
L’Adaline
5. Applications
1. Introduction
2. Modèles ∑ ∑
de neurones
3. Structures
des réseaux
4. Apprentissage
5. Applications
1. Introduction
2. Modèles
de neurones
3. Structures
des réseaux
4. Apprentissage
5. Applications
5. Applications
1. Introduction
2. Modèles
de neurones
3. Structures
des réseaux
4. Apprentissage
5. Applications
Étude de la perception :
1. Introduction
2. Modèles
de neurones
3. Structures
des réseaux
4. Apprentissage
5. Applications
1. Introduction
2. Modèles
de neurones
3. Structures
des réseaux Structures des réseaux
4. Apprentissage
de neurones artificiels
5. Applications
1. Introduction
2. Modèles neurone formel de base
de neurones
3. Structures
des réseaux
4. Apprentissage
réseau de neurones artificiels
5. Applications
1. Introduction
2. Modèles
de neurones Le réseau suivant est constitué de 5+2 neurones (3 entrées).
3. Structures Ce réseau est bien ordonné. On y distingue des couches et les
des réseaux neurones sont entièrement connectés entre les couches.
4. Apprentissage
5. Applications
1. Introduction
2. Modèles
de neurones
3. Structures Il est relativement aisé de mettre des neurones ensemble, mais
des réseaux il est plus difficile de les faire apprendre. Les architectures
4. Apprentissage généralisées ou ordonnées sont plus simples à « manipuler ».
5. Applications
5. Applications
Quelques architectures :
multilayer feedforward network fully recurrent network competitive network self-organizing map
1. Introduction
2. Modèles
de neurones
3. Structures
des réseaux
4. Apprentissage partial recurrent network recurrent network
Jordan network
with dual connections with self connections
5. Applications
Ce réseau a : Ce réseau a :
1. Introduction 1 couche de 3 entrées 1 couche de 3 entrées
2. Modèles 1 couche cachée (5 neurones) 2 couches cachées
de neurones 1 couche de sortie (2 neurones) ( de 5 et 4 neurones)
3. Structures 1 couche de sortie (2 neurones)
des réseaux
4. Apprentissage
5. Applications
Les 2 règles d’apprentissage pour mettre corriger les poids d’un neurone
(règle de Hebb et de Widrow) ne concernent qu’un neurone seul.
Ces règles peuvent servir pour mettre à jour les poids d’un
neurone, de certains réseaux de neurones, mais ne peuvent être
généralisées et s’appliquer à n’importe quelle architecture.
1. Introduction
2. Modèles Chaque architecture possède ses spécificités et nécessite une règle
de neurones d’adaptation des poids qui lui est propre.
3. Structures
des réseaux
4. Apprentissage
5. Applications
L’apprentissage n’est pas modélisable dans le cadre de la logique déductive : celle-ci en effet
procède à partir de connaissances déjà établies dont on tire des connaissances dérivées. Or il
s’agit ici de la démarche inverse : par observations limitées tirer des généralisations plausibles.
5. Applications
Données et processus :
1. Introduction
2. Modèles
de neurones sk n
3. Structures dimensions
des réseaux
k
4. Apprentissage
p dimensions N échantillons
5. Applications
Données et processus :
5. Applications
L’apprentissage global est le processus qui met à jour l’intégralité des poids
d’un réseau. Dans ce cas, tous les poids sont modifiés à chaque itération.
5. Applications
• l’apprentissage supervisé,
1. Introduction
• l’apprentissage non supervisé,
2. Modèles
de neurones
3. Structures • et l’apprentissage par assignation de crédit.
des réseaux
4. Apprentissage
5. Applications
Apprentissage supervisé
environnement
1. Introduction vecteur +
représentatif −
2. Modèles de l’état de
de neurones l’environnement
3. Structures
des réseaux
4. Apprentissage
5. Applications
L'apprentissage supervisé s'effectue sous le contrôle d'un expert, alors que l'apprentissage
non supervisé (appelé en anglais "unsupervised learning") est autodidacte.
environnement
1. Introduction
2. Modèles Les paramètres internes du réseau ne sont modifiés qu'avec les seuls
de neurones stimuli, aucune réponse désirée n'est prise en considération.
3. Structures
des réseaux
Par nature, ce type d'apprentissage construit une représentation
4. Apprentissage interne de la connaissance issue de l'environnement.
5. Applications
1. Introduction
critique
2. Modèles Ce type d'apprentissage
de neurones fait partie d'un schéma
3. Structures plus large d'apprentissage,
environnement
des réseaux le "Credit-Assignment
4. Apprentissage Problem" ou CAP.
renforcement heuristique
5. Applications
De le cas précis où on veut apprendre un système, les mêmes entrées donnent les mêmes
réponses (le réseau de neurones cherche à imiter le processus).
processus
sortie
(4 signaux)
consigne
(3 entrées)
1. Introduction erreur
2. Modèles
de neurones
3. Structures
des réseaux
4. Apprentissage réseau de neurones
(3 entrées et 4 sorties)
5. Applications
sortie désirée
(1) (2) (3) (4)
+
1. Introduction −
2. Modèles sortie estimée
de neurones
3. Structures
des réseaux
4. Apprentissage
5. Applications
L’erreur d’un neurone k dans une couche j est calculée à partir des erreurs des
neurones de la couche j+1 pondérées par les poids :
⎛ ⎞
ε k( j ) = f ⎜ ∑ wki xi ⎟ . ∑ ( wik( j +1) .ε i( j +1) )
⎝ i ⎠ i∈ j +1
sortie désirée
(1) (2) (3) (4)
+
1. Introduction −
2. Modèles sortie estimée
de neurones k
3. Structures
des réseaux
4. Apprentissage
5. Applications
⎡ ⎛ ⎞ ⎤
Δwkh( j ) = −α .ε k( j ) . yh( j −1) = −α ⎢ f ⎜ ∑ wki xi ⎟ . ∑ ( wik( j +1) .ε i( j +1) ) ⎥ . yh( j −1)
⎣ ⎝ i ⎠ i∈ j +1 ⎦
wkh( j ) (t + 1) = Δwkh( j ) + wkh( j ) (t )
sortie désirée
(1) (2) (3) (4)
+
1. Introduction −
2. Modèles sortie estimée
de neurones k
3. Structures h
des réseaux
4. Apprentissage
5. Applications
L’erreur est d’abord définie à la sortie, par rapport à des valeurs souhaitées
(mesurées sur un système) puis propagées de la couche de sortie jusqu’à la couche
des entrées pour mettre à jour l’ensemble des poids entre les neurones des couches
successives.
5. Applications
5. Applications
convergence/divergence
1. Introduction Toutes ces méthodes dépendent beaucoup des valeurs initiales des
2. Modèles poids… comme tout problème d’optimisation…
de neurones
3. Structures courbe d’erreur en fonction des poids :
des réseaux
minimum global
4. Apprentissage minima locaux
5. Applications
5. Applications
5. Applications
Principe de l’auto-organisation :
ws
v G
1 1 1
3. Structures
des réseaux 0.5 0.5 0.5
4. Apprentissage
0 0 0
20 20 20
20 20 20
10 10 10
10 10 10
5. Applications
0 0 0 0 0 0
Une carte de Kohonen est utilisée pour apprendre la série temporelle de Hénon.
Cette série est considérée comme un attracteur :
1. Introduction
2. Modèles
de neurones La carte comprend 25×25 neurones.
Le vecteur d'entrée est constitué de [ xk yk ] .
T
3. Structures
des réseaux
4. Apprentissage
5. Applications
1 .5
Série de Hénon au cours du temps :
1
0 .5
0
x
- 0 .5
-1
- 1 .5
0 50 100 150 200 250 300 350 400 450 500
it é r a t io n s
Discrétisation de l'attracteur de Hénon
1. Introduction par une carte de Kohonen par une carte "neural gas"
0.5 0.5
2. Modèles
Position des neurones Position des neurones
Distribution à apprendre Distribution à apprendre
0.4 0.4
3. Structures
0.2 0.2
0.1 0.1
des réseaux y 0 y 0
-0.1 -0.1
-0.3 -0.3
5. Applications -0.4
-0.5
-0.4
-0.5
-1.5 -1 -0.5 0 0.5 1 1.5 -1.5 -1 -0.5 0 0.5 1 1.5
x x
6. Conclusions Patrice.Wira@uha.fr – Université de Haute Alsace
www.trop.mips.uha.fr – Laboratoire MIPS 63
Apprentissage d’une carte auto-organisatrice
5. Applications
ALGORITHME : RESULTAT
(initialisation)
Etape 1 : initialisation
Etape 2 : choix d’une entrée
Etape 3 : détermination du neurone vainqueur 60
Etape 4 : adaptation des poids des neurones
50
Ö Retour à l’étape 2
40
30
1. Introduction
20
2. Modèles
10
de neurones
3. Structures 0
5. Applications
ALGORITHME : RESULTAT
(itération 100)
Etape 1 : initialisation
Etape 2 : choix d’une entrée
Etape 3 : détermination du neurone vainqueur 60
Etape 4 : adaptation des poids des neurones
50
Ö Retour à l’étape 2
40
30
1. Introduction
20
2. Modèles
de neurones 10
3. Structures 0
5. Applications
ALGORITHME : RESULTAT
(itération 1000)
Etape 1 : initialisation
Etape 2 : choix d’une entrée
Etape 3 : détermination du neurone vainqueur 60
Etape 4 : adaptation des poids des neurones
50
Ö Retour à l’étape 2
40
30
1. Introduction
20
2. Modèles
de neurones 10
3. Structures 0
5. Applications
5. Applications
1. Introduction
2. Modèles
de neurones
3. Structures
des réseaux Apprentissage de
4. Apprentissage
systèmes dynamiques
5. Applications
xk − N
xk z −1
z ...
−1
z −1
1. Introduction
x k −1
2. Modèles
xk
de neurones
3. Structures
des réseaux
time-delayed neural network
with tapped delay line
4. Apprentissage
5. Applications
z −1
z −1
1. Introduction
z −1
2. Modèles
de neurones
z −1
3. Structures
des réseaux
neural network with time
4. Apprentissage delayed input and output
5. Applications
f( )
xk yk
1. Introduction +
2. Modèles z −1 +
− +
de neurones −1
3. Structures x k −1 − Δy − z
des réseaux y k −1
4. Apprentissage
Δx
5. Applications
+
f −1 ( )
−
1. Introduction
2. Modèles
de neurones
3. Structures
des réseaux
4. Apprentissage training of the inverse
dynamic model of a plant
5. Applications
A chaque itération,
1. on calcule une commande : f −1 ( )
f( )
rk xk yk
f −1 ( )
uk
1. Introduction f( )
rk + ek + xk yk
2. Modèles g( )
de neurones − +
3. Structures
des réseaux
4. Apprentissage inverse dynamic model-based adaptive control of a plant
5. Applications
Méthode directe
MRAC f( )
xk yk
1. Introduction
2. Modèles
de neurones −
rk mk
3. Structures reference
des réseaux model +
4. Apprentissage direct dynamic model-based adaptive control of a plant
5. Applications
Méthode indirecte
MRAC f( )
xk yk
−
+
controller ANN
1. Introduction identification
2. Modèles − ANN
de neurones +
3. Structures rk
reference mk
des réseaux model
4. Apprentissage
inverse dynamic model-based adaptive control of a plant
5. Applications
1. Introduction +
2. Modèles −
de neurones
3. Structures
des réseaux
4. Apprentissage
training for emulation of an actual controller
5. Applications
f( )
+
rk xk yk
−
1. Introduction +
modèle
2. Modèles −
de neurones
3. Structures
des réseaux
4. Apprentissage
5. Applications
1. Introduction
2. Modèles
de neurones
3. Structures
des réseaux Application des
4. Apprentissage
réseaux de neurones
5. Applications
1 Approximation linéaire
(Adaline)
2 Apprentissage de fonctions
(carte de Kohonen)
1. Introduction
2. Modèles 3 Estimation de fonctions robotiques
de neurones (carte de Kohonen et Adaline)
3. Structures
des réseaux 4 Identification d’une fonction de transfert
4. Apprentissage (réseau multicouche)
5. Applications
Estimation de fonction
5. Applications
\
f( )
1. Introduction
\2 yk
2. Modèles
de neurones
3. Structures
des réseaux xk
4. Apprentissage ⎡x ⎤ ⎡ x1 ⎤
x = ⎢ 1⎥ y = f (x) = a x = ⎣⎡ a1
T
a 2 ⎦⎤ ⎢ ⎥
⎣ x2 ⎦ ⎣ x2 ⎦
5. Applications
f( )
1. Introduction
\2 yk
2. Modèles
de neurones
3. Structures
des réseaux xk
4. Apprentissage ⎡x ⎤ ⎡ x1 ⎤
x = ⎢ 1⎥ y = f (x) = a x = ⎣⎡ a1
T
a 2 ⎦⎤ ⎢ ⎥
⎣ x2 ⎦ ⎣ x2 ⎦
5. Applications
Jeu d’apprentissage :
x 2 = [1 0] , yk = 0.50 x 7 = [ −3.14 0] , yk = −1.57
T T
avec
x3 = [1 1] , yk = 1.83 x8 = [ −1.1 10] , yk = 12.75
T
a = [ 0.5 1.33]
T T
1. Introduction
Après apprentissage, on obtient : w = aˆ = [ 0.5 1.33]
T
2. Modèles
de neurones avec une erreur de 10^-3 :
3. Structures - en 4 itérations avec α = 1
des réseaux - en 12 itérations avec α = 0.5
4. Apprentissage - en 26 itérations avecα = 0.1
w init = [ −0.5 1.5]
T
5. Applications
Objectif : estimer une relation non linéaire avec une carte de Kohonen.
ARCHITECTURE : RESULTAT
(2 cartes de 1× 19 neurones)
Il s’agit en fait d’une double carte avec :
1 grille dans l’espace des entrées
1
(apprentissage non supervisé),
0.8
1 grille dans l’espace des sorties 0.6
(apprentissage supervisé). x 0.4
k
0.2
1. Introduction 0
-0.2
2. Modèles
-0.4
de neurones
X -0.6
3. Structures w(out)
i ,k
yˆ k -0.8
des réseaux
- -1
Y + yk 0 2 4 6 8 10 12
4. Apprentissage
5. Applications
Objectif : estimer une relation non linéaire avec une carte de Kohonen.
ARCHITECTURE : RESULTAT
( 2 cartes de 1× 19 neurones et 19 Adalines)
xk
w i(in)
+-
,k
1
0.8
X w (out) 0.6
i ,k
0.4
Y
+
+
yˆ k 0.2
1. Introduction 0
-0.2
2. Modèles -
yk
A i ,k ( x k − w (in)
i ,k )
+
-0.4
de neurones
-0.6
3. Structures
-0.8
des réseaux
-1
SOM-LLM 0 2 4 6 8 10 12
4. Apprentissage
(Self-Organizing Maps-Linear Local Models)
5. Applications
θ3
Un robot (ici un bras manipulateur) est une fonction.
Le modèle direct du robot est calculé à l’aide de
θ2 θ5 θ4 fonctions trigonométriques.
X
θ1
espace 3D
Y f( )
1. Introduction Z espace
articulaire yk
2. Modèles
de neurones (des entrées)
3. Structures
des réseaux xk
4. Apprentissage
5. Applications
des réseaux xk
Y
4. Apprentissage Z
5. Applications
1. Introduction X
2. Modèles Z
Y
de neurones
3. Structures +
des réseaux
−
4. Apprentissage
J −1 (x k )
5. Applications
0.4
0.2
1. Introduction
0
W(i,2)
2. Modèles
-0.2
de neurones
3. Structures -0.4
4. Apprentissage -0.8
0.6 0.5 0.4 0.3 0.2 0.1 0 -0.1
W(i,1)
5. Applications
1. Introduction
2. Modèles
de neurones
3. Structures +
des réseaux
−
4. Apprentissage
5. Applications
Approche modulaire :
θˆ4
calculation θˆ5
M5
θ5
I αˆ c1
α M1 M2 ˆ , Yi
Xi ˆ , Zi
ˆ M3 θˆ1 , θˆ2 ,θˆ3
θ1 , θ 2 ,θ3
inv Xi, Yi, Zi Model
1. Introduction αˆ c2
2. Modèles
de neurones
3. Structures Chaque module (M1, M2, M3 et M5) est un réseau SOM-
des réseaux LLM avec pas plus de 3 dimensions pour les grilles des
4. Apprentissage neurones et pour l’espace des entrées (11¯10 ou
11¯10¯4 neurones).
5. Applications
5. Applications
espace des
f( ) sorties
1. Introduction
espace des yk
2. Modèles
entrées
de neurones
3. Structures
des réseaux xk
4. Apprentissage
5. Applications
x y
f (s)
1. Introduction
Approche neuronale ("black-box modeling") :
2. Modèles
de neurones
3. Structures fˆ (t )
des réseaux x y
4. Apprentissage
5. Applications
5. Applications
1. Introduction
2. Modèles
de neurones
3. Structures
des réseaux
Il faut générer un courant isortie (k ) identique au courant de
référence iref (k ) grâce au signal u (k ) créé par la loi de commande.
4. Apprentissage
5. Applications
5. Applications
u (k ) onduleur +
filtre de sortie isortie (k )
u (k ) +
u (k − 1) ε −
1. Introduction
u (k − 2) iˆsortie (k )
2. Modèles
de neurones isortie (k − 1)
3. Structures
des réseaux
4. Apprentissage
5. Applications
20
u (k ) 15
10
isortie (k ) 0
-5
iˆsortie (k ) -10
1. Introduction -15
-20
0.3
2. Modèles
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2
4
x 10
0.2
de neurones 0.1
des réseaux
ε max = 0.2678
-0.1
4. Apprentissage -0.2
-0.3
ε = isortie (k ) − iˆsortie (k )
5. Applications -0.4
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8
x 10
2
4
u (k ) isortie (k )
onduleur +
filtre de sortie
1. Introduction isortie (k − 1) +
2. Modèles isortie (k − 2) ε −
de neurones
3. Structures isortie (k − 3) uˆ (k )
des réseaux u (k − 1)
4. Apprentissage
5. Applications
isortie (k )
2
u (k )
1. Introduction 0
2. Modèles uˆ (k ) -2
de neurones 0.06
3. Structures
-4
0.04
-0 . 0 2
5. Applications -0 . 0 4
ε = u (k ) − uˆ (k )
-0 . 0 6
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2
6. Conclusions 107
www.trop.mips.uha.fr – Laboratoire MIPS
Application 4 : réseau multicouche
− +
isortie (k )
iref (k ) u (k ) onduleur +
filtre de sortie
1. Introduction
f (k )
2. Modèles iref (k ) fˆ −1 (k )
de neurones
3. Structures
iref (k − 1)
des réseaux isortie (k )
4. Apprentissage isortie (k − 1)
5. Applications
inverter controller
5. Applications PWM
6
Objectif : identifier la fonction de transfert d’un onduleur.
4
-2
− +
-4
identification u (k ) onduleur +
icharge (k ) des harmoniques filtre de sortie -6
iref (k ) isortie (k )
icharge A
ε mean A = 0.0422
2 -8
8
THD(%) = 2.61
0 2000 4000 6000 8000 10000 12000 14000 1600
1. Introduction
6
ε mean B = 0.0249
1.5
4
2. Modèles 1
ε mean C = 0.0285
de neurones 0.5
2
3. Structures 0
des réseaux 0
-2
4. Apprentissage -0.5
-4
-1
5. Applications ε A = isortie A − iref
-6
isource A + isortie A
A
-1.5 -8
0 2000 4000 6000 8000 10000 12000 14000 160000 2000 4000 6000 8000 10000 12000 14000 160
6. Conclusions Patrice.Wira@uha.fr – Université de Haute Alsace
www.trop.mips.uha.fr – Laboratoire MIPS 110
Application 4 : réseau multicouche
∑
∞
THD(%) = h=2 h
I ε A = isortie A − iref A
Résultat de simulation avec un If
nombre différent de neurones dans méthode de THD (%) erreurs
commande après compensation statiques
la couche cachée du MLP.
sans compensation [26.55 24.04 26.50]
La charge non linéaire est modifiée PID classique [1.50 2.44 1.40] [0.1382 0.2813 0.0324]
3 fois, THD et erreurs sont donnés Hystérésis [1.4 2.83 1.41 ] [0.0221 0.0159 0.0253]
après stabilisation (qq ms). PI Neuronale [1.68 2.95 1.64] [0.0305 0.0257 0.0302]
Cette approche a également été MLP 4:2 :1 [2.63 3.07 1.74] [0.033 0.0404 0.0370]
Bilan :
1. Introduction
2. Modèles
de neurones
3. Structures
des réseaux Conclusion
4. Apprentissage
5. Applications
5. Applications
5. Applications
Les systèmes de demain seront plus complexes. Il faudra les rendre plus « intelligents ».
Les lois de commande utilisées seront de fait des commandes intelligentes.
[1] K. S. Narendra and K. Parthasarathy, "Identification and Control of Dynamical Systems Using Neural
Networks," IEEE Transactions on Neural Networks, vol. 1, no. 1, pp. 4-27, 1990.
[2] B. Widrow and E. Walach, Adaptive Inverse Control. Upper Saddle River: Prentice Hall Press, 1996.
[3] S. Haykin and J. Principe, "Dynamic modeling with neural networks," IEEE Signal Processing
Magazine, vol. 15, no. 3, 1998.
[4] S. Haykin, Neural networks : A comprehensive Foundation, 2nd ed. Upper Saddle
River, N.J.: Prentice Hall, 1999.
5. Applications
[10] T. Kohonen, Content-Addressable Memories, 2nd ed. vol. 1. Berlin: Springer-Verlag, 1987.
[11] G. W. Irwin, K. Warwick, and K. J. Hunt, "Neural Network Applications in Control," in
Control Engineering Series. vol. 53 London: The Institution of Electrical Engineers, 1995.
[12] M. N. Cirstea, A. Dinu, M. McCormick, and J. G. Khor, Neural and Fuzzy Logic Control
of Drives and Power Systems. Oxford (England): Newnes, 2002.
5. Applications