Académique Documents
Professionnel Documents
Culture Documents
Von Zuben
DCA/FEEC/Unicamp
2.
3.
4.
5.
6.
6.2
Arranjo bidimensional ............................................................................................................................................. 47
6.3
Algoritmo de ajuste dos pesos ................................................................................................................................ 51
6.4
Um passo de ajuste num arranjo unidimensional .................................................................................................. 53
6.5
Ajuste de pesos com restrio de vizinhana ......................................................................................................... 54
6.6
Discriminao dos agrupamentos ........................................................................................................................... 55
6.7
Ferramentas de visualizao e discriminao ......................................................................................................... 57
6.8
Ordenamento de pontos em espaos multidimensionais ...................................................................................... 61
6.9
Roteamento de veculos (mltiplos mapas auto-organizveis) .............................................................................. 62
6.10 Mapas auto-organizveis construtivos ................................................................................................................... 63
6.11 Questes a serem melhor investigadas .................................................................................................................. 64
6.12 Extenses ................................................................................................................................................................. 65
6.13 Referncias para mapas auto-organizveis............................................................................................................. 65
7.
Redes neurais recorrentes ............................................................................................................................................68
7.1
Modelagem de sistemas dinmicos lineares .......................................................................................................... 73
7.2
Modelagem de sistemas dinmicos no-lineares ................................................................................................... 74
7.3
Treinamento supervisionado para redes recorrentes ............................................................................................ 75
8.
Rede de Hopfield: recorrncia e dinmica no-linear ..................................................................................................76
8.1
Princpios bsicos de sistemas dinmicos no-lineares .......................................................................................... 78
8.2
Exemplos de comportamentos dinmicos no-lineares ......................................................................................... 80
8.3
Pontos de equilbrio como memrias endereveis por contedo ........................................................................ 83
8.4
Recapitulao dos principais conceitos Rede de Hopfield ................................................................................... 88
8.5
Regra de Hebb ......................................................................................................................................................... 89
8.6
Atratores esprios ................................................................................................................................................... 90
8.7
Problemas de natureza combinatria ..................................................................................................................... 91
8.8
Referncias bibliogrficas Redes neurais recorrentes ......................................................................................... 96
x c j 2
, para o caso escalar (veja Figura 1(a));
h j ( x ) exp
2
rj
h j ( x)
r j2 x c j 2
rj
2.5
0.8
0.6
hj(x)
hj(x)
0.4
0.2
0
-2
1.5
0.5
-1
0
-2
-1
(a)
(b)
h j (x ) exp x c j T 1
j x c j
(1)
onde x x1
j1 0 0
0
j
2
,
j
0
0
jn
c
n
jn
h j (x) exp
...
.
j1
j2
jn
(2)
T
Neste caso, os elementos do vetor j j1 j 2 jn so responsveis pela
y w j h j (x)
j 1
y w j h j (c j , j , x ) .
j 1
y w j exp x c j T j 1 x c j
m
j 1
2
x1 c j1 2 x2 c j 2 2
c
n
jn
y w j exp
...
j1
j2
jn
j 1
y=f(x)
+
w1
h1(x)
c11 c1j
wj
...
hj(x)
c1m
...
x1
wm
...
hm(x)
...
xi
xn
x1
c1m
x2
c11
c21
c1j
c2j
c2m
.
.
.
cn1
xn
cnj
cnm
Camada de
entrada
h1
.
.
. wj1
hGj
. wjp
.
.
hm
Camada
intermediria
w11
w1p
y1
.
.
.
wm1
yp
wmp
Camada de
sada
10
11
f (x) w j h j (x)
j 1
N
e o conjunto de treinamento dado por xi , si i 1 , o mtodo dos quadrados mnimos se
ocupa em minimizar (em relao aos coeficientes da combinao linear) a soma dos
quadrados dos erros produzidos a partir de cada um dos N padres de entrada-sada.
m
2
min J ( w) min si f (xi ) min si w j h j (xi )
w
w i 1
w i 1
j 1
12
w
i 1
i 1
j
13
i 1
i 1 r 1
i 1
N
h j (x1 )
hj ,
h j (x N )
w
h
(
x
)
f (x1 ) r 1 r r 1
m
f (x N ) wr hr (x N )
r 1
s1
s .
sN
14
h1T f h1T s
T
T
h m f h m s
Definindo a matriz H, com sua j-sima coluna dada por hj, temos:
H h 1
h1 (x 1 ) h2 (x 1 )
h (x ) h (x )
2
2
hm 1 2
h1 (x N ) h2 (x N )
h2
hm ( x 1 )
hm (x 2 )
hm ( x N )
HT f HT s
O i-simo componente do vetor f pode ser apresentado na forma:
m
15
H T Hw H T s w H T H
HT s
16
h1 ( x1 ) h2 ( x1 ) 1 1
H h1 ( x2 ) h2 ( x2 ) 1 2
h1 ( x3 ) h2 ( x3 ) 1 3
1.1
s 1.8
3.1
w HTH
0
HTs
1
f ( x) w1h1 ( x) w2 h2 ( x) w3h3 ( x) ,
onde h1(x) = 1, h2(x) = x e h3(x) = x2. Enquanto no caso anterior tnhamos m < N, agora
temos m = N.
O efeito da adio da funo-base extra h3(x) representa a adio de uma coluna
h3 ( x1 ) 1
1
h 3 h3 ( x2 ) 4 junto matriz H, e a soluo assume a forma w 0.2 .
h3 ( x3 ) 9
0.3
Tpico 1 Redes Neurais Artificiais e Mquinas de Aprendizado (Parte 2)
17
4
3.5
3
2.5
y
2
1.5
1
0.5
0
0
18
Caso 1: m = N
Pontos amostrados: (1,2); (3,7); (5,6)
0.8
1
2
0.945
c 3 ; r 1 ; w 2.850
5
3
5.930
0.6
0.4
0.2
10
4
3
1
0
0
10
0
0
10
19
Caso 2: m < N
0.8
1
2
1.012
c 3 ; r 1 ; w 3.084
5
3
5.538
0.6
0.4
0.2
10
Caso 1.
8
3
2
1
0
0
10
0
0
10
20
Quanto s disperses das funes de base radial, usualmente se adota uma nica
disperso para todos os centros, na forma (HAYKIN, 1999):
Tpico 1 Redes Neurais Artificiais e Mquinas de Aprendizado (Parte 2)
21
d max
2m
Figura 5 Proposta de
x2
6
4
-2
neurnios na camada
-4
intermediria
-6
-8
-10
-10
-8
-6
-4
-2
0
x1
10
22
x2
2
0
-2
-4
-6
-8
-10
-10
-8
-6
-4
-2
0
x1
10
23
2
1
0
10
0
10
-5
5
0
x2
-10
-5
-10
x1
Figura 7 Ativao dos neurnios da rede neural RBF com os centros da Figura 6,
considerando todos os pesos de sada iguais a 1 e ausncia de peso de bias. A disperso
a mesma para todas as funes de ativao, dada pela frmula da pg. 22.
Com o critrio de disperso da pg. 22, evita-se que as funes de base radial sejam
excessivamente pontiagudas, ou ento com uma base demasiadamente extensa.
Tpico 1 Redes Neurais Artificiais e Mquinas de Aprendizado (Parte 2)
24
25
26
s kl wkj f v j , b j , xl wk 0
n
j 1
onde
s kl a k-sima sada da rede neural para o l-simo padro de entrada xl;
f v j , b j , a j-sima funo da base de funes-base.
27
28
Por outro lado, sabido tambm que h o risco de sobre-ajuste aos dados, produzindo
modelos que generalizam mal frente a novos dados de entrada-sada. A mxima
capacidade de generalizao est associada a modelos otimamente regularizados, ou
seja, que se contorcem na medida certa, de acordo com as demandas de cada aplicao.
Com isso, uma definio adequada do nmero de neurnios e dos pesos sinpticos
fundamental para garantir uma boa capacidade de generalizao.
Um resultado fundamental da literatura, restrito a problemas de classificao de
padres, foi apresentado por BARTLETT (1997; 1998). Nesses trabalhos, como o
prprio ttulo indica, conclui-se que controlar a norma dos pesos sinpticos mais
relevante para a capacidade de generalizao do que controlar o tamanho da rede
neural, ou seja, o nmero n de neurnios na camada intermediria.
De fato, pode-se introduzir o conceito de nmero efetivo de neurnios na camada
intermediria, o qual determinado pela configurao dos pesos da camada de sada
da rede neural.
Tpico 1 Redes Neurais Artificiais e Mquinas de Aprendizado (Parte 2)
29
30
31
v10
v11
+
y1
1
1
x1
v1m
w11
v20
w12
^s
1
^s
r
y2
v21
+
w1n
v2m
xm
w10
wr0
wr1
wr2
vn0
yn
vn1
+
wrn
vnm
32
y=f(x)
+
w1
h1(x)
c11 c1j
wj
...
hj(x)
c1m
...
x1
wm
...
hm(x)
...
xi
xn
Figura 9 Rede neural com funes de ativao de base radial (no esto indicados os pesos de
polarizao, associados s entradas constantes dos neurnios)
Tpico 1 Redes Neurais Artificiais e Mquinas de Aprendizado (Parte 2)
33
w k
onde
1. k o ndice da sada;
2. n o nmero de neurnios na camada intermediria;
2
3. a norma euclidiana;
4. Ck um coeficiente de ponderao, a ser determinado, por exemplo, por mtodos
de busca unidimensional;
2
1 n
5. J w k wkj f v j , b j , xl wk 0 skl ;
2 l 1 j 1
34
H inicial
f v1 , b1 , x1
f v , b , x
1 1 2
f v1 , b1 , x N
f v 2 , b2 , x1
f v n , bn , x1
f v n , bn , x N
f v1 , b1 , x1
f v , b , x
1 1 2
H
f v1 , b1 , x N
f v 2 , b2 , x1
f v n , bn , x1 1
f v n , bn , x N 1
35
s k sk1 sk 2 skN
4.1. Se (n+1) N, w k H T H Ck I
H T sk ;
sk .
36
37
3. O Jogo da Vida
Concebido por John Horton Conway, matemtico britnico, em 1970. Procure assistir
ao vdeo em: http://www.youtube.com/watch?v=XcuBvj0pw-E&feature=related
38
39
Processos Fsicos
Dunas
Reagentes qumicos
Rachaduras na lama
Clulas de conveco de
Brnard
Rachadura em tinta
Rugas em verniz
40
Em animais
Listras da zebra
Manchas da girafa
Listras do tigre
Anfbios
Lagartos
41
Em plantas
Margarida
Slime mold
Repolho vermelho
Lquen
Cogumelo
Gro de plen
42
Em insetos
Asas de borboletas
Exoesqueletos de besouros
43
5. Treinamento no-supervisionado
Como aprender a representar padres de entrada de modo a refletir a estrutura
estatstica de toda a coleo de dados de entrada? Que aspectos da entrada devem ser
reproduzidos na sada?
Em contraposio ao treinamento supervisionado, no h aqui nenhuma sada desejada
explcita ou avaliao externa da sada produzida para cada dado de entrada.
O treinamento no-supervisionado predominante no crebro humano. sabido que
as propriedades estruturais e fisiolgicas das sinapses no crtex cerebral so
influenciadas pelos padres de atividade que ocorrem nos neurnios sensoriais. No
entanto, em essncia, nenhuma informao prvia acerca do contedo ou significado
do fenmeno sensorial est disponvel.
Sendo assim, a implementao de modelos computacionais para ajuste de pesos
sinpticos via treinamento no-supervisionado deve recorrer apenas aos dados de
44
45
...
x1 x2
xdim
46
...
...
...
...
x1 x2
xdim
47
mi
mi
48
Arranjo em
2
Neurnios mi
Pesos sinpticos
[mi1, ..., miD]
v1
v2
Dados de
Entrada
vD
49
Plano retangular
8
6
6
1
-1
3
0
-1
6
8
Toroide
Cilindro
2
1
0
0.5
-1
8
6
-0.5
-2
4
2
-0.5
0.5
1
0.5
0
-0.5
2
-1
-2
Figura 14 Arranjos com e sem vizinhana nos extremos (figuras extradas de ZUCHINI,
2003)
Tpico 1 Redes Neurais Artificiais e Mquinas de Aprendizado (Parte 2)
50
j arg min xi w j
j
J Viz(j) do:
w J w J dist( j, J )xi w J ;
end do
end for
Atualize a taxa de aprendizado ;
Atualize a vizinhana;
Avalie a condio de parada;
end while
Tpico 1 Redes Neurais Artificiais e Mquinas de Aprendizado (Parte 2)
51
wj(k)
(x(k)wj(k))
wj(k+1)
x(k)
vizinhana
Tpico 1 Redes Neurais Artificiais e Mquinas de Aprendizado (Parte 2)
vizinhana
52
Neurnio
vencedor
Padro de entrada
53
vk
BMU
Figura 16 BMU (Best Matching Unit) e seus vizinhos (figuras extradas de ZUCHINI,
2003)
O neurnio que venceu para uma dada amostra o que sofre o maior ajuste. No
entanto, dentro de uma vizinhana, todos os neurnios vizinhos tambm sofrero um
ajuste de pesos, embora de menor intensidade.
Tpico 1 Redes Neurais Artificiais e Mquinas de Aprendizado (Parte 2)
54
55
56
1.5
1
0.5
0
-0.5
2
-1
-1.5
3
0
2
-1
-2
-2
57
58
Figura 21 Busca por correlaes (matriz-U por atributo de entrada do mapa) aps a
auto-organizao (figura extrada de ZUCHINI, 2003) (VESANTO & AHOLA, 1999)
Tpico 1 Redes Neurais Artificiais e Mquinas de Aprendizado (Parte 2)
59
60
61
Figura 24 Vrias etapas do processo de auto-organizao (GOMES & VON ZUBEN, 2002)
Tpico 1 Redes Neurais Artificiais e Mquinas de Aprendizado (Parte 2)
62
63
64
6.12 Extenses
Learning Vector Quantization (LVQ)
65
FORT, J.C. Solving a Combinatorial Problem via Self-Organizing Maps, Biological Cybernetics, 59, 33-40,
1988.
FRITZKE, B. A Growing Neural Gas Network Learns Topologies, in Tesauro, G., Touretzky, D.S., and Leen,
T.K. (eds.). Advances in Neural Information Processing Systems 7, The MIT Press, pp. 625-632, 1995.
GOMES, L.C.T. & VON ZUBEN, F.J. A Neuro-Fuzzy Approach to the Capacitated Vehicle Routing Problem.
Proceedings of the IEEE International Joint Conference on Neural Networks (IJCNN2002), vol. 2, pp. 19301935, Honolulu, Hawaii, May 12-17, 2002.
GOMES, L.C.T., VON ZUBEN, F.J. & MOSCATO, P.A. A Proposal for Direct-Ordering Gene Expression Data by
Self-Organising Maps, International Journal of Applied Soft Computing, vol. 5, pp. 11-21, 2004.
JAIN, A.K., MURTY, M.N. & FLYNN, P.J. Data Clustering: A Review, ACM Computing Surveys, vol. 31, no. 3,
pp. 264-323, 1999.
KASKI, S. Data Exploration Using Self-Organizing Maps, Ph.D. Thesis, Helsinki University of Technology,
Neural Networks Research Centre, 1997.
KAUFFMAN, S. The Origins of Order: Self-Organization and Selection in Evolution, Oxford University Press,
1993.
KOHONEN, T. Self-organized formation of topologically correct feature maps, Biological Cybernetics, vol. 43,
pp. 59-69, 1982.
KOHONEN, T. Self-Organization and Associative Memory, 3rd. edition, Springer, 1989 (1st. edition, 1984).
KOHONEN, T. The Self-Organizing Map, Proceedings of the IEEE, 78:1464-1480, 1990.
KOHONEN, T., OJA, E., SIMULA, O., VISA, A. & KANGAS, J. Engineering applications of the self-organizing map,
Proceedings of the IEEE, 84:1358-1384, 1996.
KOHONEN, T. Self-Organizing Maps, 2nd. edition, Springer, 1997.
Tpico 1 Redes Neurais Artificiais e Mquinas de Aprendizado (Parte 2)
66
67
68
y (k )
z N k
z1 (k )
z 1
z 1
z 1 ( k 1)
zN (k 1)
z 1
z 1
z1 (k L)
z N ( k L)
u (k )
Figura 26 Globally recurrent neural network (GRNN)
69
y(k )
z N (k )
z1 ( k )
z 1
y(k 1)
z 1
y(k L) u (k )
70
z1 (k L)
z 1
z N ( k L)
z 1
z 1
z 1
z N (k )
z1 (k )
u (k )
Figura 28 Fully recurrent neural network (FRNN)
Tpico 1 Redes Neurais Artificiais e Mquinas de Aprendizado (Parte 2)
71
72
yr ( t )
camada de sada
x 1(t )
x n (t )
camada intermediria
camada de entrada
camada de contexto
u 1(t )
u m(t )
x( t ) Wxx x( t 1) + Wxu u( t 1)
(aproxima qualquer dinmica linear)
y
(
t
)
W
x
(
t
)
yx
73
z-1
x(t)
f
g
y(t)
z-1
u(t)
Figura 31 Representao por espao de estados de um sistema dinmico no-linear
x( t 1) f x( t ), u( t )
y( t ) gx( t ), u( t )
onde u(t) m, x(t) n, y(t) r, f: nm n e g: nm r.
Tpico 1 Redes Neurais Artificiais e Mquinas de Aprendizado (Parte 2)
74
s(t ) RN (x(t ), )
s( t ) RN
s(
t 1
)
termo adicional
75
76
z-1
..
.
z-1
z-1
w11=0
w12
..
.
y1
y2
yn
u1
w1n
w21
w22=0
..
.
..
.
+
u2
w2n
..
.
wn1
wn2
..
.
wnn=0
un
77
78
DINMICA
contnua
discreta
ESPAO DE ESTADOS
contnuo
discreto
sistema de
vidros de spin
equaes diferenciais
sistema de equaes
autmato
a diferenas
79
x (t ) f x(t )
x(k 1) g x(k )
80
81
82
83
.
.
84
85
memrias
entradas
Como memorizar?
padres restaurados
Como restaurar?
86
codificao
y
decodificao
espao de
memrias
fundamentais
espao de
vetores de
estados
87
88
89
90
91
Cj
du j
dt
uj
i 1
i j
Rj
w ji i (ui )
j , j = 1,,N.
92
93
94
95
96
HAYKIN, S. Neural Networks and Learning Machines, 3rd edition, Prentice Hall, 2008.
HOPFIELD, J.J. Neural networks and physical systems with emergent collective computational abilities. Proceedings of the
National Academy of Sciences of the U.S.A., vol. 79, pp. 2554-2558, 1982.
HOPFIELD, J.J. Neurons with graded response have collective computational properties like those of two-state neurons.
Proceedings of the National Academy of Sciences of the U.S.A., vol. 81, pp. 3088-3092, 1984.
HOPFIELD, J.J. & TANK, D.W. Neural computation of decisions in optimization problems. Biological Cybernetics, vol. 52,
pp. 141-152, 1985.
HOPFIELD, J.J. & TANK, D.W. Computing with neural circuits: A model. Science, vol. 233, pp. 625-633, 1986.
HUNT, K.J., SBARBARO, D., ZBIKOWSKI, R., GAWTHROP, P.J. Neural Networks for Control Systems A Survey.
Automatica, vol. 28, no. 6, pp. 1083-1112, 1992.
JAEGER, H. The Echo State Approach to Analyzing and Training Neural Networks. Technical Report no. 148, Bremen:
German National Research Center for Information Technology, 2001.
KHALIL, H.K. Nonlinear Systems. 2nd. edition, Prentice Hall, 1996.
KOLEN, J.F. Exploring the Computational Capabilities of Recurrent Neural Networks. Ph.D. Thesis, The Ohio State
University, 1994.
KOZMA, R. Intentional systems: Review of neurodynamics, modeling, and robotics implementation. Physics of Life
Reviews, vol. 5, no. 1, pp 1-21, 2008.
LEVIN, A. V., NARENDRA, K. S. Control of nonlinear dynamical systems using neural networks controllability and
stabilization, IEEE Transactions on Neural Networks, vol. 4, no. 2, pp. 192-206, 1993.
LEVIN, A. V., NARENDRA, K. S. Control of nonlinear dynamical systems using neural networks Part II: observability,
identification, and control, IEEE Transactions on Neural Networks, vol. 7, no. 1, pp. 30-42, 1996.
MAASS, W. Networks of Spiking Neurons: The Third Generation of Neural Network Models. Neural Networks, vol. 10, no.
9, pp. 1659-1671, 1997.
MCCULLOCH, W.S. & PITTS, W. A logical calculus of the ideas immanent in nervous activity. Bulletin of Mathematical
Biophysics, vol. 5, pp. 115-133, 1943.
97
MCDONNELL, J.R., WAGEN, D. Evolving Recurrent Perceptrons for Time-Series Modeling. IEEE Transactions Neural
Networks, vol. 5, no. 1, pp. 24-38, 1994.
MEISS, J.D. Frequently Asked Questions about Nonlinear Science. Department of Applied Mathematics, University of
Colorado at Boulder, http://amath.colorado.edu/faculty/jdm/faq-Contents.html.
MILLER, W.T., SUTTON, R.S., WERBOS, P.J. Neural Networks for Control. MIT Press. 1990.
MORITA, M. Associative memory with nonmonotonic dynamics. Neural Networks, vol. 6, pp. 115-126, 1993.
NARENDRA, K. S., PARTHASARATHY, K. Identification and control of dynamical systems using neural networks, IEEE
Transactions on Neural Networks, vol. 1, no. 1, pp. 4-27, 1990.
NERRAND, O., ROUSSEL-RAGOT, P., PERSONNAZ, L., DREYFUS, G. Neural Networks and Nonlinear Adaptive Filtering:
Unifying Concepts and New Algorithms. Neural Computation, vol. 5, no. 2, pp. 165-199, 1993.
NERRAND, O., ROUSSEL-GAGOT, P., URBANI, D., PERSONNAZ, L., DREYFUS, G. Training recurrent neural networks: Why
and how? An illustration in dynamical process modeling. IEEE Transactions on Neural Networks, vol. 5, no. 2, pp.
178-184, 1994.
OTT, E. Chaos in Dynamical Systems. Cambridge University Press, 1993.
OZTURK, M., XU, D., PRNCIPE, J. Analysis and Design of Echo State Networks. Neural Computation, vol. 19, no. 1, pp.
111-138, 2007.
PEARLMUTTER, B.A. Gradient calculations for dynamic recurrent neural networks: a survey. IEEE Transactions on Neural
Networks, vol. 6, no. 5, pp. 1212-1228, 1995.
PHAM, D. T., LIU, X. Dynamic system modelling using partially recurrent neural networks. Journal of Systems
Engineering, pp. 134-141, 1992.
PINEDA, F.J. Generalization of back-propagation to recurrent neural networks. Physical Review Letters, vol. 59, no. 19, pp.
2229-2232, 1987.
PINEDA, F.J. Recurrent Backpropagation and the Dynamical Approach to Adaptive Neural Computation. Neural
Computation, vol. 1, no. 2, pp. 161-172, 1989.
SIEGELMANN, H. T., HORNE, B. G., GILES, C. L. Computational capabilities of recurrent NARX neural networks, IEEE
Transactions on Systems, Man, and Cybernetics, Part B: Cybernetics, vol. 27, pp. 208-215, 1997.
Tpico 1 Redes Neurais Artificiais e Mquinas de Aprendizado (Parte 2)
98
SJBERG, J., ZHANG, Q., LJUNG, L., BENVENISTE, A., DELYON, B., GLORENNEC, P., HJALMARSSON, H., JUDITSKY, A.
Nonlinear Black-box Modelling in System Identification: a Unified Overview, Automatica, vol. 31, no. 12, pp. 16911724, 1995.
SLOTINE, J.-J. & LI, W. Applied Nonlinear Control. Prentice Hall, 1991.
SONTAG, E. Some Topics in Neural Networks and Control. Technical Report LS93-02, Department of Mathematics,
Rutgers University, 1993.
TSOI, A. C., BACK, A. D. Discrete time recurrent neural network architectures: a unifying review, Neurocomputing, vol. 15,
nos. 3-4, pp. 183-223, 1997.
TSOI, A. C., BACK, A. D. Locally Recurrent Globally Feedforward Networks: A Critical Review of Architectures, IEEE
Transactions on Neural Networks, vol. 5, no. 2, pp. 229-239, 1994.
VIDYASAGAR, M. Nonlinear Systems Analysis. 2nd. edition, Prentice Hall, 1993.
VON ZUBEN, F.J. Modelos paramtricos e no-paramtricos de redes neurais artificiais e aplicaes. Tese de Doutorado,
Faculdade de Engenharia Eltrica e de Computao, Unicamp, 1996.
VON ZUBEN, F.J., NETTO, M.L.A. Exploring the Nonlinear Dynamic Behavior of Artificial Neural Networks. Proceedings
of the IEEE International Conference on Neural Networks, vol. II, pp. 1000-1005, June 1994.
VON ZUBEN, F.J., NETTO, M.L.A. Second-order training for recurrent neural networks without teacher-forcing.
Proceedings of the IEEE International Conference on Neural Networks (ICNN'95), vol. 2, pp. 801-806, 1995.
WILLIAMS, R. J., ZIPSER, D. A Learning Algorithm for Continually Running Fully Recurrent Neural Networks, Neural
Computation, vol. 1, no. 2, pp. 270-280, 1989.
ZBIKOWSKI, R.W. Recurrent Neural Networks: Some Control Aspects. Ph.D. Thesis, Faculty of Engineering, Glasgow
University, 1994.
99