Vous êtes sur la page 1sur 13

Tarea 5

Netzahualcoyotl Guadarrama Camarena


2 de noviembre de 2010
1. Introducin:
Motivacin del estudio de redes neuronales
Para desarrollar identicacin de parametros de una planta
Para resolver problemas sin conocer un sistema.
2. Experimento1
Construir una red neuronal capaz de aproximar una seal de salida de una planta lineal, cuya entrada es
una funcin, el sistema es el siguiente.
1
u
y(k)
e
PLANTA
R N
Z
-1
Z
-1
u
y(k)
e
PLANTA
R N
Z
-1
Z
-1
j (:) = aj (: 1) /j (: 2) + cn(: 1) + );
n(:) = 1,5:c:(2:) + 0,6:c:
_
3:
2
_
+ 1,12:c:
_
::
2
_
Con
a = 0,72, / = 0,9, c = 0,5, ) = 0,3
Para este experimento se utiliza el toolbox simulink de Matlab para realizar la simulacin.
y se realiza la siguiente conexin:
2
Figura 1: Capa1
Planta
Funcion de entrada
Para la red neuronal se utiliza un aprendizaje a travez de la minimizacin del error medio cuadratico de
la salida de la planta contra la salida de la red neuronal, y de manera continua como los sistemas ADALINE.
la ecuacion de aprendizaje de LMS es la siguiente: y considerando una funcin de activacin lineal, c(:) = :.
n
i
(: + 1) = n
i
(:) + jc (:) c(:) r
i
(:)
3
n
i
(: + 1) = n
i
(:) + jc (:) r
i
(:)
j (:) =
j
0
1 +
n
6
Neurona1
Factor de aprendizaje
Identicacion
Obtenemos los siguientes pesos aprendidos con esta metodologa.
4
0 10 20 30 40 50 60 70 80 90 100
-1.2
-1
-0.8
-0.6
-0.4
-0.2
0
0.2
0.4
0.6
Iteraciones
P
e
s
o
s
W1 W2 W3 W4
Fig. Pesos
0 10 20 30 40 50 60 70 80 90 100
-0.6
-0.4
-0.2
0
0.2
0.4
0.6
0.8
Iteraciones
Y




V
S




Y
*
Y Y*
Y Vs Y*
0 10 20 30 40 50 60 70 80 90 100
-0.8
-0.6
-0.4
-0.2
0
0.2
0.4
0.6
0.8
Iteraciones
E
r
r
o
r
e=Y-Y*
Error
0 10 20 30 40 50 60 70 80 90 100
0.1
0.15
0.2
0.25
0.3
0.35
0.4
0.45
Iteraciones
E
r
r
o
r

m
e
d
i
o

c
u
a
d
r
a
t
i
c
o
Error medio cuadratico
5
0 10 20 30 40 50 60 70 80 90 100
-1
-0.8
-0.6
-0.4
-0.2
0
0.2
0.4
0.6
0.8
1
Iteraciones
F
u
n
c
i
o
n

d
e

e
n
t
r
a
d
a
u
Seal de entrada
3. Experimento 2
Utilizando el mismo sistema y adicionandole un trmino no lineal cuya ecuacin se transforma como sigue
j (:) = aj (: 1) /j (: 2) + cn(: 1) + ) + /
1
(:)
Con
/
1
(:) = 0,15
_
1 + j
2
(: 1) j
2
(: 2)

n(:) = 0,5
_
:c:(2:) + 0,3:c:
_
3
2
_
+ 0,8:c:
_
:
2
_
_
Con
a = 0,72, / = 0,9, c = 0,5, ) = 0,3
el sistema de aproximacin es el mismo
6
u
y(k)
e
PLANTA
R N
Z
-1
Z
-1
u
y(k)
e
PLANTA
R N
Z
-1
Z
-1
Utilizando el toolbox Simulink de Matlab y realizando las siguientes conexiones
Para el aprendizaje de los pesos se utiliza el algoritmo LMS, con el momento o el gradiente del error de
salida con respecto a los pesos anteriores, para una funcin de activacin lineal.
n
i
(: + 1) = n
i
(:) + jc (:) r
i
(:) + cc (: 1) r
i
(: 1)
j (:) =
j
1 + j
0
= c
Estamos utilizando ahora una planta no lineal y su interconexion es de la siguiente forma.
Planta no lineal
7
La parte no lineal se interconeta de la siguiente manera.
Parte no lineal
La interconexion de la neurona con el nuevo aprendizaje y funcion de activacion lineal.
Neurona1
Utilizando estos cambios los pesos obtenidos son los siguientes.
8
0 20 40 60 80 100 120 140 160 180 200
-1.2
-1
-0.8
-0.6
-0.4
-0.2
0
0.2
0.4
0.6
0.8
Iteraciones
P
e
s
o
s
W1 W2 W3 W4
Fig. Pesos2
0 20 40 60 80 100 120 140 160 180 200
-0.8
-0.6
-0.4
-0.2
0
0.2
0.4
0.6
0.8
1
1.2
Iteraciones
Y





V
s




Y
*
Fig. DY2
0 20 40 60 80 100 120 140 160 180 200
-0.8
-0.6
-0.4
-0.2
0
0.2
0.4
0.6
0.8
Iteraciones
E
r
r
o
r
e=Y-Y*
Fig. e2
0 20 40 60 80 100 120 140 160 180 200
0.1
0.15
0.2
0.25
0.3
0.35
0.4
0.45
0.5
Iteraciones
E
r
r
o
r

c
u
a
d
r
a
t
i
c
o

m
e
d
i
o
erms
Fig. erms2
Ahora utilizando una funcion de aprendizaje con una neurona con funcion de activacin tangente entonces
se convierte el aprendizaje como sigue:
n
i
(: + 1) = n
i
(:) + jc (:) c(:) r
i
(:) + cc (: 1) c(: 1) r
i
(: 1)
9
n
i
(: + 1) = n
i
(:) + jc (:)
_
1 j
2
(:)
_
r
i
(:) + cc (: 1)
_
1 j
2
(: 1)
_
r
i
(: 1)
j (:) =
j
1 + j
0
= c
Haciendo este cambio en nuestra neurona.
Fig. RN3
usando entonces esta funcin de activacin observamos las siguientes gracas para los pesos aprendidos.
0 20 40 60 80 100 120 140 160 180 200
-1.2
-1
-0.8
-0.6
-0.4
-0.2
0
0.2
0.4
0.6
Iteraciones
P
e
s
o
s
W1 W2 W3 W4
Fig. Pesos3
0 20 40 60 80 100 120 140 160 180 200
-0.8
-0.6
-0.4
-0.2
0
0.2
0.4
0.6
0.8
1
Iteraciones
Y







V
s





Y
*
Fig. DY3
10
0 20 40 60 80 100 120 140 160 180 200
-0.8
-0.6
-0.4
-0.2
0
0.2
0.4
0.6
0.8
Iteraciones
E
r
r
o
r
e=Y-Y*
g. e3
0 20 40 60 80 100 120 140 160 180 200
0.1
0.15
0.2
0.25
0.3
0.35
0.4
0.45
0.5
Iteraciones
E
r
r
o
r

m
e
d
o

c
u
a
d
r
a
t
c
o
erms
Fig. erms3
Ahora probemos que tan bueno es utilizar estos pesos encontrados para este modelo encontrado si cam-
biamos la funcin de entrada y mantenemos los pesos jos encontrados.:
Usando la siguiente interconexin en la entrada.
Funcin de entrada para prueba
para el caso 1. tenemos la siguiente respuesta.
11
0 5 10 15 20 25 30
-2
-1.5
-1
-0.5
0
0.5
1
1.5
2
2.5
Iteraciones
Y






V
s





Y
*
Y
Y*
Fig. Y Vs Y*
0 5 10 15 20 25 30 35 40 45 50
-1.5
-1
-0.5
0
0.5
1
1.5
2
2.5
3
3.5
Iteraciones
F
u
n
c
i
o
n

d
e

e
n
t
r
a
d
a
u
Funcin de entrada
Para el caso del sistema no lineal con funcin de activacin lineal.
0 5 10 15 20 25 30 35 40 45 50
-5
-4
-3
-2
-1
0
1
2
3
4
5
Iteraciones
Y






V
s





Y
*
Y
Y*
Fig. A Y Vs Y*
0 5 10 15 20 25 30 35 40 45 50
-2
-1
0
1
2
3
4
Iteraciones
F
u
n
c
i
o
n

d
e

e
n
t
r
a
d
a
u
Funcin de entrada
para el ltimo caso tenemos:
12
0 5 10 15 20 25 30 35 40 45 50
-5
-4
-3
-2
-1
0
1
2
3
4
Iteracions
Y






V
s






Y
*
Y
Y*
Fig. A3 Y Vs Y*
4. Conclusiones
Los pesos en una red neuronal lineal para la identicacin de una planta lineal, son ms adecuados cuando
se mantienen jos sin aprendizaje, sin embargo cuando la planta es nolineal se puede observar que con una
funcin de activacin lineal proporciona unos valores en los pesos ms adecuados cuando estos se dejan jos
para otra funcin de entrada diferente que con una red neuronal con funcin de activacin tangente. Sin
embargo, al utilizar una red neuronal con funcin de activacin tangente para la identicacin de la planta
no lineal con aprendizaje con tinuo proporciona un error menor que con una red neuronal con funcin de
activacin lineal. en estas dos ultimas comparaciones se utiliz el trmino momento y en ambos casos fu
necesario este trmino para amortiguar la salida aproximada de la red neuronal.
13

Vous aimerez peut-être aussi