Académique Documents
Professionnel Documents
Culture Documents
19
Captulo 2
20
Son tolerantes a fallos, ya que su comportamiento est distribuido entre todos los
parmetros. As, cuando alguno de ellos es incorrecto, el resultado global se degrada,
pero no deja al modelo inoperante, necesariamente.
21
En los siguientes apartados se repasan con ms detalle los principales aspectos del modelado y
control de sistemas dinmicos con redes neuronales.
2.1.1
Se considera que la identificacin de sistemas dinmicos entr a formar parte de las reas
tratadas por la disciplina del control automtico a principios de los aos 60, cuando las tcnicas
estadsticas estndar, mtodos como el de los mnimos cuadrados o el de la verosimilitud
mxima ya eran bien conocidos. En estos casi cuarenta aos, los textos sobre identificacin de
22
sistemas dinmicos han adquirido un carcter fundamental y existen referencias muy slidas
como [Ljung-87] o [Sd-89].
Existen numerosos mtodos de identificacin pero, en general, todos siguen unas pautas
comunes: preprocesado de los dados, seleccin del modelo, minimizacin del error de
aproximacin y validacin del modelo.
El proceso de identificacin consta de los siguientes componentes:
Los
datos:
son
pares
de
vectores
de
entrada
salida
= {[ y (t ), (t )] ; t = 1
El modelo: es una funcin que estima las salidas a partir de las entradas y de la
informacin temporal que almacena, y (t ) = g N (t , (t )) .
1
V N ( ) =
N
t =1
y (t ) g (t , , (t )
1
V N ( ) =
N
(t , )
t =1
El algoritmo de minimizacin del error, que puede tomar formas muy diversas:
directa, iterativa, heurstica, analtica, estocstica, etc. En el caso de identificacin de
sistemas no lineales se suelen utilizar algoritmos iterativos o recursivos que, de
forma genrica, se pueden expresar segn
(t ) = (t 1) + t Rt1 (t ) (t )
El escalar t es el tamao del paso, Rt-1 es una matriz definida positiva que permite
modificar el criterio de bsqueda (cuando Rt = I se sigue el gradiente) y (t)
corresponde a la derivada de g respecto a los parmetros, .
Las redes neuronales, a pesar de surgir a partir de motivaciones diferentes de las de la
identificacin de sistemas dinmicos, representan un conjunto de modelos que encaja
adecuadamente en la metodologa genrica descrita anteriormente. Son modelos paramtricos
que, basndose en una medida del error y en un algoritmo para minimizarlo, aproximan una
funcin no lineal con errores arbitrariamente pequeos.
23
Los modelos clsicos de identificacin lineal (ARMAX, OE, BJ etc.) y sus versiones no lineales
se pueden expresar en forma de ANN, como se apunta en [Sj-95] y el algoritmo de aprendizaje
backpropagation se ajusta a la regla de minimizacin genrica con Rt = I. Por ejemplo, la
estructura neuronal de la figura 2.1, es equivalente al modelo ARX (o NARX si las neuronas
son sigmoidales en vez de lineales). En esta figura se observa que la red neuronal realiza una
funcin esttica de las observaciones que recibe de las variables de entrada y de salida tanto en
el instante actual como en instantes anteriores, de forma similar a como se procede en los
citados modelos.
u(t)
z-1
z-1
u(t-n)
y (t-1)
y(t-1)
z-1
z-1
y(t-m-1)
24
real de parmetros. De esta manera, no es tan importante como en otros modelos pasar un
exhaustivo proceso de validacin para eliminar aquellos parmetros poco influyentes.
A pesar de todo esto, los modelos neuronales tienen inconvenientes que no se han podido
resolver an. Uno de ellos, observado en [Nar-90], es la dificultad de comprobar las condiciones
de estabilidad en modelos recursivos (como las redes que identifican estructuras NOE, NBJ, y
NARMAX). Este problema se ha superado parcialmente con una tcnica denominada teacher
forcing, que consiste en sustituir, en la realimentacin, las salidas de la red neuronal por las
salidas reales del sistema a identificar. Otros inconvenientes son la dificultad de incorporar
conocimiento previo que permita mejorar el modelo o acelerar el proceso de identificacin y,
sobre todo, la impracticabilidad de interpretar fsicamente los parmetros resultantes del
modelo.
Estos problemas se tratan explcitamente en este trabajo y se propone una metodologa que
permite resolverlos.
2.1.3
Planta
Control NN
25
yd
e
+
Filtro
Planta
y
+
Control NN
+
y
_
Modelo NN
Fig. 2.3: Esquema de control indirecto con redes neuronales
Recientemente los esquemas de control indirecto han sido objeto de estudios formales que han
dado, como consecuencia, resultados interesantes. Por ejemplo, en [Lev-93] se describe el
diseo de controladores neuronales que aseguran la estabilizacin de un sistema no lineal,
siempre y cuando sea de estado acotado, diferenciable (Lipshitz, en realidad) y accesible. En
26
[Lev-96] se extienden los anteriores resultados a sistemas en los que el estado no es accesible (y
necesita ser estimado) y a problemas de seguimiento. En [Suy-96] se utiliza un modelo neuronal
(llamado NLq) que permite la sntesis de controladores ptimos y se demuestra tambin la
estabilidad de los sistemas controlados y la robustez de los controladores obtenidos.
Motivacin
La mayora de las topologas populares de ANN (redes de tres capas, redes recurrentes
totalmente conectadas, etc.) son modelos muy flexibles que pueden adaptarse a un rango amplio
de caractersticas de entrada-salida. Esta es su principal ventaja, pero tambin puede representar
su principal inconveniente por las siguientes razones:
Solla demuestra, en [Solla-89], que la probabilidad de que una ANN muestre un determinado
comportamiento depende no slo del algoritmo de aprendizaje de la red, sino tambin de la
arquitectura. El procedimiento para incrementar la probabilidad de la correspondencia correcta
entre entradas y salidas suele recaer en el aprendizaje pero, tal y como se argumenta en
[Happ-94], un mtodo potencialmente mucho ms verstil para cambiar la distribucin de
probabilidades de comportamientos en una red neuronal es imponer restricciones sobre su
topologa.
Precisamente, este ltimo argumento es el que da pie a la creacin de los mdulos neuronales.
27
2.2.2
Los modelos que se estudian en este trabajo son redes neuronales modulares. Estn compuestas
por redes ms sencillas que se comportan como bloques funcionales y stos son los mdulos
neuronales, [Mor-96b].
Una red de mdulos neuronales es una red neuronal clsica en el sentido de que est compuesta
por neuronas de activacin sigmoidal o lineal, es discreta y se entrena con algoritmos tpicos de
aprendizaje (backpropagation para redes estticas y backpropagation through time, BPTT, para
redes dinmicas). Lo que la diferencia de otros modelos neuronales es que, en cada mdulo, el
patrn de conectividad no est limitado a capas de neuronas sino que es totalmente libre. La
segunda diferencia importante es que los parmetros de los NM pueden tomar valores
constantes, que no varan a lo largo del aprendizaje. De esta manera es posible forzar un
comportamiento especfico en cada bloque funcional y, por consiguiente, en el modelo.
Una vez aplicado con xito el proceso de identificacin, el modelo resultante es una red
neuronal compuesta por mdulos, cada uno de los cuales representa un bloque funcional del
sistema con un significado fcilmente interpretable.
El propsito de este modelo es aprovechar al mximo las ventajas que las redes neuronales
brindan al problema de identificacin y control de sistemas dinmicos, minimizando a su vez
sus inconvenientes.
2.2.3
Dada una familia de funciones, F, que supondremos definida sobre un compacto de los reales:
F = {f : [a, b ] [a, b ] | JN }
(2.1)
definimos un mdulo neuronal como una red neuronal que aproxima adecuadamente el
comportamiento de F:
(2.2)
28
con que se realiza el NM, los pesos. La manera en que el NM aproxima la familia de funciones
viene determinada por la distancia d(F,FNM), que se discutir en las siguientes secciones.
Las condiciones que hacen posible que una ANN como las indicadas pueda aproximar una
familia dada de funciones, ajustndose a unos determinados criterios de distancia son dos:
As pues, un NM es una red neuronal que, debido a una serie de restricciones impuestas sobre su
estructura y parmetros, se comporta inherentemente como una familia de funciones. El
procedimiento para sintonizar una funcin concreta dentro de la familia F es el mecanismo de
aprendizaje, que slo afecta a un subconjunto de los pesos de la red, mientras que el resto no
vara. Por ejemplo, se ver posteriormente que hay un NM que realiza la funcin saturacin y
que tiene dos pesos que corresponden, respectivamente, al valor de la salida saturada y a la
pendiente del intervalo no saturado, mientras que el resto de los pesos (no modificables durante
el aprendizaje) tienen la misin de forzar un comportamiento de tipo saturacin.
Lo que resta de este captulo est dedicado a describir el proceso de diseo de los mdulos
neuronales y en el captulo 3 se justifica, mediante desarrollos formales, su adecuacin en el
modelado de sistemas dinmicos no lineales.
29
segundo grupo, por otro lado, suele tratarse poco aunque se dan excepciones, como [Tao-96],
ntegramente dedicado al control de sistemas con no-linealidades duras. El conjunto de
no-linealidades que suele considerarse de inters est formado por: el rel ideal (caracterstica
todo-nada), la zona muerta, la saturacin, el rel con histresis y el juego de engranajes.
En este trabajo se obtendrn los NMs que aproximan las no-linealidades duras mencionadas y
tambin otras que pueden ser de utilidad como: el valor absoluto, la friccin viscosa y de
Coulomb, el limitador de velocidad y el tope mecnico.
Previamente, no obstante, es necesario explicar con detalle cmo, con redes neuronales, es
posible aproximar dos tipos de comportamientos que servirn despus para el diseo de las
dems funciones no lineales. Estos dos comportamientos surgen a partir de analizar las
funciones lineales a trozos. Una funcin lineal a trozos se define as:
0 < x 1
f 1 ( x)
f ( x) =
f ( x)
n
f i ( x ) = ai x + bi ,
n 1 < x n
a i , bi J
(2.3)
Ntese que para poder reproducir el comportamiento de una funcin lineal a trozos es necesario,
en primer lugar, poder determinar si x pertenece a un intervalo (i-1, i). En segundo lugar, hay
que poder calcular fi(x) de forma que valga 0 (u otro valor constante) para x (i-1, i).
2.3.1
Pertenencia a intervalos
La activacin clsica de las neuronas, activacin sigmoidal, ofrece una forma natural de detectar
la pertenencia a intervalos puesto que su salida es esencialmente diferente para entradas
mayores o menores que cero. El esquema bsico de deteccin es:
umbral ( x ) = sigs( wd ( x ))
(2.4)
donde es el valor a partir del cual la funcin umbral cambia de signo y el peso wd determina
la pendiente del cambio (recordemos que sigs es una funcin continua y que justamente la
utilizamos como funcin de activacin, preferentemente a funciones de activacin definidas a
trozos, por ser continua).
Un factor de estudio interesante es la pendiente de la funcin umbral cuando cambia de signo.
Se define franja de incertidumbre (notada a partir de ahora con ) como la distancia entre
30
( wd , p ) = 2
k
wd
k = ln
2
(2.5)
Se observa en la ecuacin (2.5) que es inversamente proporcional al peso wd. Es decir, que a
mayor valor del peso menor es la franja de incertidumbre y mejor se realizar la deteccin de
pertenencia al intervalo. Si se quiere disear una neurona que realice la funcin umbral
solamente es necesario fijar los valores de p y para despejar el correspondiente peso, wd, que
cumple las condiciones especificadas. Por ejemplo, si queremos una franja de incertidumbre
= 0.1 y consideramos que un valor de salida de 0.75 (p = 0.25) es suficiente para indicar
cundo las entradas son mayores o menores que , entonces el peso resultante vale
p
0.25
ln
ln
2 p
1.75
= 38.92
= 2
wd = 2
0.1
Es posible definir otras funciones umbral con neuronas no simtricas (utilizando la funcin de
activacin sig) o con el peso wd negativo, de forma que para x < la salida sea positiva y para
x > sea negativa. De este modo habr cuatro procedimientos para realizar la deteccin (con
sus franjas de incertidumbre asociadas):
( wd , p) = 2
p
k
, k = ln
wd
2 p
( wd , p) = 2
p
k
, k = ln
wd
1 p
cada uno de los cuales tiene un comportamiento diferente. En la figura 2.4 estn detalladas las
redes neuronales que realizan las cuatro funciones umbral y una grfica asinttica (con wd
tendiendo a ) de las mismas.
31
wd
wd
wd
wd
wd
wd
wd
wd
umbral1
umbral2
umbral3
umbral4
1
x ( 1 , 2 ) =
0
1 x 2
x < 1, x > 2
(2.7)
basta con disear una red de dos mdulos umbral cuya salida sea la suma de ambos. Un
mdulo detecta si x > 1 y el otro detecta si x < 2. La suma de ambos, debidamente ponderada,
aproxima la funcin que se expresa en la ecuacin (2.7). La precisin de la deteccin la
podemos calcular previamente y ajustar al grado que ms nos interese. La red neuronal
resultante se puede expresar mediante
Recordemos que el objetivo de esta seccin es permitir el diseo de mdulos neuronales que
aproximen el tipo de funciones no lineales ya indicado. Para ello nos basamos en la ecuacin
(2.3) y el propsito de este apartado es describir la obtencin de fi(x) lineal con
x = 0 x (i-1, i).
La comprobacin de que sigs es aproximadamente lineal en un pequeo entorno de x = 0 es
trivial. Este comportamiento se degrada (alejndose de la recta) a medida que x se aleja de cero.
Por ello, si se desea obtener una respuesta aproximadamente lineal para entradas pertenecientes
a un intervalo genrico (1, 2) y utilizando la funcin sigs(x), hay que escalarlas de forma que
32
se transformen en un pequeo intervalo simtrico entorno a cero, (-, ). El clculo para obtener
la entrada escalada, dados 1, 2 y (el mximo error permitido en la aproximacin) es:
(2x 2 1)
xe =
2 1
con =
1 e
1 + e 2
(2.8)
x 10
4
2
()
0
-2
-4
-6
-0.5
0.5
2 1
lineal ( x ) = wr sigs bias donde wr =
2
wr
y bias =
2 + 1
2 1
(2.9)
El parmetro controla la pendiente de la recta que genera lineal(x) y se puede comprobar que
si el intervalo est centrado en cero (2 = -1) el parmetro bias se anula. Para lograr la
pendiente deseada, ai, es necesario que = 2ai dado que sigs no tiene pendiente unitaria en el
origen.
33
2
1.5
y = 0.25x
1
0.5
0
-0.5
= 0.5
-1
-1.5
-2
-10
1 = -5
2 = 5
10
(1, 2)
(2, )
x1 = umbral41(x)
x2 = umbral32(x)
linealMod ( x ) = wr sigs(
x
bias ws x1 + ws x 2)
wr
(2.10)
El valor del peso ws no es crtico; nicamente interesa que sea suficientemente grande como
para saturar la salida de sigs cuando x1 o x2 sea 1. Se ha comprobado empricamente que, para
ello, basta con que ws se encuentre entre 10 y 20. La grfica de la figura 2.7 muestra la
34
-2
0
-2
wr
-10
1 = -5
2 = 5
10
d1
compens1( x ) = wr sigs ws x1 +
wr
d2
compens2( x ) = wr sigs ws x 2
wr
(2.11)
donde wr y ws son los mismos valores empleados en las ecuaciones (2.9) y (2.10) y d1 y d2 son
unos parmetros que se utilizarn ms adelante; por el momento interesa d1 = d2 = 0. La
representacin conjunta de compens1(x) y compens2(x) se da en la grfica de la figura 2.8.
35
wr
compens1(x)
-2
0
-2
compens2(x)
wr
-10
1 = -5
2 = 5
10
~
f i ( x ) = linealMod ( x ) + compens1( x ) + compens2( x )
(2.12)
desee y los parmetros d1 y d2 permiten que f i ( x ) = 0 para x (1, 2). Sin embargo, existe
un problema al hacerlo que se ver seguidamente.
2
1.5
y = 0.25x
1
0.5
0
-0.5
= 0.5
-1
-1.5
-2
-10
1 = -5
2 = 5
10
36
d2
2 + bi = a i d 2 + bi
1 + 2
~
+ a i (d 1 d 2) + bi
f i ( x ) a i x a i
2
d1
2 + bi = ai d 1 + bi
x < 1
1 x 2
(2.13)
x > 2
0 ai
ai ai
a i 0
cuyas soluciones son: d 1 =
1 d 1
1 + 2
1 d 2 = bi + a i
2
1 bi
0
(2.14)
1 + 2
bi 1 + 2
bi 1 + 2
+
, d2 =
y bi = bi ai
. El
2
2
2
ai
ai
problema que plantean los valores de estos parmetros es que, puesto que bi y ai no tienen
restricciones de rango, tanto d1 como d2 pueden estar fuera del intervalo (1, 2) y, de esta
forma, las aproximaciones que realizan las funciones compens1(x) y compens2(x) no seguiran
las especificaciones de precisin dadas en los prerrequisitos a travs de y .
Este problema no es del todo insalvable porque se pueden rehacer las especificaciones del error
mximo teniendo en cuenta tambin los parmetros ai y bi. Sin embargo, dada la naturaleza del
tipo de funciones que en la prctica se aproximan, parece ms razonable imponer alguna
restriccin sobre f(x), definida en la ecuacin (2.3), para poder continuar con los supuestos ya
enunciados.
La funcin f(x) es muy genrica pues permite la realizacin de cualquier funcin lineal a trozos.
En la prctica, no obstante, muchas de las caractersticas no lineales observadas (la saturacin,
la zona muerta, algunos modelos de la friccin y otras) son funciones continuas de la entrada.
Si, por tanto, restringimos f(x) a las funciones continuas lineales a trozos seguiremos abarcando
un conjunto interesante y, ahora s, con la posibilidad de disear mdulos neuronales que las
aproximen cumpliendo unas especificaciones previas de error mximo.
37
f 1 ( x) 0 < x 1
f ( x) =
f ( x) < x
n 1
n
n
ai
f i ( x ) = a i x + bi ,
J
n 1
bi = bn + j ( a j +1 a j )
(2.15)
j =i
que se diferencia de (2.3) en que ahora solamente hay un parmetro b libre (aqu es bn, pero
podra ser cualquier otro) y los dems quedan en funcin de l.
f(x) representa una familia de funciones que viene caracterizada por 2n+2 parmetros para n
tramos lineales. Estos parmetros son: ai (n valores), i (n+1 valores) y bn (1 valor). Si se define
n
~
~
f ( x) = b + f i ( x)
(2.16)
i =1
que es la aproximacin de f(x), se pueden relacionar los parmetros de una y otra familia de
funciones segn:
ws y wd libres
i i 1
wri =
2
i i 1
d 1i = d 2 i =
2
i = 2 ai
i + i 1 i + i 1
=
biasi =
2 wr
i i 1
n
i i 1
b = a n n + bn ai
2
i =1
(2.17)
Veamos con un ejemplo cmo es la red neuronal f i ( x ) que aproxima un tramo lineal cualquiera
fi(x) = aix + bi x (i-1, i). Previamente, para dejar bien clara la utilizacin en forma de red
neuronal de las funciones compens1(x), linealMod(x), etc., es conveniente comprender el
diagrama de la figura 2.10, que esquematiza la interconexin entre las diferentes funciones. El
diagrama correspondiente a la ANN que aproxima fi(x), con los detalles de los pesos, se puede
observar en la figura 2.11.
38
compens1(x)
umbral41(x)
x
linealMod(x)
~
f i ( x)
umbral32(x)
compens2(x)
ws
w d
2wr
-w s
1/w r
x
wd
~
f i ( x)
ws
bias
2 w d
2 w r
-w s
2wr
-d2/w r
39
( i i 1 )
2
2
i = 2 ai
( i 1 i )
2
2
i-1
A la vista de cmo se disea la red neuronal que aproxima un tramo lineal en un intervalo
veamos cmo se diseara, finalmente, el mdulo neuronal capaz de aproximar f(x) segn la
definicin (2.15). Esta aproximacin se basa en (2.16) y en las especificaciones de error
mximo.
Volviendo a la definicin de mdulo neuronal (2.2) los conjuntos de parmetros y para la
familia de funciones lineales a tramos (2.15) corresponden a:
= {ai , j , bn
n, j = 0 n}
| i =1
(2.18)
| i = 1 n}
(2.19)
Ya se ha apuntado anteriormente que los pesos wsi pueden fijarse a valores entre 10 y 20
directamente. Los pesos wdi son determinantes en la precisin de la aproximacin y es necesario
fijarlos a valores grandes (del orden de 100). Los pesos wri dependen del mnimo error
permitido y de las longitudes de los tramos lineales. No es posible calcularlos a priori porque las
longitudes varan entre instancias de la familia de funciones. Sin embargo, dado el error
mximo y el rango total de la entrada siempre es posible calcular, de forma conservadora, un
peso wr comn a partir de (2.17). El resto de los parmetros ( i, biasi, d1i y d2i) se pueden
obtener a partir de los nicos pesos modificables del NM, que corresponden a ai, j, y bn.
40
1,0, 1
2,1, 2
x
~
f ( x)
n,n-1, n
i-1
wd
0.5/wr
x
0.5/wr
d1
-0.5/wr
ws
2wr
-wd
1/wr
0.5/wr
0.5/wr
wd
-wd
-ws
bias
2wr
~
f i ( x)
ws
2 wr
-ws
-0.5/wr
d2
Fig. 2.14: detalle de la realizacin de un tramo lineal con las conexiones de los nicos
parmetros que modifica el algoritmo de aprendizaje (i-1, i, i) destacados
2.3.4
Dada una familia de funciones, lineales o no, parametrizada a travs de un conjunto, , como en
la ecuacin (2.1), el proceso de diseo de un mdulo neuronal que aproxime dicha familia tiene
la finalidad de obtener una red neuronal cuyos pesos pueden agruparse en pesos fijos y
modificables. Los pesos fijos fuerzan el comportamiento deseado en el modelo, mientras que los
modificables deberan tener el mismo significado que los parmetros del conjunto .
41
Las funciones umbral permiten clasificar las entradas segn el intervalo al que stas
pertenecen. Esto suele ser til cuando la funcin est definida a tramos.
/w
a) red original
1/w
b) red transformada
Hasta ahora solamente se han considerado funciones estticas, pero las redes
neuronales tienen capacidad para mostrar comportamientos dinmicos. Para ello se
utilizan las conexiones hacia atrs, que introducen un retardo temporal de una
muestra.
42
x(k) - x(k - 1)
x(k)
x(k )
1
x(k)
1
1
-1
a) suma en el tiempo
b) resta en el tiempo
Con la ayuda de estas pautas es posible disear mdulos neuronales que aproximan las
funciones que se describen en la siguiente seccin, que son lineales a tramos, continuas y
estticas o dinmicas. Pero tambin se pueden disear funciones de caractersticas diferentes,
como por ejemplo funciones de varias entradas (ver [Mor-96a]).
43
2.4.1
La no-linealidad tipo umbral puede dar lugar a mltiples funciones de inters en el modelado de
sistemas no lineales: desde funciones sencillas como las caractersticas ON-OFF hasta otras ms
complejas como comparadores de seales, etc.
La familia de funciones umbral se define segn:
UMBRAL
k1 x
= f ( x) =
k 2 x >
| = { , k1, k 2 [a , b]}
(2.20)
y su realizacin neuronal se puede llevar a cabo con 2 neuronas y 4 pesos. La relacin entre los
parmetros de UMBRAL y UMBRALNM es la siguiente:
UMBRALNM
~
= f , : [a, b ] [k1, k 2] | = { , w1, w2}, = {wd }
con f ( x ) = w1 umbral1 ( x ) + w2
y w1 =
(2.21)
k1 k 2
k1 + k 2
, w2 =
.
2
2
La figura 2.17 muestra el diagrama correspondiente a la red neuronal que aproxima la familia de
funciones UMBRAL. Ntese que este mdulo neuronal puede simplificarse para casos concretos
del grupo de funciones. Por ejemplo, si k1 = - k2 = 1 entonces w1 = 1 y w2 = 0, con lo cual se
puede omitir la neurona con funcin de activacin lineal sin modificar el comportamiento del
mdulo neuronal. En este caso, utilizar solamente una neurona con dos pesos (uno de los cuales
es fijo) ser ms eficiente en cuanto a velocidad de aprendizaje.
w1, w2
~
f ( x)
1 -wd
w1
x
wd
~
f ( x)
1 w2
44
la histresis (vase para un ejemplo [Tao-96]) en este trabajo se utiliza la ms habitual, que
contempla principalmente el carcter de desdoblamiento en la respuesta de un sistema. No se
consideran pendientes diferentes para los tramos que conforman la respuesta ni lazos menores
de histresis dentro del lazo principal.
-1
Fig. 2.18: grfica de la funcin rel de dos posiciones con histresis ideal
De hecho, ms que estudiar el efecto de la histresis, en este trabajo se obtiene un mdulo
neuronal que aproxima el comportamiento ideal de un rel de dos posiciones con histresis. La
figura 2.18 representa la grfica de dicho elemento y su definicin matemtica, como funcin de
tiempo discreto es
f ( x ( k )) = f ( x ( k 1))
1
x(k ) 1
1 < x( k ) 2
x(k ) > 2
(2.22)
-1wd
x
ws
wd
wd
ws
-2wd
~
f ( x)
ws
Fig. 2.19: mdulo neuronal correspondiente al rel con histresis (ntese que la conexin hacia
atrs lleva implcita un retardo temporal)
La representacin grfica del NM correspondiente al rel con histresis se da en la figura 2.19 y
la relacin entre la familia de funciones RELE y RELENM es la siguiente:
RELE
= f ( x ) | = { 1 , 2 }
45
RELENM
~
= f , : [a, b] [ 1,1] | = { 1 , 2 }, = {wd , ws }
(2.23)
La ltima consideracin que se realizar acerca de este NM es que el peso wd permite controlar
la sensibilidad de discriminacin entre los intervalos de entrada y que ws permite controlar la
pendiente de cambio en la salida.
2.4.3
f ( x ) = x
x <
x
x >
(2.24)
= {f ( x) | = { , }}
(2.25)
El mdulo neuronal que aproxima el conjunto de funciones SAT queda descrito segn:
SATNM
~
= f , ( x) | = { , }, = {wd , wr , ws }
(2.26)
La figura 2.20 muestra el diagrama de la red neuronal que aproxima la familia de funciones SAT.
Ntese que este mdulo neuronal tiene un total de 16 pesos, de los cuales solamente 2 sern
modificables en el proceso de aprendizaje. Estos pesos son y , que corresponden a los
parmetros de definicin de la funcin.
46
1/wr
1
-wd
ws
-wd
2 wr
-ws
2 wr
1/wr
x
-wd
~
f ( x)
ws
wd
2 wr
-ws
1/wr
Fig. 2.20: esquema de la red neuronal que aproxima la familia de funciones SAT
2.4.4
La zona muerta es una funcin esttica no lineal caracterizada por dar salida nula para un
determinado rango de entrada y por una relacin lineal de pendiente constante entre la salida y
la entrada fuera de este rango. En la figura 2.21 se da una grfica de ella.
(x + )
f ( x ) = 0
(
x )
x <
x
x >
(2.28)
47
La manera ms sencilla de generar la zona muerta es a partir del diseo de la saturacin. Es fcil
comprobar que si f(x) SAT y g(x) ZONAMUERTA, g(x) = x - f(x). De esta manera, la red
neuronal que lleva a cabo la zona muerta es la de la figura 2.22, parecida a la de la saturacin
pero con los pesos que llegan a la neurona de salida cambiados de signo y con un peso adicional
que lleva la entrada a la salida.
1/wr
1
-wd
ws
-ws
2wr
1/wr
x
-wd
2wr
-wd
~
f ( x)
ws
wd
2wr
-ws
1/wr
x
f ( x) =
x
x<0
x0
x [a , b]
(2.30)
La definicin matemtica del valor absoluto (2.30) permite advertir que no se trata de una
familia de funciones, como en los casos anteriores, sino de una nica funcin esttica que carece
de parmetros. Por esto, el mdulo neuronal asociado a ella no tiene pesos modificables, cosa
que se refleja seguidamente:
ABS
ABSNM
= { f ( x ) | = }
(2.31)
~
= f , ( x) | = , = {wr , wd , ws }
(2.32)
48
El diseo del NM asociado al valor absoluto parte del resultado en (2.17) cuando
(i-1, i) = (a, 0), siendo [a, b] el rango mximo de la entrada. La figura 2.23 muestra la
representacin grfica de este mdulo, que carece de pesos modificables, a pesar de la presencia
del parmetro , que en realidad tiene que especificarse a priori o, si se desconoce, drsele un
valor conservador.
-0.5/wr
-ws
-wd
x
1/wr
0.5/wr
4wr
ws
4wr
~
f ( x)
a) friccin de Coulomb
b) friccin de Coulomb
con efectos viscosos
49
x
f ( x) =
x +
x<0
x>0
(2.33)
= {f ( x) | = { , }}
(2.34)
~
= f , ( x) | = { , }, = {wd }
(2.35)
Este mdulo neuronal tiene un peso fijo, de valor wd, y dos pesos modificables, de valores y
, respectivamente. Su diseo se realiza con una funcin umbral10 y se da en la figura 2.25.
wd
x
~
f ( x)
50
( x (k ) + )
f ( x(k )) = f ( x( k 1))
( x (k ) )
f ( x(k 1))
f ( x(k 1))
f ( x( k 1))
x (k )
+ (2.36)
f ( x( k 1))
+
x( k ) >
x( k ) <
El mdulo neuronal JUEGONM que aproxima la familia de funciones JUEGO se define segn:
JUEGONM
{~
= f , ( x ) | = { , }, = {wd , wr , ws }
(2.37)
a) juego
= {f ( x) | = { , }}
(2.38)
b) interpretacin
51
1/wr
1
-wd
ws
1
-wd
-ws
1/wr
x
-1
-wd
wd
1/wr
2 wr
ws
-ws
2wr
2 wr
~
f ( x)
Fig. 2.27: diagrama del mdulo neuronal del juego de engranajes (ntese que las conexiones
hacia atrs llevan implcitas un retardo temporal)
2.4.8
El tope mecnico es una no-linealidad algo menos corriente que el juego de engranajes y es,
respecto a la saturacin, lo que el juego es respecto a la zona muerta. En diferentes sistemas
mecnicos el desplazamiento de una de las piezas del mecanismo puede estar limitado en dos
sentidos permitiendo, a pesar de ello, que la parte conductora se traslade ilimitadamente. Este
comportamiento no lineal corresponde al tope mecnico.
La definicin, en tiempo discreto es:
x( k ) x(k 1) <
f ( x(k 1))
(2.39)
f ( x( k 1))
f ( x(k 1))
x(k ) x(k 1)
+
f ( x( k 1))
+
x( k ) x(k 1) >
El mdulo neuronal TOPENM, que aproxima la familia de funciones TOPE, se obtiene a partir de
la observacin de que la caracterstica de f(x(k)), representada en la figura 2.28a se puede
considerar como la de una saturacin que cambia el punto de operacin dinmicamente, de
forma similar a como lo hace la zona muerta en el juego de engranajes. El modo concreto en
que esta operacin tiene lugar se aprecia en la figura 2.28b.
52
a) tope
b) interpretacin
-wd
ws
-wd
2 wr
-ws
2 wr
1/wr
x
-wd
-1
~
f ( x)
ws
wd
1/wr
-ws
2 wr
Fig. 2.29: diagrama del NM del juego mecnico (ntese que las conexiones hacia atrs llevan
implcitas un retardo temporal)
2.4.9
53
TM
x( k ) f ( x( k 1)) < TM
TM x(k ) f ( x(k 1)) TM
(2.40)
Es decir, se trata de una saturacin impuesta sobre la velocidad en la entrada. De esta manera, la
salida es idntica a la entrada siempre y cuando sta no vare ms rpidamente que TM , el
producto entre el tiempo de muestreo y el slew rate. Esta consideracin permite realizar el
diseo del correspondiente mdulo neuronal de forma sencilla a partir del NM correspondiente
a la saturacin, como se muestra en la figura 2.30.
LIMITADOR =
LIMITADORNM
{f (x)
| = { }}
(2.41)
~
= f , ( x) | = { '}, ' = TM , = {wd , wr , ws }
(2.42)
-wd
TM
ws
-wd
2 wr
-ws
1/wr
x
-1
-wd
wd
1/wr
2 wr
ws
-ws
2 wr
~
f ( x)
1
Fig. 2.30: diagrama del NM del limitador de velocidad (ntese que las conexiones hacia atrs
llevan implcitas un retardo temporal)
54
x(k)
y(k)
C
A
z-1
Fig. 2.31: representacin en el espacio de estados de un sistema lineal en forma de red
neuronal
En la estructura que corresponde a la representacin en el espacio de estados, figura 2.31, los
pesos son las matrices de estado, entradas, salidas y directa del sistema. De esta manera, la
identificacin de un sistema lineal consiste en el aprendizaje de estos valores y su interpretacin
es inmediata.
1
a0
x(k)
z-1
b1
bm
a1
an
y(k)
1
1
z-1
Fig. 2.32: representacin de entradas y salidas de un sistema lineal en forma de red neuronal
En la estructura correspondiente a la representacin de entradas y salidas, figura 2.32, los pesos
son los coeficientes del numerador y del denominador de la funcin de transferencia del
sistema. As, igual que en el caso anterior, la identificacin consiste en el aprendizaje de estos
valores y su interpretacin es, del mismo modo, inmediata.
55
A pesar de que ambas representaciones parecen igualmente tiles se ha tomado la segunda por
varias razones: la representacin interna puede utilizar ms parmetros de los necesarios. Es
decir, cuando un sistema de orden n pueda caracterizarse con menos de nn + 2n + 1 parmetros
la representacin externa ser ms eficiente y requerir menor cantidad de pesos a adaptar; el
aprendizaje de las matrices de estado es ms complejo que el de los coeficientes de la funcin
de transferencia. Se ha podido comprobar empricamente que el aprendizaje de redes neuronales
en representacin externa genera, ante condiciones iniciales aleatorias, mayor cantidad de
modelos correctos que la interna; y, finalmente, esto facilita el aprendizaje en redes de mdulos
neuronales entre los cuales hay mdulos lineales.