Vous êtes sur la page 1sur 37

2 Redes neuronales para el modelado de sistemas dinmicos: los mdulos neuronales

19

Captulo 2

Redes neuronales para el modelado de sistemas dinmicos:


los mdulos neuronales
En este captulo se consideran las redes neuronales como modelo para describir sistemas
dinmicos y se introduce una clase particular, los mdulos neuronales, con propiedades
distintivas que resultan muy tiles en el modelado de sistemas como los descritos en la
introduccin de esta memoria.
Las redes neuronales gozan de caractersticas que las hacen muy interesantes en el modelado de
sistemas dinmicos, como la capacidad de aproximar funciones no lineales con precisiones
arbitrariamente pequeas y la posibilidad de permitir el diseo de controladores utilizando
diversas metodologas. Sin embargo, los modelos neuronales tienen inconvenientes, entre los
que sobresalen los siguientes: son poco explicativos respecto a los principios fsicos que rigen la
dinmica del sistema identificado, por tratarse de modelos de tipo caja-negra; y la posibilidad de
incorporar informacin previa en el modelo es muy limitada, cuando no nula.
En este estudio se han aprovechado al mximo las ventajas que las redes neuronales brindan al
problema de la identificacin y control de sistemas dinmicos y se han minimizado sus
inconvenientes. Esto se logra con las redes neuronales modulares, compuestas por mdulos que
aproximan las diferentes partes que integran un sistema. De esta manera, la red resultante es,
formalmente, similar a la descripcin del sistema mediante diagramas de bloques. Los bloques
son, aqu, los mdulos neuronales.
En este captulo se describe el diseo de mdulos neuronales que aproximan funciones no
lineales frecuentes en el modelado de sistemas mecnicos, elctricos, etc. Se trata de las
llamadas no-linealidades duras (hard nonlinearities), que constituyen un conjunto
especialmente interesante en el modelado de sistemas dinmicos no lineales.

20

Estudio de Redes Neuronales Modulares para el Modelado de Sistemas Dinmicos no Lineales

2.1 El modelo escogido: redes neuronales artificiales


Las redes neuronales artificiales (Artificial Neural Networks, ANN) son mecanismos de
procesado de la informacin inspirados en las redes de neuronas biolgicas. Su funcionamiento,
explicado en numerosos textos (vase para una introduccin [Fau-94] o [Hertz-91]), se basa en
operaciones sencillas realizadas en paralelo por un gran nmero de clulas elementales, las
neuronas.
Sin embargo, una red neuronal es un mecanismo que no puede ser definido de forma nica.
Existe un amplio repertorio de tipos de ANN que difieren en la topologa (la forma en que las
neuronas estn conectadas), en las funciones de activacin, en el algoritmo de aprendizaje, etc.
El tipo de ANN que se estudiar en este trabajo es el de las redes sncronas y discretas que, a
diferencia de las redes continuas o de las de Hopfield, obtienen, para una entrada dada en el
instante de tiempo k, la salida correspondiente en el instante de tiempo k. Adems, el esquema
de conexin entre neuronas es libre, sin seguir una estructura de capas y permitiendo conexiones
recurrentes. Esta ltima consideracin permite que las redes exhiban comportamientos
dinmicos. El tipo de funciones de activacin comprende las funciones derivables, aunque
usualmente se utilizarn las funciones lineal y sigmoidal. El mecanismo de aprendizaje no est
limitado en ningn aspecto. Cualquier algoritmo, que permita el aprendizaje de estructuras
como las propuestas, ser potencialmente til. Por tanto, en este trabajo y de ahora en adelante
se considerarn redes neuronales del tipo descrito en este prrafo, si no se especifica lo
contrario.
Las caractersticas que hacen ms interesantes a las ANN para el modelado de sistemas
dinmicos son:

Son modelos no lineales, puesto que la funcin de activacin es no lineal.

Son dinmicos, si incluyen conexiones recurrentes, o estticos, si no las incluyen.

Son modelos paramtricos y los parmetros corresponden a los pesos de las


conexiones entre neuronas.

Son modelos adaptativos, puesto que la aparicin de nuevos datos permite el


reaprendizaje de los parmetros adaptando los valores anteriores a los datos actuales.

Son tolerantes a fallos, ya que su comportamiento est distribuido entre todos los
parmetros. As, cuando alguno de ellos es incorrecto, el resultado global se degrada,
pero no deja al modelo inoperante, necesariamente.

Son inherentemente paralelos, cosa que permite una implementacin eficiente.

2 Redes neuronales para el modelado de sistemas dinmicos: los mdulos neuronales

21

En los siguientes apartados se repasan con ms detalle los principales aspectos del modelado y
control de sistemas dinmicos con redes neuronales.
2.1.1

Aproximacin de funciones con ANN

El motivo que, probablemente, ha dado ms impulso a la utilizacin de las redes neuronales en


el campo de la identificacin y control de procesos, es su demostrada capacidad de aproximar
funciones con un grado arbitrario de precisin. Los resultados a este respecto parten de los
trabajos de Kolmogorov (publicados en 1957), de carcter general en la disciplina de
Aproximacin de Funciones. Recientemente han sido adaptados y refinados por diversos autores
(Hecht-Nielsen, Kurkov, Hornik, Ito, Cybenko, etc.) al campo de la aproximacin de funciones
basada en redes neuronales. El resultado general ms interesante (formulado
independientemente en [Cyb-89] y [Hor-89]) es que las redes neuronales de tres capas con
funciones de activacin sigmoidales son aproximadores universales.
Estos resultados, a pesar de establecer un marco slido en la aproximacin de funciones con
redes neuronales, tienen matices que los hacen poco tiles en la prctica. El primero es debido a
que se basa en la norma mxima para funciones f LP(). Esta norma no es derivable, y por
ello la hace incompatible con los algoritmos de aprendizaje ms populares, basados en el
descenso de gradiente. El segundo es debido a que da garantas de existencia pero no aporta el
mtodo de construccin de la aproximacin ptima.
Sin embargo, aportaciones ms recientes ([Hush-98] y [Mel-96], por ejemplo) han abierto las
puertas a algoritmos constructivos de redes neuronales que, utilizando como fundamento los
teoremas precedentes de existencia de soluciones, crean redes neuronales con errores de
aproximacin arbitrariamente pequeos.
En este trabajo se utilizan los resultados precedentes, especialmente los de Hornik, para
formular cotas del error de aproximacin de los modelos que se estudiarn de sistemas no
lineales. Estos resultados se presentan en el captulo 3.
2.1.2

Identificacin de sistemas dinmicos con ANN

Se considera que la identificacin de sistemas dinmicos entr a formar parte de las reas
tratadas por la disciplina del control automtico a principios de los aos 60, cuando las tcnicas
estadsticas estndar, mtodos como el de los mnimos cuadrados o el de la verosimilitud
mxima ya eran bien conocidos. En estos casi cuarenta aos, los textos sobre identificacin de

22

Estudio de Redes Neuronales Modulares para el Modelado de Sistemas Dinmicos no Lineales

sistemas dinmicos han adquirido un carcter fundamental y existen referencias muy slidas
como [Ljung-87] o [Sd-89].
Existen numerosos mtodos de identificacin pero, en general, todos siguen unas pautas
comunes: preprocesado de los dados, seleccin del modelo, minimizacin del error de
aproximacin y validacin del modelo.
El proceso de identificacin consta de los siguientes componentes:

Los

datos:

son

pares

de

vectores

de

entrada

salida

 N} donde y(t) corresponde a las salidas en el instante t,

= {[ y (t ), (t )] ; t = 1

que se supone discreto, y (t) a las entradas o regresores del modelo.

El modelo: es una funcin que estima las salidas a partir de las entradas y de la
informacin temporal que almacena, y (t ) = g N (t , (t )) .

Los parmetros: el modelo es una funcin descrita a partir de un nmero finito de


parmetros, , de forma que una expresin ms correcta del modelo es g (t , , (t )) .

La medida del error: el error, (t , ) = y (t ) g (t , , (t )) , permite ponderar la


bondad de un modelo y su medida se realiza a travs de una norma, que suele ser la
cuadrtica:

1
V N ( ) =
N

t =1

y (t ) g (t , , (t )

1
V N ( ) =
N

(t , )

t =1

El algoritmo de minimizacin del error, que puede tomar formas muy diversas:
directa, iterativa, heurstica, analtica, estocstica, etc. En el caso de identificacin de
sistemas no lineales se suelen utilizar algoritmos iterativos o recursivos que, de
forma genrica, se pueden expresar segn

(t ) = (t 1) + t Rt1 (t ) (t )
El escalar t es el tamao del paso, Rt-1 es una matriz definida positiva que permite
modificar el criterio de bsqueda (cuando Rt = I se sigue el gradiente) y (t)
corresponde a la derivada de g respecto a los parmetros, .
Las redes neuronales, a pesar de surgir a partir de motivaciones diferentes de las de la
identificacin de sistemas dinmicos, representan un conjunto de modelos que encaja
adecuadamente en la metodologa genrica descrita anteriormente. Son modelos paramtricos
que, basndose en una medida del error y en un algoritmo para minimizarlo, aproximan una
funcin no lineal con errores arbitrariamente pequeos.

23

2 Redes neuronales para el modelado de sistemas dinmicos: los mdulos neuronales

Los modelos clsicos de identificacin lineal (ARMAX, OE, BJ etc.) y sus versiones no lineales
se pueden expresar en forma de ANN, como se apunta en [Sj-95] y el algoritmo de aprendizaje
backpropagation se ajusta a la regla de minimizacin genrica con Rt = I. Por ejemplo, la
estructura neuronal de la figura 2.1, es equivalente al modelo ARX (o NARX si las neuronas
son sigmoidales en vez de lineales). En esta figura se observa que la red neuronal realiza una
funcin esttica de las observaciones que recibe de las variables de entrada y de salida tanto en
el instante actual como en instantes anteriores, de forma similar a como se procede en los
citados modelos.
u(t)

z-1
z-1
u(t-n)

y (t-1)

y(t-1)

z-1
z-1
y(t-m-1)

Fig. 2.1: Estructura neuronal tipo ARX o NARX


El hecho interesante es que las redes neuronales constituyen una estructura de modelado con
ventajas sobre otras (como las expansiones de polinomios u otras estructuras no lineales tipo
caja negra, por ejemplo). Las ventajas ms obvias son que una misma estructura comprende
diferentes modelos y que, computacionalmente, tienen un coste muy razonable.
Pero tienen dos ventajas ms, remarcadas en [Ljung-92], menos evidentes y quizs ms
atractivas. La gran mayora de los sistemas que uno se encuentra en la prctica tienen un
comportamiento asinttico constante. Este comportamiento se aproxima, en otros tipos de
modelos (por ejemplo, las expansiones de polinomios), a fuerza de aadir parmetros que
mantengan las salidas limitadas para entradas grandes. En las ANN esto se da de forma
intrnseca, debido al comportamiento de las funciones sigmoidales, y as el nmero de
parmetros es ms reducido. La otra caracterstica que les confiere un inters especial, sobre
todo en problemas mal condicionados, es la redundancia paramtrica. De forma intuitiva, esto
quiere decir que el nmero de parmetros eficientes de la red es mucho menor que el nmero

24

Estudio de Redes Neuronales Modulares para el Modelado de Sistemas Dinmicos no Lineales

real de parmetros. De esta manera, no es tan importante como en otros modelos pasar un
exhaustivo proceso de validacin para eliminar aquellos parmetros poco influyentes.
A pesar de todo esto, los modelos neuronales tienen inconvenientes que no se han podido
resolver an. Uno de ellos, observado en [Nar-90], es la dificultad de comprobar las condiciones
de estabilidad en modelos recursivos (como las redes que identifican estructuras NOE, NBJ, y
NARMAX). Este problema se ha superado parcialmente con una tcnica denominada teacher
forcing, que consiste en sustituir, en la realimentacin, las salidas de la red neuronal por las
salidas reales del sistema a identificar. Otros inconvenientes son la dificultad de incorporar
conocimiento previo que permita mejorar el modelo o acelerar el proceso de identificacin y,
sobre todo, la impracticabilidad de interpretar fsicamente los parmetros resultantes del
modelo.
Estos problemas se tratan explcitamente en este trabajo y se propone una metodologa que
permite resolverlos.
2.1.3

Control de sistemas dinmicos con ANN

As como la bibliografa en identificacin de sistemas dinmicos con ANN es muy extensa y


cubre aspectos tericos y prcticos, la bibliografa en temas de control con ANN es ms
reducida. En este apartado se describen los dos esquemas clsicos de control con redes
neuronales (el directo y el indirecto) y los resultados ms recientes.
El tema del control con ANN se ha tratado desde los aos 70, siendo Albus (con el Cerebellar
Model Articulation Controller, CMAC) uno de los precursores ms destacados. Los algoritmos
de control que se han ido imponiendo desde entonces en el campo de las redes neuronales estn
muy relacionados con los que se han ido desarrollando desde la teora del control adaptativo.
Los principales enfoques se basan en control directo e indirecto [Hunt-92].
yd
u

Planta

Control NN

Fig. 2.2: Esquema de control directo con redes neuronales

25

2 Redes neuronales para el modelado de sistemas dinmicos: los mdulos neuronales

El esquema de control directo (figura 2.2) es muy sencillo estructuralmente y ms complicado


en aspectos funcionales. En este caso, la seal con la que la red aprende corresponde a la
diferencia entre la seal de control idnea y la seal de control calculada por la red neuronal. El
problema est en que la seal de control idnea no se conoce y, por tanto, el error no se puede
calcular. Una solucin a este problema la dan los algoritmos de aprendizaje por refuerzo
(reinforcement learning), que permiten el aprendizaje con seales cualitativas del error en vez
de cuantitativas, aunque tambin se han adaptado algoritmos de aprendizaje supervisado al caso
de seales cualitativas (ver [Mor-95]). Estos mtodos, a pesar de gozar de gran popularidad en
la comunidad de la inteligencia artificial, estn poco adaptados al problema de control de
procesos por falta de pruebas formales que puedan asegurar la convergencia en el aprendizaje y
la estabilidad de la solucin.
Los esquemas de control indirecto (figura 2.3) toman su nombre de la necesidad de un modelo
neuronal de la planta para obtener el controlador. Este modelo puede servir para propagar los
errores hacia atrs y permitir el aprendizaje del controlador o para generar un modelo invertido
de la planta. El mtodo de propagacin de los errores hacia atrs fue introducido por Jordan y
Rumelhart, [Jor-91], y se ha aplicado con xito en numerosas ocasiones. Los esquemas de
control en los que se utiliza el modelo para obtener su inversa (o una aproximacin) estn
directamente relacionados con esquemas de control conocidos, como el control con modelo de
referencia (Model Reference Control), el control mediante modelo interno (Internal Model
Control) o el control predictivo.

yd

e
+

Filtro

Planta

y
+

Control NN
+

y
_

Modelo NN
Fig. 2.3: Esquema de control indirecto con redes neuronales
Recientemente los esquemas de control indirecto han sido objeto de estudios formales que han
dado, como consecuencia, resultados interesantes. Por ejemplo, en [Lev-93] se describe el
diseo de controladores neuronales que aseguran la estabilizacin de un sistema no lineal,
siempre y cuando sea de estado acotado, diferenciable (Lipshitz, en realidad) y accesible. En

26

Estudio de Redes Neuronales Modulares para el Modelado de Sistemas Dinmicos no Lineales

[Lev-96] se extienden los anteriores resultados a sistemas en los que el estado no es accesible (y
necesita ser estimado) y a problemas de seguimiento. En [Suy-96] se utiliza un modelo neuronal
(llamado NLq) que permite la sntesis de controladores ptimos y se demuestra tambin la
estabilidad de los sistemas controlados y la robustez de los controladores obtenidos.

2.2 Mdulos Neuronales


El mdulo neuronal (Neural Module, NM) es un concepto nuevo en al mbito de las ANN
desarrollado en este trabajo. Definimos un mdulo neuronal como una red neuronal que
aprovecha el uso de restricciones estructurales para forzar un tipo de comportamiento en el
modelo.
2.2.1

Motivacin

La mayora de las topologas populares de ANN (redes de tres capas, redes recurrentes
totalmente conectadas, etc.) son modelos muy flexibles que pueden adaptarse a un rango amplio
de caractersticas de entrada-salida. Esta es su principal ventaja, pero tambin puede representar
su principal inconveniente por las siguientes razones:

cuando una ANN no converge en el aprendizaje, no es obvio discernir si la causa es


que el error mnimo es difcil de alcanzar o que la configuracin de la red no es la
correcta, y

se pueden observar comportamientos muy similares en estructuras y topologas


neuronales radicalmente diferentes, complicando enormemente la bsqueda de
modelos con menor nmero de parmetros

Solla demuestra, en [Solla-89], que la probabilidad de que una ANN muestre un determinado
comportamiento depende no slo del algoritmo de aprendizaje de la red, sino tambin de la
arquitectura. El procedimiento para incrementar la probabilidad de la correspondencia correcta
entre entradas y salidas suele recaer en el aprendizaje pero, tal y como se argumenta en
[Happ-94], un mtodo potencialmente mucho ms verstil para cambiar la distribucin de
probabilidades de comportamientos en una red neuronal es imponer restricciones sobre su
topologa.
Precisamente, este ltimo argumento es el que da pie a la creacin de los mdulos neuronales.

27

2 Redes neuronales para el modelado de sistemas dinmicos: los mdulos neuronales

2.2.2

Estructura del modelo que se utiliza en este trabajo

Los modelos que se estudian en este trabajo son redes neuronales modulares. Estn compuestas
por redes ms sencillas que se comportan como bloques funcionales y stos son los mdulos
neuronales, [Mor-96b].
Una red de mdulos neuronales es una red neuronal clsica en el sentido de que est compuesta
por neuronas de activacin sigmoidal o lineal, es discreta y se entrena con algoritmos tpicos de
aprendizaje (backpropagation para redes estticas y backpropagation through time, BPTT, para
redes dinmicas). Lo que la diferencia de otros modelos neuronales es que, en cada mdulo, el
patrn de conectividad no est limitado a capas de neuronas sino que es totalmente libre. La
segunda diferencia importante es que los parmetros de los NM pueden tomar valores
constantes, que no varan a lo largo del aprendizaje. De esta manera es posible forzar un
comportamiento especfico en cada bloque funcional y, por consiguiente, en el modelo.
Una vez aplicado con xito el proceso de identificacin, el modelo resultante es una red
neuronal compuesta por mdulos, cada uno de los cuales representa un bloque funcional del
sistema con un significado fcilmente interpretable.
El propsito de este modelo es aprovechar al mximo las ventajas que las redes neuronales
brindan al problema de identificacin y control de sistemas dinmicos, minimizando a su vez
sus inconvenientes.
2.2.3

Definicin de mdulo neuronal

Dada una familia de funciones, F, que supondremos definida sobre un compacto de los reales:

F = {f : [a, b ] [a, b ] | JN }

(2.1)

definimos un mdulo neuronal como una red neuronal que aproxima adecuadamente el
comportamiento de F:

FNM = {f , : [a, b] [a, b ] | JN, JM }

t.q. d ( F , FNM ) < ( )

(2.2)

El conjunto [a,b] corresponde al espacio de salida y llegada de una instancia cualquiera, f, de la


familia de funciones F. Se puede observar que las instancias de FNM dependen de ms
parmetros que las de F. Este exceso de parmetros corresponde a los propios de la red neuronal

28

Estudio de Redes Neuronales Modulares para el Modelado de Sistemas Dinmicos no Lineales

con que se realiza el NM, los pesos. La manera en que el NM aproxima la familia de funciones
viene determinada por la distancia d(F,FNM), que se discutir en las siguientes secciones.
Las condiciones que hacen posible que una ANN como las indicadas pueda aproximar una
familia dada de funciones, ajustndose a unos determinados criterios de distancia son dos:

la estructura topolgica de la red, las conexiones entre neuronas, est fijada de


antemano

parte del vector de parmetros de la red, , no es modificada por el algoritmo de


aprendizaje

As pues, un NM es una red neuronal que, debido a una serie de restricciones impuestas sobre su
estructura y parmetros, se comporta inherentemente como una familia de funciones. El
procedimiento para sintonizar una funcin concreta dentro de la familia F es el mecanismo de
aprendizaje, que slo afecta a un subconjunto de los pesos de la red, mientras que el resto no
vara. Por ejemplo, se ver posteriormente que hay un NM que realiza la funcin saturacin y
que tiene dos pesos que corresponden, respectivamente, al valor de la salida saturada y a la
pendiente del intervalo no saturado, mientras que el resto de los pesos (no modificables durante
el aprendizaje) tienen la misin de forzar un comportamiento de tipo saturacin.
Lo que resta de este captulo est dedicado a describir el proceso de diseo de los mdulos
neuronales y en el captulo 3 se justifica, mediante desarrollos formales, su adecuacin en el
modelado de sistemas dinmicos no lineales.

2.3 Diseo de mdulos neuronales


El diseo de un NM puede ser una tarea compleja, dependiendo de la familia de funciones que
se desee aproximar. Por ejemplo, se ver (apartado 2.4.5) que es relativamente sencillo realizar
la funcin valor absoluto con un mdulo neuronal de cinco neuronas. Sin embargo, cuesta
imaginar cmo sera el NM correspondiente a un comportamiento complicado, como el de un
sistema catico.
El conjunto de NMs que se describe en la prxima seccin est basado en las no-linealidades
tpicas de los sistemas electromecnicos, las no-linealidades duras. Los textos clsicos de
anlisis y control de sistemas dinmicos, como ya se ha indicado en la introduccin de esta
memoria, suelen distinguir entre las no-linealidades analticas y las no-linealidades duras. El
primer grupo, por pertenecer generalmente al grupo de las funciones continuas, derivables, de
integral acotada, etc., puede tratarse con algunas tcnicas ya existentes como, por ejemplo, la
linealizacin mediante expansiones de la serie de Taylor alrededor de un punto de operacin. El

29

2 Redes neuronales para el modelado de sistemas dinmicos: los mdulos neuronales

segundo grupo, por otro lado, suele tratarse poco aunque se dan excepciones, como [Tao-96],
ntegramente dedicado al control de sistemas con no-linealidades duras. El conjunto de
no-linealidades que suele considerarse de inters est formado por: el rel ideal (caracterstica
todo-nada), la zona muerta, la saturacin, el rel con histresis y el juego de engranajes.
En este trabajo se obtendrn los NMs que aproximan las no-linealidades duras mencionadas y
tambin otras que pueden ser de utilidad como: el valor absoluto, la friccin viscosa y de
Coulomb, el limitador de velocidad y el tope mecnico.
Previamente, no obstante, es necesario explicar con detalle cmo, con redes neuronales, es
posible aproximar dos tipos de comportamientos que servirn despus para el diseo de las
dems funciones no lineales. Estos dos comportamientos surgen a partir de analizar las
funciones lineales a trozos. Una funcin lineal a trozos se define as:

0 < x 1

f 1 ( x)

f ( x) =
f ( x)
n

f i ( x ) = ai x + bi ,

n 1 < x n

a i , bi J

(2.3)

Ntese que para poder reproducir el comportamiento de una funcin lineal a trozos es necesario,
en primer lugar, poder determinar si x pertenece a un intervalo (i-1, i). En segundo lugar, hay
que poder calcular fi(x) de forma que valga 0 (u otro valor constante) para x (i-1, i).
2.3.1

Pertenencia a intervalos

La activacin clsica de las neuronas, activacin sigmoidal, ofrece una forma natural de detectar
la pertenencia a intervalos puesto que su salida es esencialmente diferente para entradas
mayores o menores que cero. El esquema bsico de deteccin es:

umbral ( x ) = sigs( wd ( x ))

(2.4)

donde es el valor a partir del cual la funcin umbral cambia de signo y el peso wd determina
la pendiente del cambio (recordemos que sigs es una funcin continua y que justamente la
utilizamos como funcin de activacin, preferentemente a funciones de activacin definidas a
trozos, por ser continua).
Un factor de estudio interesante es la pendiente de la funcin umbral cuando cambia de signo.
Se define franja de incertidumbre (notada a partir de ahora con ) como la distancia entre

30

Estudio de Redes Neuronales Modulares para el Modelado de Sistemas Dinmicos no Lineales

valores de entrada correspondientes a las salidas -1+p y 1-p. La franja de incertidumbre de


umbral se puede calcular fcilmente a partir de la definicin de sigs:

( wd , p ) = 2

k
wd

k = ln
2

(2.5)

Se observa en la ecuacin (2.5) que es inversamente proporcional al peso wd. Es decir, que a
mayor valor del peso menor es la franja de incertidumbre y mejor se realizar la deteccin de
pertenencia al intervalo. Si se quiere disear una neurona que realice la funcin umbral
solamente es necesario fijar los valores de p y para despejar el correspondiente peso, wd, que
cumple las condiciones especificadas. Por ejemplo, si queremos una franja de incertidumbre
= 0.1 y consideramos que un valor de salida de 0.75 (p = 0.25) es suficiente para indicar
cundo las entradas son mayores o menores que , entonces el peso resultante vale

p
0.25

ln
ln

2 p
1.75
= 38.92
= 2
wd = 2
0.1

Es posible definir otras funciones umbral con neuronas no simtricas (utilizando la funcin de
activacin sig) o con el peso wd negativo, de forma que para x < la salida sea positiva y para
x > sea negativa. De este modo habr cuatro procedimientos para realizar la deteccin (con
sus franjas de incertidumbre asociadas):

umbral1 ( x ) = sigs( wd ( x )), con wd > 0

umbral 2 ( x ) = sigs( wd ( x )), con wd < 0

( wd , p) = 2

p
k
, k = ln

wd
2 p

umbral 3 ( x ) = sig ( wd ( x )), con wd > 0

umbral 4 ( x ) = sig ( wd ( x )), con wd < 0

( wd , p) = 2

p
k
, k = ln

wd
1 p

cada uno de los cuales tiene un comportamiento diferente. En la figura 2.4 estn detalladas las
redes neuronales que realizan las cuatro funciones umbral y una grfica asinttica (con wd
tendiendo a ) de las mismas.

31

2 Redes neuronales para el modelado de sistemas dinmicos: los mdulos neuronales

wd

wd

wd

wd

wd

wd

wd

wd

umbral1

umbral2

umbral3

umbral4

Fig 2.4: redes neuronales y grficas de las cuatro funciones umbral


Combinando adecuadamente las funciones umbral es posible detectar la pertenencia a
intervalos arbitrarios de diferentes maneras. Por ejemplo: si se desea realizar la siguiente
deteccin:

1
x ( 1 , 2 ) =
0

1 x 2
x < 1, x > 2

(2.7)

basta con disear una red de dos mdulos umbral cuya salida sea la suma de ambos. Un
mdulo detecta si x > 1 y el otro detecta si x < 2. La suma de ambos, debidamente ponderada,
aproxima la funcin que se expresa en la ecuacin (2.7). La precisin de la deteccin la
podemos calcular previamente y ajustar al grado que ms nos interese. La red neuronal
resultante se puede expresar mediante

x ( 1 , 2 ) = lin( 0.5 umbral 3 1 ( x ) + 0.5 umbral 4 2 ( x ))


2.3.2

Funcin de pendiente constante en un rango y nula fuera de l

Recordemos que el objetivo de esta seccin es permitir el diseo de mdulos neuronales que
aproximen el tipo de funciones no lineales ya indicado. Para ello nos basamos en la ecuacin
(2.3) y el propsito de este apartado es describir la obtencin de fi(x) lineal con
x = 0 x (i-1, i).
La comprobacin de que sigs es aproximadamente lineal en un pequeo entorno de x = 0 es
trivial. Este comportamiento se degrada (alejndose de la recta) a medida que x se aleja de cero.
Por ello, si se desea obtener una respuesta aproximadamente lineal para entradas pertenecientes
a un intervalo genrico (1, 2) y utilizando la funcin sigs(x), hay que escalarlas de forma que

32

Estudio de Redes Neuronales Modulares para el Modelado de Sistemas Dinmicos no Lineales

se transformen en un pequeo intervalo simtrico entorno a cero, (-, ). El clculo para obtener
la entrada escalada, dados 1, 2 y (el mximo error permitido en la aproximacin) es:

(2x 2 1)
xe =
2 1

con =

1 e

1 + e 2

(2.8)

donde xe es el valor de x escalado y no se puede calcular analticamente pero se puede obtener


a partir de tablas o con ayuda de una grfica de la funcin (), como la de la figura 2.5.
-3

x 10

4
2

()

0
-2
-4
-6
-0.5

0.5

Fig 2.5: grfica de () para entre -0.5 y 0.5


Conocidos, por tanto, los extremos del intervalo al que pertenece la entrada y el error mximo
permitido, la red neuronal que lleva a cabo la aproximacin lineal es:

2 1
lineal ( x ) = wr sigs bias donde wr =
2
wr

y bias =

2 + 1
2 1

(2.9)

El parmetro controla la pendiente de la recta que genera lineal(x) y se puede comprobar que
si el intervalo est centrado en cero (2 = -1) el parmetro bias se anula. Para lograr la
pendiente deseada, ai, es necesario que = 2ai dado que sigs no tiene pendiente unitaria en el
origen.

33

2 Redes neuronales para el modelado de sistemas dinmicos: los mdulos neuronales

2
1.5

y = 0.25x

1
0.5
0
-0.5
= 0.5

-1
-1.5
-2

-10

1 = -5

2 = 5

10

Fig. 2.6: grfica de lineal(x) para 1 = -2 = -5 y = 0.5


A modo de ejemplo, si se sabe que la entrada pertenece al rango (-10, 10) y no se quiere
cometer un error mayor de 0.001 en la aproximacin lineal, la ecuacin (2.9) proporciona un
valor del peso wr 33. En la grfica de la figura 2.6 se pueden comparar las representaciones de
y = 0.25x y su aproximacin mediante la funcin lineal(x), teniendo en cuenta que se ha
utilizado un valor del peso wr pequeo para hacer as ms evidentes las diferencias entre ambas
funciones.
(-, 1)

(1, 2)

(2, )

x1 = umbral41(x)

x2 = umbral32(x)

Tabla 2.1: activaciones ideales para dos neuronas que detectan 1 y 2


Llegados a este punto, nos interesa conseguir que el comportamiento lineal se d nicamente
para valores pertenecientes al intervalo (1, 2). Una opcin posible para lograrlo consiste en
utilizar mdulos de tipo umbral para forzar que la salida de la red est completamente saturada
con entradas x (1, 2). Por ejemplo, si se utilizan dos neuronas cuyas salidas x1 y x2
cumplen las especificaciones ideales de la tabla 2.1 y stas se agregan a la entrada de lineal(x)
se obtiene una funcin lineal modificada tal como

linealMod ( x ) = wr sigs(

x
bias ws x1 + ws x 2)
wr

(2.10)

El valor del peso ws no es crtico; nicamente interesa que sea suficientemente grande como
para saturar la salida de sigs cuando x1 o x2 sea 1. Se ha comprobado empricamente que, para
ello, basta con que ws se encuentre entre 10 y 20. La grfica de la figura 2.7 muestra la

34

Estudio de Redes Neuronales Modulares para el Modelado de Sistemas Dinmicos no Lineales

representacin de linealMod(x) y ya se observa claramente que para valores de x fuera del


intervalo de inters la salida tiene un comportamiento cualitativamente diferente.
wr

-2
0
-2

wr
-10

1 = -5

2 = 5

10

Fig. 2.7: grfica linealMod(x) para 1 = -2 = -5 y = 0.5


La funcin linealMod(x) (recordemos que no es ms que la salida de una red neuronal
compuesta por tres neuronas) vale wr para x > 2 y - wr para x < 1, pero esto se puede
corregir utilizando x1 y x2 como entradas de unas funciones de compensacin, que se definen
segn:

d1
compens1( x ) = wr sigs ws x1 +

wr

d2
compens2( x ) = wr sigs ws x 2

wr

(2.11)

donde wr y ws son los mismos valores empleados en las ecuaciones (2.9) y (2.10) y d1 y d2 son
unos parmetros que se utilizarn ms adelante; por el momento interesa d1 = d2 = 0. La
representacin conjunta de compens1(x) y compens2(x) se da en la grfica de la figura 2.8.

35

2 Redes neuronales para el modelado de sistemas dinmicos: los mdulos neuronales

wr
compens1(x)

-2
0
-2
compens2(x)
wr
-10

1 = -5

2 = 5

10

Fig. 2.8: grfica conjunta de compens1(x) compens2(x)


Recordemos de nuevo que la funcin que queremos aproximar es fi(x) = aix + bi y por el
momento estamos en disposicin de aproximar a i x ai ( 2 + 1 ) / 2 mediante:

~
f i ( x ) = linealMod ( x ) + compens1( x ) + compens2( x )

(2.12)

En la grfica de la figura 2.9 est la representacin correspondiente a f i ( x ) . La forma de


incorporar el parmetro bi en esta aproximacin es utilizando d1, d2 y bi , un nuevo parmetro

que se suma a f i ( x ) . Al sumar bi a f i ( x ) , sta se desplaza verticalmente al punto que uno

desee y los parmetros d1 y d2 permiten que f i ( x ) = 0 para x (1, 2). Sin embargo, existe
un problema al hacerlo que se ver seguidamente.
2
1.5

y = 0.25x

1
0.5
0
-0.5
= 0.5

-1
-1.5
-2

-10

1 = -5

2 = 5

Fig. 2.9: grfica de f i ( x )

10

36

Estudio de Redes Neuronales Modulares para el Modelado de Sistemas Dinmicos no Lineales

d2
2 + bi = a i d 2 + bi

1 + 2
~
+ a i (d 1 d 2) + bi
f i ( x ) a i x a i
2

d1
2 + bi = ai d 1 + bi

x < 1

1 x 2

(2.13)

x > 2

Al igualar (2.13) a sus valores deseados se obtiene el siguiente sistema compatible y


determinado de ecuaciones lineales:

0 ai

ai ai
a i 0
cuyas soluciones son: d 1 =

1 d 1
1 + 2

1 d 2 = bi + a i
2

1 bi
0

(2.14)

1 + 2
bi 1 + 2
bi 1 + 2
+
, d2 =
y bi = bi ai
. El
2
2
2
ai
ai

problema que plantean los valores de estos parmetros es que, puesto que bi y ai no tienen
restricciones de rango, tanto d1 como d2 pueden estar fuera del intervalo (1, 2) y, de esta
forma, las aproximaciones que realizan las funciones compens1(x) y compens2(x) no seguiran
las especificaciones de precisin dadas en los prerrequisitos a travs de y .
Este problema no es del todo insalvable porque se pueden rehacer las especificaciones del error
mximo teniendo en cuenta tambin los parmetros ai y bi. Sin embargo, dada la naturaleza del
tipo de funciones que en la prctica se aproximan, parece ms razonable imponer alguna
restriccin sobre f(x), definida en la ecuacin (2.3), para poder continuar con los supuestos ya
enunciados.
La funcin f(x) es muy genrica pues permite la realizacin de cualquier funcin lineal a trozos.
En la prctica, no obstante, muchas de las caractersticas no lineales observadas (la saturacin,
la zona muerta, algunos modelos de la friccin y otras) son funciones continuas de la entrada.
Si, por tanto, restringimos f(x) a las funciones continuas lineales a trozos seguiremos abarcando
un conjunto interesante y, ahora s, con la posibilidad de disear mdulos neuronales que las
aproximen cumpliendo unas especificaciones previas de error mximo.

37

2 Redes neuronales para el modelado de sistemas dinmicos: los mdulos neuronales

La nueva definicin de f(x), incluyendo la restriccin de continuidad queda:

f 1 ( x) 0 < x 1

f ( x) =
f ( x) < x
n 1
n
n

ai
f i ( x ) = a i x + bi ,

J
n 1

bi = bn + j ( a j +1 a j )

(2.15)

j =i

que se diferencia de (2.3) en que ahora solamente hay un parmetro b libre (aqu es bn, pero
podra ser cualquier otro) y los dems quedan en funcin de l.
f(x) representa una familia de funciones que viene caracterizada por 2n+2 parmetros para n
tramos lineales. Estos parmetros son: ai (n valores), i (n+1 valores) y bn (1 valor). Si se define
n

~
~
f ( x) = b + f i ( x)

(2.16)

i =1

que es la aproximacin de f(x), se pueden relacionar los parmetros de una y otra familia de
funciones segn:

ws y wd libres
i i 1
wri =
2
i i 1
d 1i = d 2 i =
2

i = 2 ai
i + i 1 i + i 1
=
biasi =
2 wr
i i 1
n
i i 1
b = a n n + bn ai
2
i =1

(2.17)

Por ahora, los parmetros wd y ws pueden definirse independientemente de f(x) siempre y


cuando se cumplan las restricciones impuestas sobre ellos anteriormente. El error mximo
permitido en los tramos lineales limita el valor de y fija el valor de wri. El resto de los
parmetros se puede calcular a partir de ai, i y bn.

Veamos con un ejemplo cmo es la red neuronal f i ( x ) que aproxima un tramo lineal cualquiera
fi(x) = aix + bi x (i-1, i). Previamente, para dejar bien clara la utilizacin en forma de red
neuronal de las funciones compens1(x), linealMod(x), etc., es conveniente comprender el
diagrama de la figura 2.10, que esquematiza la interconexin entre las diferentes funciones. El
diagrama correspondiente a la ANN que aproxima fi(x), con los detalles de los pesos, se puede
observar en la figura 2.11.

38

Estudio de Redes Neuronales Modulares para el Modelado de Sistemas Dinmicos no Lineales

compens1(x)
umbral41(x)
x

linealMod(x)

~
f i ( x)

umbral32(x)
compens2(x)

Fig. 2.10: esquema de la red neuronal que aproxima fi(x)


d1/w r
1 wd

ws

w d

2wr
-w s

1/w r

x
wd

~
f i ( x)

ws
bias

2 w d

2 w r

-w s

2wr

-d2/w r

Fig. 2.11: esquema de la red neuronal que aproxima fi(x)


En este caso, partimos de unas especificaciones de error mximo a partir de las que es sencillo
obtener el valor de mediante una grfica similar a la de la figura 2.5. Llegados a este punto,
basta con aplicar las igualdades (2.17) y obtenemos los parmetros wr, i, biasi, d1i y d2i que

definen la red neuronal. La respuesta, f i ( x ) , de la red construida a partir de estos parmetros


se puede observar en la figura 2.12.

39

2 Redes neuronales para el modelado de sistemas dinmicos: los mdulos neuronales

( i i 1 )
2
2

i = 2 ai

( i 1 i )
2
2

i-1

Fig. 2.12: grfica de la respuesta f i ( x )


2.3.3

Aproximacin de funciones lineales a tramos

A la vista de cmo se disea la red neuronal que aproxima un tramo lineal en un intervalo
veamos cmo se diseara, finalmente, el mdulo neuronal capaz de aproximar f(x) segn la
definicin (2.15). Esta aproximacin se basa en (2.16) y en las especificaciones de error
mximo.
Volviendo a la definicin de mdulo neuronal (2.2) los conjuntos de parmetros y para la
familia de funciones lineales a tramos (2.15) corresponden a:

= {ai , j , bn

 n, j = 0 n}

| i =1

= {wsi , wdi , wri , i , biasi , d 1i , d 2 i

(2.18)

| i = 1 n}

(2.19)

Ya se ha apuntado anteriormente que los pesos wsi pueden fijarse a valores entre 10 y 20
directamente. Los pesos wdi son determinantes en la precisin de la aproximacin y es necesario
fijarlos a valores grandes (del orden de 100). Los pesos wri dependen del mnimo error
permitido y de las longitudes de los tramos lineales. No es posible calcularlos a priori porque las
longitudes varan entre instancias de la familia de funciones. Sin embargo, dado el error
mximo y el rango total de la entrada siempre es posible calcular, de forma conservadora, un
peso wr comn a partir de (2.17). El resto de los parmetros ( i, biasi, d1i y d2i) se pueden
obtener a partir de los nicos pesos modificables del NM, que corresponden a ai, j, y bn.

40

Estudio de Redes Neuronales Modulares para el Modelado de Sistemas Dinmicos no Lineales

1,0, 1
2,1, 2
x

~
f ( x)

n,n-1, n

Fig. 2.13: esquema del mdulo neuronal que aproxima f(x)


En la figura 2.13 se presenta un diagrama del mdulo neuronal que aproxima f(x) resaltando los
nicos parmetros que se modificarn a travs del algoritmo de aprendizaje de la red neuronal.
Para comprender mejor cmo es posible obtener los restantes parmetros de la aproximacin
(i, biasi, d1i y d2i) mediante conexiones entre neuronas, la figura 2.14 detalla la arquitectura
neuronal de un tramo lineal y destaca estas conexiones.

i-1
wd
0.5/wr
x
0.5/wr

d1

-0.5/wr
ws

2wr
-wd
1/wr

0.5/wr
0.5/wr

wd
-wd

-ws

bias

2wr

~
f i ( x)

ws

2 wr

-ws
-0.5/wr

d2

Fig. 2.14: detalle de la realizacin de un tramo lineal con las conexiones de los nicos
parmetros que modifica el algoritmo de aprendizaje (i-1, i, i) destacados
2.3.4

Proceso de diseo de un mdulo neuronal

Dada una familia de funciones, lineales o no, parametrizada a travs de un conjunto, , como en
la ecuacin (2.1), el proceso de diseo de un mdulo neuronal que aproxime dicha familia tiene
la finalidad de obtener una red neuronal cuyos pesos pueden agruparse en pesos fijos y
modificables. Los pesos fijos fuerzan el comportamiento deseado en el modelo, mientras que los
modificables deberan tener el mismo significado que los parmetros del conjunto .

2 Redes neuronales para el modelado de sistemas dinmicos: los mdulos neuronales

41

Los comportamientos descritos en los apartados anteriores, la pertenencia a un intervalo y las


funciones lineales a tramos, son comportamientos que, combinados adecuadamente, permiten
generar una gran cantidad de funciones no lineales. La clave para poder crear mdulos
neuronales de diferentes familias de funciones est en poder representarlas como combinaciones
de los anteriores comportamientos.
Existe, por otro lado, una serie de pautas, obtenida a travs de la experiencia, que puede resultar
til a la hora de disear el mdulo neuronal correspondiente a una funcin concreta. Estas
pautas son las siguientes:

Las funciones umbral permiten clasificar las entradas segn el intervalo al que stas
pertenecen. Esto suele ser til cuando la funcin est definida a tramos.

Cualquier funcin esttica y lineal a tramos se puede generar a partir de una


combinacin adecuada de funciones definidas como en la ecuacin (2.12), aunque
siempre ser ms conveniente, como ya se ha razonado, aproximar funciones lineales
a tramos y continuas.

Existen transformaciones topolgicas en las redes neuronales que, sin modificar su


comportamiento, permiten reducir el nmero de parmetros variables y aumentar el
nmero de parmetros fijos, cosa que, generalmente, ser deseable.

/w

a) red original

1/w

b) red transformada

Fig. 2.15: ejemplo de transformacin topolgica


Por ejemplo, la red de la figura 2.15a tiene dos pesos y, suponiendo que es uno de
los parmetros de la funcin que se quiere aproximar, ambos son modificables. La
red de la figura 2.15b realiza una funcin equivalente, tiene una neurona ms pero
ahora slo tiene un peso modificable y dos fijos. De esta manera, aadiendo una
neurona lineal, se ha aadido una restriccin topolgica que facilita el
comportamiento deseado.

Hasta ahora solamente se han considerado funciones estticas, pero las redes
neuronales tienen capacidad para mostrar comportamientos dinmicos. Para ello se
utilizan las conexiones hacia atrs, que introducen un retardo temporal de una
muestra.

42

Estudio de Redes Neuronales Modulares para el Modelado de Sistemas Dinmicos no Lineales

x(k) - x(k - 1)
x(k)

x(k )

1
x(k)
1

1
-1
a) suma en el tiempo

b) resta en el tiempo

Fig. 2.16: ejemplos de redes dinmicas sencillas


Unas funciones sencillas de realizar y que, nuevamente, dan juego para incorporar
comportamientos dinmicos ms complejos en otros mdulos son las
aproximaciones discretas de la integral y la derivada. La figura 2.16 muestra estas
dos redes dinmicas.

Finalmente, la interconexin de mdulos neuronales es una fuente inagotable de


funciones. Por ejemplo, se ver en la siguiente seccin que el NM que aproxima la
zona muerta se puede generar a partir del NM que aproxima la saturacin, el del
juego de engranajes se puede generar a partir del mdulo de la zona muerta y otros
ejemplos.

Con la ayuda de estas pautas es posible disear mdulos neuronales que aproximan las
funciones que se describen en la siguiente seccin, que son lineales a tramos, continuas y
estticas o dinmicas. Pero tambin se pueden disear funciones de caractersticas diferentes,
como por ejemplo funciones de varias entradas (ver [Mor-96a]).

2.4 Diseo de un conjunto de NMs til para el modelado de sistemas no


lineales
El conjunto bsico de no-linealidades para el modelado de sistemas dinmicos que se ha
considerado de inters en este estudio consta de 9 tipos de no-linealidades y para cada uno de
ellos se ha diseado el correspondiente mdulo neuronal, explicado con detalle en [Mor-96a].
Adems, tambin ha sido necesario disear NMs para modelar el comportamiento de sistemas
lineales. En esta seccin se da una descripcin de cada uno de estos NMs, indicando las
relaciones entre sus parmetros y los de la familia de funciones que aproximan.
Se notan con maysculas las familias de funciones no lineales y sus aproximaciones se notan
aadiendo al nombre de la familia las letras NM. Por ejemplo SAT representa la familia de
funciones de tipo saturacin y SATNM su correspondiente mdulo neuronal.

43

2 Redes neuronales para el modelado de sistemas dinmicos: los mdulos neuronales

2.4.1

No-linealidad tipo umbral

La no-linealidad tipo umbral puede dar lugar a mltiples funciones de inters en el modelado de
sistemas no lineales: desde funciones sencillas como las caractersticas ON-OFF hasta otras ms
complejas como comparadores de seales, etc.
La familia de funciones umbral se define segn:

UMBRAL

k1 x
= f ( x) =
k 2 x >

| = { , k1, k 2 [a , b]}

(2.20)

y su realizacin neuronal se puede llevar a cabo con 2 neuronas y 4 pesos. La relacin entre los
parmetros de UMBRAL y UMBRALNM es la siguiente:
UMBRALNM

~
= f , : [a, b ] [k1, k 2] | = { , w1, w2}, = {wd }

con f ( x ) = w1 umbral1 ( x ) + w2

y w1 =

(2.21)

k1 k 2
k1 + k 2
, w2 =
.
2
2

La figura 2.17 muestra el diagrama correspondiente a la red neuronal que aproxima la familia de
funciones UMBRAL. Ntese que este mdulo neuronal puede simplificarse para casos concretos
del grupo de funciones. Por ejemplo, si k1 = - k2 = 1 entonces w1 = 1 y w2 = 0, con lo cual se
puede omitir la neurona con funcin de activacin lineal sin modificar el comportamiento del
mdulo neuronal. En este caso, utilizar solamente una neurona con dos pesos (uno de los cuales
es fijo) ser ms eficiente en cuanto a velocidad de aprendizaje.

w1, w2

~
f ( x)

1 -wd
w1
x

wd

~
f ( x)

1 w2

Fig. 2.17: esquema y red neuronal correspondiente a UMBRALNM


2.4.2

No-linealidad tipo rel con histresis

El efecto de histresis aparece con frecuencia en componentes ferromagnticos aunque tambin


se da en elementos plsticos y piezoelctricos y se suele incluir en los modelos de sistemas
como rels y solenoides. A pesar de que se han estudiado modelos muy completos del efecto de

44

Estudio de Redes Neuronales Modulares para el Modelado de Sistemas Dinmicos no Lineales

la histresis (vase para un ejemplo [Tao-96]) en este trabajo se utiliza la ms habitual, que
contempla principalmente el carcter de desdoblamiento en la respuesta de un sistema. No se
consideran pendientes diferentes para los tramos que conforman la respuesta ni lazos menores
de histresis dentro del lazo principal.

-1

Fig. 2.18: grfica de la funcin rel de dos posiciones con histresis ideal
De hecho, ms que estudiar el efecto de la histresis, en este trabajo se obtiene un mdulo
neuronal que aproxima el comportamiento ideal de un rel de dos posiciones con histresis. La
figura 2.18 representa la grfica de dicho elemento y su definicin matemtica, como funcin de
tiempo discreto es

f ( x ( k )) = f ( x ( k 1))
1

x(k ) 1
1 < x( k ) 2
x(k ) > 2

(2.22)

-1wd
x

ws

wd
wd

ws

-2wd

~
f ( x)
ws

Fig. 2.19: mdulo neuronal correspondiente al rel con histresis (ntese que la conexin hacia
atrs lleva implcita un retardo temporal)
La representacin grfica del NM correspondiente al rel con histresis se da en la figura 2.19 y
la relacin entre la familia de funciones RELE y RELENM es la siguiente:
RELE

= f ( x ) | = { 1 , 2 }

45

2 Redes neuronales para el modelado de sistemas dinmicos: los mdulos neuronales

RELENM

~
= f , : [a, b] [ 1,1] | = { 1 , 2 }, = {wd , ws }

(2.23)

La ltima consideracin que se realizar acerca de este NM es que el peso wd permite controlar
la sensibilidad de discriminacin entre los intervalos de entrada y que ws permite controlar la
pendiente de cambio en la salida.
2.4.3

No-linealidad tipo saturacin

La saturacin es un efecto causado, generalmente, por limitaciones en el tamao de los


componentes y por limitaciones en las condiciones de operacin, como la potencia que puede
proporcionar o recibir un elemento. Por ejemplo, la mayora de los amplificadores se disean
para comportarse linealmente, pero su rango de operacin es finito, por lo que cuando reciben
entradas fuera de rango son incapaces de trabajar correctamente, dando lugar al fenmeno de la
saturacin.
De nuevo, en el contexto de este trabajo se utiliza la definicin de la saturacin ms habitual en
la literatura, aunque no es ni la ms completa ni la nica vlida. La saturacin ideal y simtrica
se define como:

f ( x ) = x

x <
x
x >

(2.24)

que forma parte de la familia de funciones descrita por:


SAT

= {f ( x) | = { , }}

(2.25)

El mdulo neuronal que aproxima el conjunto de funciones SAT queda descrito segn:
SATNM

~
= f , ( x) | = { , }, = {wd , wr , ws }

(2.26)

La figura 2.20 muestra el diagrama de la red neuronal que aproxima la familia de funciones SAT.
Ntese que este mdulo neuronal tiene un total de 16 pesos, de los cuales solamente 2 sern
modificables en el proceso de aprendizaje. Estos pesos son y , que corresponden a los
parmetros de definicin de la funcin.

46

Estudio de Redes Neuronales Modulares para el Modelado de Sistemas Dinmicos no Lineales

1/wr
1

-wd

ws

-wd

2 wr
-ws

2 wr

1/wr

x
-wd

~
f ( x)

ws

wd

2 wr

-ws

1/wr

Fig. 2.20: esquema de la red neuronal que aproxima la familia de funciones SAT
2.4.4

No-linealidad tipo zona muerta

La zona muerta es una funcin esttica no lineal caracterizada por dar salida nula para un
determinado rango de entrada y por una relacin lineal de pendiente constante entre la salida y
la entrada fuera de este rango. En la figura 2.21 se da una grfica de ella.

Fig. 2.21: grfica de la caracterstica de la zona muerta


Esta no-linealidad se da, generalmente, en sistemas fsicos en los que es necesaria una cierta
energa inicial para ponerlos en movimiento, como muchos motores de corriente continua,
ciertos actuadores, sensores, etc. Su definicin matemtica, para el caso de una zona muerta
simtrica, es:

(x + )

f ( x ) = 0
(
x )

x <
x
x >

(2.28)

47

2 Redes neuronales para el modelado de sistemas dinmicos: los mdulos neuronales

La manera ms sencilla de generar la zona muerta es a partir del diseo de la saturacin. Es fcil
comprobar que si f(x) SAT y g(x) ZONAMUERTA, g(x) = x - f(x). De esta manera, la red
neuronal que lleva a cabo la zona muerta es la de la figura 2.22, parecida a la de la saturacin
pero con los pesos que llegan a la neurona de salida cambiados de signo y con un peso adicional
que lleva la entrada a la salida.
1/wr
1

-wd

ws
-ws

2wr

1/wr

x
-wd

2wr

-wd

~
f ( x)

ws

wd

2wr

-ws

1/wr

Fig. 2.22: mdulo neuronal de la zona muerta


2.4.5

No-linealidad tipo valor absoluto

La caracterstica del valor absoluto se da escasamente en la naturaleza, sin embargo, su


realizacin con redes neuronales puede ser muy til puesto que, adems de aparecer en sistemas
electrnicos y mecnicos con cierta frecuencia, permite la construccin de otras no-linealidades
ms complejas.

x
f ( x) =
x

x<0
x0

x [a , b]

(2.30)

La definicin matemtica del valor absoluto (2.30) permite advertir que no se trata de una
familia de funciones, como en los casos anteriores, sino de una nica funcin esttica que carece
de parmetros. Por esto, el mdulo neuronal asociado a ella no tiene pesos modificables, cosa
que se refleja seguidamente:
ABS

ABSNM

= { f ( x ) | = }

(2.31)

~
= f , ( x) | = , = {wr , wd , ws }

(2.32)

48

Estudio de Redes Neuronales Modulares para el Modelado de Sistemas Dinmicos no Lineales

El diseo del NM asociado al valor absoluto parte del resultado en (2.17) cuando
(i-1, i) = (a, 0), siendo [a, b] el rango mximo de la entrada. La figura 2.23 muestra la
representacin grfica de este mdulo, que carece de pesos modificables, a pesar de la presencia
del parmetro , que en realidad tiene que especificarse a priori o, si se desconoce, drsele un
valor conservador.

-0.5/wr
-ws
-wd
x

1/wr

0.5/wr

4wr

ws

4wr

~
f ( x)

Fig. 2.23: mdulo neuronal del valor absoluto


2.4.6

No-linealidad tipo friccin

La friccin produce una fuerza proporcional a la velocidad y opuesta al movimiento entre


cuerpos (o fluidos) que estn en contacto. Es un efecto que se da en multitud de sistemas y,
especialmente, en cualquiera que contenga partes mviles.

a) friccin de Coulomb

b) friccin de Coulomb
con efectos viscosos

c) friccin esttica con


efectos viscosos

Fig. 2.24: grficas de tres modelos del efecto no lineal de la friccin


Su modelo matemtico ms completo (cuya grfica est en la figura 2.24c) incluye la friccin
esttica, que refleja el hecho de que la fuerza necesaria para iniciar el movimiento suele ser
mayor que la que se le opone cuando ste ha comenzado. La figura 2.24a representa la grfica
de la friccin de Coulomb y la figura 2.24b representa la grfica de la friccin de Coulomb con
efectos viscosos, cuya relacin matemtica es:

49

2 Redes neuronales para el modelado de sistemas dinmicos: los mdulos neuronales

x
f ( x) =
x +

x<0
x>0

(2.33)

Los parmetros y corresponden, respectivamente, a la altura de la discontinuidad en el cero


y a la pendiente de la parte lineal (la friccin viscosa clsica). La familia de funciones que
describe la friccin es:
FRICCIN

= {f ( x) | = { , }}

(2.34)

El mdulo neuronal, FRICCINNM, que aproxima la anterior familia es:


FRICCINNM

~
= f , ( x) | = { , }, = {wd }

(2.35)

Este mdulo neuronal tiene un peso fijo, de valor wd, y dos pesos modificables, de valores y
, respectivamente. Su diseo se realiza con una funcin umbral10 y se da en la figura 2.25.

wd
x

~
f ( x)

Fig. 2.25: esquema del mdulo neuronal FRICCINNM


2.4.7

No-linealidad tipo juego de engranajes

El juego de engranajes (backlash en ingls) es una no-linealidad multivaluada que a menudo se


considera como un rel con infinitos niveles de salida. Se da en muchos mecanismos de
transmisin y, en especial, en los engranajes. La causa del juego de engranajes es el hueco que
inevitablemente queda entre los dientes de dos ruedas engranadas. Cuando la rueda impulsora
cambia el sentido de giro siempre hay un tiempo en que la rueda impulsada no est en contacto
con ella y, por tanto, no se mueve hasta que no se restablezca el contacto. En la figura 2.26a se
da una representacin grfica de la caracterstica del juego de engranajes y su definicin, en
tiempo discreto es:

50

Estudio de Redes Neuronales Modulares para el Modelado de Sistemas Dinmicos no Lineales

( x (k ) + )

f ( x(k )) = f ( x( k 1))

( x (k ) )

f ( x(k 1))

f ( x(k 1))
f ( x( k 1))
x (k )
+ (2.36)

f ( x( k 1))
+
x( k ) >

x( k ) <

El mdulo neuronal JUEGONM que aproxima la familia de funciones JUEGO se define segn:
JUEGONM

{~

= f , ( x ) | = { , }, = {wd , wr , ws }

(2.37)

con JUEGO definido como SAT en (2.27)


JUEGO

a) juego

= {f ( x) | = { , }}

(2.38)

b) interpretacin

Fig. 2.26: representacin grfica del juego de engranajes


La red neuronal JUEGONM se disea a partir de observar que el juego de engranajes se puede
considerar como una zona muerta que cambia dinmicamente de punto de trabajo. En la
figura 2.26b se da una representacin grfica de esta interpretacin, en la que el punto de trabajo
corresponde a una recta de pendiente que pasa por el origen de coordenadas. En la figura 2.27
se representa esta red neuronal y se destacan las conexiones que la diferencian de la zona
muerta, que son las que permiten cambiar dinmicamente su punto de operacin.

51

2 Redes neuronales para el modelado de sistemas dinmicos: los mdulos neuronales

1/wr
1

-wd

ws
1

-wd

-ws
1/wr

x
-1

-wd

wd
1/wr

2 wr

ws
-ws

2wr

2 wr

~
f ( x)

Fig. 2.27: diagrama del mdulo neuronal del juego de engranajes (ntese que las conexiones
hacia atrs llevan implcitas un retardo temporal)
2.4.8

No-linealidad tipo tope mecnico

El tope mecnico es una no-linealidad algo menos corriente que el juego de engranajes y es,
respecto a la saturacin, lo que el juego es respecto a la zona muerta. En diferentes sistemas
mecnicos el desplazamiento de una de las piezas del mecanismo puede estar limitado en dos
sentidos permitiendo, a pesar de ello, que la parte conductora se traslade ilimitadamente. Este
comportamiento no lineal corresponde al tope mecnico.
La definicin, en tiempo discreto es:

f ( x( k )) = ( x(k ) x( k 1)) + f ( x( k 1))

x( k ) x(k 1) <

f ( x(k 1))

(2.39)
f ( x( k 1))
f ( x(k 1))
x(k ) x(k 1)
+

f ( x( k 1))
+
x( k ) x(k 1) >

El mdulo neuronal TOPENM, que aproxima la familia de funciones TOPE, se obtiene a partir de
la observacin de que la caracterstica de f(x(k)), representada en la figura 2.28a se puede
considerar como la de una saturacin que cambia el punto de operacin dinmicamente, de
forma similar a como lo hace la zona muerta en el juego de engranajes. El modo concreto en
que esta operacin tiene lugar se aprecia en la figura 2.28b.

52

Estudio de Redes Neuronales Modulares para el Modelado de Sistemas Dinmicos no Lineales

a) tope

b) interpretacin

Fig. 2.28: representacin grfica del tope mecnico


Puesto que existe tal paralelismo entre el tope y el juego y la saturacin y la zona muerta, la
definicin de las familias de funciones TOPENM y TOPE es idntica a la de JUEGONM y JUEGO,
respectivamente, y la red neuronal que lleva a cabo la aproximacin del juego mecnico se
representa en la figura 2.29.
1/wr
1

-wd

ws

-wd

2 wr
-ws

2 wr

1/wr

x
-wd

-1

~
f ( x)

ws

wd
1/wr

-ws

2 wr

Fig. 2.29: diagrama del NM del juego mecnico (ntese que las conexiones hacia atrs llevan
implcitas un retardo temporal)
2.4.9

No-linealidad tipo limitador de velocidad

La caracterstica del limitador de velocidad (rate limiter en ingls) se aprecia a menudo en


sistemas electrnicos y es una propiedad que consiste en la imposibilidad de un sistema de
responder a cambios en su entrada tan rpido como se le supone. Por ejemplo, en los
dispositivos lgicos el paso de un estado a otro no se produce instantneamente (como sera de
desear) sino que transcurre un pequeo intervalo de tiempo, asociado a una constante que se
llama slew rate. El modelo de uno de estos dispositivos se puede confeccionar a base de un
modelo de la funcin lgica que lleva a cabo, junto con la caracterstica del limitador de
velocidad.

53

2 Redes neuronales para el modelado de sistemas dinmicos: los mdulos neuronales

La expresin, en tiempo discreto, del modelo matemtico de limitador de velocidad, ecuacin


(2.40), desvela que la operacin que ste realiza es la de limitar la derivada de la entrada.

TM

f ( x) = f ( x(k 1)) + x(k ) f ( x(k 1))


T
M

x( k ) f ( x( k 1)) < TM
TM x(k ) f ( x(k 1)) TM

(2.40)

TM < x(k ) f ( x(k 1))

Es decir, se trata de una saturacin impuesta sobre la velocidad en la entrada. De esta manera, la
salida es idntica a la entrada siempre y cuando sta no vare ms rpidamente que TM , el
producto entre el tiempo de muestreo y el slew rate. Esta consideracin permite realizar el
diseo del correspondiente mdulo neuronal de forma sencilla a partir del NM correspondiente
a la saturacin, como se muestra en la figura 2.30.
LIMITADOR =

LIMITADORNM

{f (x)

| = { }}

(2.41)

~
= f , ( x) | = { '}, ' = TM , = {wd , wr , ws }

(2.42)

En la definicin de LIMITADORNM se observa que el conjunto de parmetros que conforman la


familia de funciones, , no es idntico al correspondiente conjunto en la familia LIMITADOR. Sin
embargo, esto no es un problema puesto que el tiempo de muestreo de los datos ser, en general,
conocido y as se podr saber el valor identificado de .
1/wr
1

-wd

TM

ws

-wd

2 wr
-ws

1/wr

x
-1

-wd

wd
1/wr

2 wr

ws
-ws

2 wr

~
f ( x)
1

Fig. 2.30: diagrama del NM del limitador de velocidad (ntese que las conexiones hacia atrs
llevan implcitas un retardo temporal)

54

Estudio de Redes Neuronales Modulares para el Modelado de Sistemas Dinmicos no Lineales

2.4.10 Sistemas lineales


Los sistemas lineales pueden realizarse mediante redes de neuronas lineales. Su realizacin se
basa en las dos formas de representacin clsicas, la interna y la externa.

x(k)

y(k)

C
A

z-1
Fig. 2.31: representacin en el espacio de estados de un sistema lineal en forma de red
neuronal
En la estructura que corresponde a la representacin en el espacio de estados, figura 2.31, los
pesos son las matrices de estado, entradas, salidas y directa del sistema. De esta manera, la
identificacin de un sistema lineal consiste en el aprendizaje de estos valores y su interpretacin
es inmediata.

1
a0

x(k)

z-1

b1

bm

a1

an

y(k)

1
1

z-1

Fig. 2.32: representacin de entradas y salidas de un sistema lineal en forma de red neuronal
En la estructura correspondiente a la representacin de entradas y salidas, figura 2.32, los pesos
son los coeficientes del numerador y del denominador de la funcin de transferencia del
sistema. As, igual que en el caso anterior, la identificacin consiste en el aprendizaje de estos
valores y su interpretacin es, del mismo modo, inmediata.

2 Redes neuronales para el modelado de sistemas dinmicos: los mdulos neuronales

55

A pesar de que ambas representaciones parecen igualmente tiles se ha tomado la segunda por
varias razones: la representacin interna puede utilizar ms parmetros de los necesarios. Es
decir, cuando un sistema de orden n pueda caracterizarse con menos de nn + 2n + 1 parmetros
la representacin externa ser ms eficiente y requerir menor cantidad de pesos a adaptar; el
aprendizaje de las matrices de estado es ms complejo que el de los coeficientes de la funcin
de transferencia. Se ha podido comprobar empricamente que el aprendizaje de redes neuronales
en representacin externa genera, ante condiciones iniciales aleatorias, mayor cantidad de
modelos correctos que la interna; y, finalmente, esto facilita el aprendizaje en redes de mdulos
neuronales entre los cuales hay mdulos lineales.

Vous aimerez peut-être aussi