Académique Documents
Professionnel Documents
Culture Documents
Artificiales.
Contenido
1
Introduccin. ......................................................................................................... 1
1.5
1.6
Jorge Aguilar J.
1.1 Introduccin.
Las redes neuronales artificiales (RNA), son una aproximacin a la inteligencia artificial
fundamentada en el cerebro de los mamferos, ms explcitamente en las neuronas
biolgicas. En la actualidad son ampliamente usadas en diferentes campos del
conocimiento para: anlisis de datos, reconocimiento de patrones y problemas de
prediccin. (Werbos, 2005) Define tres enfoques de las RNA, el ms elemental presenta
a las RNA como una caja de herramientas para la solucin de un tipo particular de
problemas; una segunda visin indica que las redes neuronales se podrn dar cuando se
disponga de la sexta generacin de computadores1, sistemas a los que se implementara el
aprendizaje. Y la tercera que define a las RNA como sistemas matemticos bien
especificados, diseados para capturar la clase ms alta de inteligencia que se encuentra en
el cerebro de los mamferos, es decir capturar la capacidad funcional del sistema. Por lo
tanto la visin general de las redes neuronales es muy amplia y muy ambiciosa, en la
actualidad estamos en el nivel de herramientas y en este sentido sern revisadas en el
presente curso.
1
Las PC actuales ya constan de algunos ncleos por procesador. Existen los supercomputadores con varios
procesadores y gran poder de clculo. La idea es que los PC deberan evolucionar a supercomputadores con
muchos chips de CPU en una sola caja en el que cada uno ejecuta una secuencia de sentencias. La sexta
generacin con millones de simples streams por chips u ptica. Las redes neuronales se definiran como
diseadas para la 6ta generacin ms el aprendizaje.
base, referido a las reacciones instintivas como el apartar la mano de un objeto caliente
hasta el nivel ms alto como el del conocimiento de los especialistas (Tabla 1-1 )2.
Nivel de Entendimiento
Experto, Planeacin
Interaccin
Sentido comn
Visin
Coordinacin
Regulacin
Reaccin
Tabla 1-1. Culturalmente se ha aceptado que el nivel reactivo es el que requiere menor grado de inteligencia
y la experiencia (especializacin) el ms alto grado
Aunque el conocimiento del especialista sea visto como el del ms alto nivel, en realidad esto no significa
que sea el ms complejo. Una vez entendido el problema este puede ser definido en forma clara y especfico.
En realidad esto hace la diferencia entre fcil y difcil. La respuesta a la pregunta Cunta inteligencia se
requiere para ejecutar una tarea? reside en que existen tareas en que los conceptos no pueden ser claramente
definidos o especificados. Por lo tanto si la tarea es clara y bien definida, esto no ser complejo para el
computador, no as cuando las definiciones no lo son, como por ejemplo el caso del sentido comn.
Jorge Aguilar J.
en forma progresiva de sus propias habilidades motoras y tambin como actuar con el
mundo. Existen otros modelos en varios laboratorios y universidades.
Finalmente anotaremos que con el trmino de singularidad tecnolgica algunos autores
plantean la posibilidad de que se d un punto futuro de progreso tecnolgico sin
precedentes causado, en parte, por la capacidad de las mquinas de mejorar ellas mismas
utilizando inteligencia artificial. Algunos investigadores esperan que para los aos 2030 al
2045 la inteligencia no biolgica alcance el rango de la sutileza de la inteligencia humana.
Figura 1-1. Algunos ejemplos de robots que puede consultar en Internet: de arriba hacia abajo y de izquierda
a derecha: Mquinas sociables: Domo, Kismet, Merts; Androides: Asimo, Actroid, Zou Ren Ti twin
(derecha) Anibots, Toyota droids que interpretan la trompeta y el violn.
til para que las computadoras puedan hacer las tareas que realiza la gente, quizs ms
rpido y en ciertos aspectos, en forma ms precisa que el ser humano.
El intento de entender la inteligencia implica construir y probar modelos de la mente y el
cerebro, reales y posibles.
Las ciencias de la computacin juegan un rol especial en el estudio de la mente y el
cerebro ya que forman la base para su desarrollo. El lenguaje de computacin en el
estudio de la mente es lo que es el clculo y las ecuaciones diferenciales en el estudio de
la Fsica Clsica.
Los dos campos que revisaremos en el presente curso: Redes Neuronales (Neuro
Computacin) y Computacin Evolutiva juntamente con la Lgica Difusa se agrupan en lo
que se conoce como Inteligencia Computacional (IC), las dos primeras se conocen como
reas de la IA, la lgica difusa est ms cerca al campo de control que al de IA. Las reas
cubiertas por la Inteligencia Computacional son conocidas adems por el trmino de Soft
Computing
En general las tcnicas tpicas de IA tienen un enfoque de arriba hacia abajo (top-tobottom) en donde por ejemplo la estructura del modelo, soluciones, y otros aspectos son
impuestos desde el anlisis y la descomposicin. Las tcnicas de IC son de abajo hacia
arriba (botton-up) donde el orden y la estructura emerge desde un inicio no estructurado.
Figura 1-2. Mapa de densidad de conceptos del campo de CI al 2006 segn van Ect, et al (2006)
(van Eck Nees Jan, Waltman Ludo, van den Berg Jan, Kaymak Uzay, 2006) Hacen un
anlisis del campo de la inteligencia computacional basado en los resmenes presentados
Jorge Aguilar J.
en el congreso mundial de IC tanto del ao 2002 como del 2006. De este anlisis se
concluye, como se muestra en la Figura 1-2, que los conceptos del campo de la CI se
agrupan en los tres conjuntos: redes neuronales, computacin evolutiva y sistemas difusos.
De esta forma se confirma la aceptacin generalizada de la conformacin del campo de IC.
De la Figura 1-2, se observa que los sub-campos de redes neuronales y lgica difusa
estn menos separados entre ellos que el de computacin evolutiva, en este sentido se
puede interpretar que el campo de la CE tiene una posicin ms independiente.
Adicionalmente se observa que el sub-campo de la RN ocupa una amplia parte del espacio
en el mapa, lo que siguiere que ste sub-campo est compuesto relativamente de diversos
tpicos de investigacin. El sub-campo de lgica difusa por otro lado, no toma mucho
espacio, el color rojo indica un alto nmero de conceptos altamente relacionados y todos
estos conceptos se renen en el tpico de control. Finalmente el sub-campo de CE
tambin cubre algunos tpicos y en este sentido se parece ms al sub-campo de RN. El
color indica que ningn tpico dentro de este sub-campo domina sobre el otro.
Como los distintos tpicos de la inteligencia artificial, en las redes neuronales artificiales,
por ejemplo (Nadal, 1988) distingue dos propiedades inteligentes".
Reflexionamos un instante en nuestros propios recuerdos. Si pensamos en una persona amiga, nos vendr a
la memoria muchos datos: nombre, edad, color de pelo, estatura, ocupacin, formacin educativa, familia,
casa, experiencias que hemos compartido, de las cuales podemos hasta recordar hbitos de comida y de
bebida, aficiones y preferencias y as. Todos esos hechos se articulan y constituyen nuestro recuerdo de esa
persona. La forma cmo recuperamos de nuestra memoria este tipo de recuerdos nada tiene que ver con una
agenda donde tenemos nombre, direccin y telfono. En lugar de direcciones de almacenamiento se utilizan
fragmentos de la propia informacin. Imaginemos un espacio de muchas dimensiones cartesianas, cada uno
de cuyos ejes estuviese rotulado con uno de los atributos que puede tener una persona. Un eje sera de
estaturas; otro el de color de cabello, ste el de peso, aqul el de todas las personas que al comer mariscos en
buen estado sienten placer, el de ms all el de todas las Maras, y as sucesivamente. Cada uno de nuestros
amigos ocupa un punto particular de ese espacio. Dado que el nmero de nuestros amigos es muy pequeo en
comparacin con el conjunto de todos los individuos posibles, si pusiramos una marca en la posicin de
cada una de las personas que conocemos, seran muy pocos los puntos marcados en el seno de un espacio
muy grande. Cuando alguien nos da informacin parcial acerca de una persona, por ejemplo sexo, color de
pelo y peso, pero no el nombre, est describiendo aproximadamente una porcin del espacio de gente posible.
La tarea de una memoria asociativa se aplica en este caso a la de hallar, entre nuestros conocidos, aqul que
mejor se ajuste a los datos parciales (Hopfield, Tank, 1988)
Jorge Aguilar J.
Sistemas Expertos
Redes Neuronales
Enfoque Descendente
Enfoque Ascendente
Basado en Psicologa
Basado en Neurofisiologa
Qu hace el cerebro
Reglas Si / Entonces
Sistemas Programados
Sistemas Entrenados
La Tabla 1-2 muestra en forma clara que las Redes Neuronales y los Sistemas Expertos
pertenecen a dos categoras muy diferentes, pero que son pensados para la resolucin de
problemas que de alguna manera podemos decir que muestran capacidades inteligentes.
El modelo del perceptron original de Rosenblatt contena solo dos capas (entrada-salida).
Luego de ste, un modelo multicapa fue obtenido en 1960. Los primeros usos del
perceptrn multicapa (PMC) fueron complicados por la falta de un algoritmo de
aprendizaje adecuado. En 1974 Werbos
introduce el llamado algoritmo de
retropropagacin (backpropagation) en su tesis doctoral para una red perceptrn de tres
capas (Werbos, 2005). Sin embargo, el rea de aplicacin del PMC, permanece ms bien
limitada hasta que en 1986 en que Rummelhart y Mclelland publican en la prestigiosa
publicacin Nature, el algoritmo general backpropagation para un perceptrn multicapa
Un trabajo importante es el de Hopfield en 1982, quien public sus ideas de una red
neuronal, diferente a las neuronas en el PMC. La red de Hopfield consiste de una sola
capa cuyas neuronas estn totalmente conectadas una con otra. Luego de esta primera red,
muchas redes de Hopfield fueron desarrolladas. La mquina de Boltzmann tuvo
influencias tanto de las redes de Hopfield como del PMC
Figura 1-3.- La evolucin de las RNA ms populares (Modificado de Petri Holdju y Jokoo Halme)
Jorge Aguilar J.
La red ART (Teora de Resonancia Adaptativa) fue introducida por Carpenter y Grossberg
en 1983. El desarrollo de ART continu, lo que llevo a los modelos de red ms avanzados
ART II y ART III.
Las Redes de Funcin de Base Radial (RBF) fueron desarrolladas por Broomhead &
Lowee en 1988. Estos trabajos abrieron nuevas fronteras a la comunidad de redes
neuronales.
Una clase nica de modelo de red son los Mapas Auto organizativos (SOM) presentada por
Kohonen en 1982. SOM es una cierta clase de mapa topolgico, la misma que se auto
organiza, basada sobre los patrones de entrada con los que es entrenada.
Figura 1-4 Neurona biolgica, donde se muestran los principales elementos (fuente Childens Hospital
Boston)
Lo que sigue es un cuadro simplificado que describe el trabajo del sistema nervioso. Una
neurona tpica consiste de tres partes: las dendritas, el cuerpo celular, y el axn,
Figura 1-4. Las dendritas conducen las seales nerviosas hacia el cuerpo celular
mientras que el axn lo hace desde el cuerpo celular hacia otras neuronas. Los circuitos
celulares estn formados por grupos de neuronas conformados con los brazos terminales
del axn y cierran el circuito con las dendritas de otras neuronas. El punto de contacto
entre las componentes de dos neuronas (dendritas) se llama sinapsis. Existe un pequeo
espacio microscpico entre la sinapsis de las neuronas.
10
Jorge Aguilar J.
Figura 1-5. Diferencia de cargas a nivel de la membrana celular que genera una diferencia de potencial en la
misma, (fuente Childens Hospital Boston)
11
rodean al foco. Este mecanismo favorece la SUMA de los efectos de los mltiples
estmulos excitatorios aplicados sobre numerosos puntos de la superficie de la membrana.
Los estmulos inhibitorios actan facilitando la penetracin de iones de cloro, con carga
negativa, dentro de la clula, lo que tiende a aumentar la carga negativa intracelular y, por
lo tanto la membrana se hiperpolariza, oponindose o disminuyendo el estado excitatorio
total de la neurona
Estas
neuronas
forman
circuitos en los que las seales
pueden
o
no
pasarse,
dependiendo de la actividad
conjunta de las neuronas. La
ilustracin
muestra
este
proceso
Para tener una comprensin ms clara de este proceso, se le recomienda revisar una
animacin de este mecanismo en la pgina del Childens Hospital Boston.
Una regla de propagacin, la cual determina la entrada efectiva, sj, a una unidad
desde sus entradas externas
Una funcin de activacin Fj, la cual determina el nuevo nivel de activacin basado
en la entrada efectiva sj(t) y el nivel actual yj(t).
Una entrada externa (bias, umbral) j para cada unidad, que tiene el efecto de
rebajar la entrada de la red al rango de la funcin de activacin.
12
Jorge Aguilar J.
Un medio ambiente dentro del cual es sistema debe operar, proveyendo seales de
entrada, y si es necesario, seales de error.
Las redes neuronales artificiales (RNA) son sistemas paralelos para el procesamiento de la
informacin, inspirados en el modo en el que las redes de neuronas biolgicas del cerebro
procesan informacin.
1.2.2.1 Unidad de procesamiento.
Cada unidad lleva a cabo un trabajo simple: recibe entradas de fuentes externas y usa estas
para calcular la seal de salida que se propaga a otras unidades. Las entradas para la
neurona j (dentritas en el caso de la neurona biolgica), las llamaremos Xj =(x1j, ... xnj ) o
vector de entrada.
Una segunda tarea est relacionada con el ajuste de los pesos sinpticos (la fuerza del
acoplamiento sinptico o conexiones entre neuronas) estos se modelan como parmetros
numricos, Wj =(w1j, w2j, ..., wnj) o vector de pesos
En una red, se distinguen tres tipos de neuronas:
1. De entrada: recibe seales desde el entorno; por ejemplo sensores
2. De salida:
3. Ocultas:
no tienen contacto exterior; generan la representacin interna de la
informacin.
La forma ms simple de modelar el efecto de las diferentes neuronas a una neurona
especfica (j) es a travs de una sumatoria. De esta forma, la entrada total a la neurona j
(Sj) viene dado por la siguiente frmula:
Sj
w x
ij i
13
y j wij (t ) x i (t ) j (t )
i
En algunos casos, reglas ms complejas para combinar las entradas son usadas en los
cuales se hace una distincin entre unidades excitadoras e inhibidoras.
1.2.2.3 Funcin de activacin o de salida:
En una neurona biolgica, la seal puede trasmitirse o no a otras neuronas, este fenmeno
est relacionado con procesos qumicos, de tal forma que, por ejemplo, en uno de los
casos, si se sobrepasa un cierto potencial, la seal se trasmite, caso contrario no se
transmite.
La forma ms simple de modelar este proceso es mediante una regla, de tal forma que si se
sobrepasa el umbral, la neurona se active, caso contrario no, este sera el caso ms simple,
pero no el mejor.
Podemos pensar en una funcin, la misma que d el efecto de la entrada total sobre la
activacin de la unidad. Es decir, una funcin que tome la entrada total Sj y la activacin
actual yj y produzca un nuevo valor de activacin de la unidad j
y j (t 1) f j ( y j (t ), S j (t ))
Ecuacin 1-3.- Salida al tiempo t+1
1 si x 0
1 si x 0
( x)
1 si x c
( x) 1 si x c
a.x en otro caso
( x)
1
( 1 e x )
14
Jorge Aguilar J.
Otras funciones de transferencia tpicas son: Funcin lineal y funcin sigmuidal (Figura
1-6)
Figura 1-6 Funciones de Activacin. (a) Funcin Umbral. (b) Funcin lineal por partes. (c) Funcin
Sigmoidea y Tangente
15
Topologa
Mecanismo de aprendizaje
16
Jorge Aguilar J.
17
Figura 1-8: Diferentes estructuras de RNA. a) Redes multi-capa con conexin hacia adelante, b) Redes
totalmente conectadas de una capa-simple, c) Redes de dos capas feedforward/feedbackward y d) mapa de
vector topogrficamente organizado. (Fuente, Petri)
La Figura 1-8a) representa la estructura de una red multi-capa con conexiones hacia
adelante. En este tipo de red, todas las seales neuronales se propagan hacia delante (de
izquierda a derecha) a travs de las capas de la red. No existen conexiones hacia atrs,
por lo general, tampoco se dan conexiones auto-recurrentes, ni laterales.
Uso: Reconocimiento o clasificacin de patrones
Ejemplos de estas redes son: Perceptron, Adaline, Madalena, Backpropagation., Base
Radial
Redes con conexiones hacia adelante y hacia atrs (feedforward/feedback)
Figura 1-8c) demuestra las conexiones en una red de dos capas con conexiones hacia
adelante/ hacia atrs (feedforward/feedbackward). Las capas en este modelo estn
conectadas en ambas direcciones, la informacin circula tanto hacia adelante como
hacia atrs, durante el funcionamiento de la red. Cuando un patrn se presenta a esta
red, esta resuena un cierto nmero de veces entre las capas antes de recibir una
respuesta de la capa de salida. El mejor tipo de red conocido de este tipo es la red de
Teora de Resonancia Adaptativa (ART).
Uso: Este tipo de estructura es adecuado para tareas de hetero-asociacin, es decir
asociar la informacin del patrn de entrada con la informacin del patrn de salida.
La Figura 1-8d) ilustra la idea de un mapa de caractersticas organizado. En este
modelo, cada neurona en la red contiene un vector de caractersticas. Cuando un patrn
de entrenamiento se le da a la red, la neurona cuyo vector caracterstico es ms
parecido al vector de entrada se activa y esta es actualizada para reflejar el vector de
entrada que motiv la activacin. En el proceso de actualizacin, tambin se actualizan
las neuronas vecinas. El tipo de red que exhibe este tipo de comportamiento son los
mapas auto-organizativos de Kohonen. (SOM, por sus siglas en ingls).
Wij = 0.
Creacin de conexiones:
Wij 0.
Se dice que el proceso de aprendizaje ha terminado o la Red ha aprendido cuando los pesos
permanecen estables: expresando en forma matemtica se tiene que la derivada parcial de
los pesos con respecto al tiempo tiende a 0:
Wij
t
18
Jorge Aguilar J.
0.
19
de los mismos, la idea es que esta variacin es el valor en que se modificara a los
pesos.
Este algoritmo fue implementado por la primera red neuronal formal (el
perceptrn), pero presenta un fuerte inconveniente ya que no considera el error en
su conjunto.
Regla Delta. La regla delta toma en cuenta el error medio cuadrtico y lo minimiza
para la modificacin de los pesos. Esto correge el problema del algoritmo anterior
ET
1 P N (k )
(Yi Ydi( k ) )2
2 P k 1 i 1
En donde:
N Nmero de neuronas de salida
P Informacin que debe aprender la red (nmero de vectores para el
entrenamiento)
Los pesos se ajustan minimizando este error de la siguiente forma.
Wij u
ET
Wij
Aprendizaje Estocstico.
Consiste en realizar cambios aleatorios en los pesos Wij y evaluar su efecto a partir
del objetivo deseado y de la distribucin de probabilidades.
Por lo general estos mtodos parten de principios fsicos que se dan en los slidos
(Termodinmica) El objetivo es llegar a un estado de mnima energa, evaluada con
alguna funcin de energa.
Si E (t+1) < E (t) se acepta el cambio de los pesos
Si E (t+1) E (t) se acepta el cambio en funcin de una funcin de probabilidades
preestablecida.
Redes que usan este tipo de algoritmo de aprendizaje son: Mquina de Boltzman y
Mquina de Cauchy
Uso: Reconocimiento de patrones (imgenes de sonar y de radar) y optimizacin
1.3.2.1.2
Aprendizaje No Supervisado: En este tipo de aprendizaje no se requiere de
la influencia externa para ajustar los pesos de las conexiones entre neuronas.
20
Jorge Aguilar J.
Con u > 0.
Entre estos tipos de aprendizaje se tienen:
Aprendizaje Hebbiano:
Este tipo de aprendizaje se basa en el postulado formulado por Donald Hebb en
1949: "Cuando un axn de una clula (pre-sinptica) est suficientemente
prxima (espacialmente) para excitar una clula B (post-sinptica) y de una manera
repetida y persistente toma parte en la puesta en marcha de su actividad nerviosa un
proceso de crecimiento o un cambio metablico interviene en una o en ambas
clulas, de tal manera que la eficacia de A, como una de las clulas que dispara la
actividad de B, aumenta4. Por clula, Hebb se refiere a un conjunto de neuronas
fuertemente conectadas a travs de una estructura compleja. La eficiencia podra
identificarse por la intensidad o magnitud de la conexin, es decir, con el peso.
Se puede decir que el aprendizaje consiste en el ajuste de los pesos de las
conexiones de acuerdo con la correlacin (multiplicacin en el caso de valores
binarios +1 y 1) de los valores de activacin (salidas) de las neuronas conectadas.
Esta expresin responde a la idea de Hebb, puesto que si las dos unidades son
activas (positivas), se refuerza la conexin; por el contrario, cuando una es activa y
la otra pasiva, se debilita la conexin.
Aprendizaje Competitivo y Cooperativo.
21
En dicho aprendizaje suele decirse que las neuronas compiten (y cooperan) unas
con otras con el fin de llevar a cabo una tarea dada.
La competencia ente neuronas se realiza en todas las capas de la red, existiendo en
estas neuronas conexiones recurrentes de auto-excitacin y conexiones de
inhibicin por parte de neuronas vecinas. Si el aprendizaje es cooperativo, estas
conexiones con las vecinas sern de excitacin.
El objetivo de este aprendizaje es agrupar los datos que se introducen en la red.
De esta forma, informacin similar es clasificada formando parte de una misma
categora, y por tanto deben activar la(s) misma(s) neurona(s) de salida. Las
categoras deben ser creadas por la misma red, puesto que se trata de aprendizaje no
supervisado, a travs de las correlaciones ente los datos.
En este tipo de redes, cada neurona tiene asignado un peso, que ha sido producto
de la adaptacin de la red ante los datos de entrada. El aprendizaje afecta slo a las
neuronas ganadoras (activas), y a las de su vecindad. la variacin del peso de una
conexin ente una unidad i y otra j ser nula si la neurona j no recibe excitacin por
parte de la neurona i y otra j ser nula si la neurona j no recibe excitacin por parte
de la neurona i, y se modificar si es excitada por dicha neurona i.
1.3.2.1.3
22
Jorge Aguilar J.
una informacin de entrada realizar una auto correlacin, respondiendo con uno de
los datos almacenados, que ser el ms parecido al de la entrada.
Estos dos mecanismos de asociacin dan lugar a dos tipos de redes neuronales: Las redes
hetero-asociativas y las redes auto-asociativas respectivamente.
En el primer grupo encontramos aquellas redes que calculan ciertas funciones, que no
pueden representarse analticamente, entre un conjunto de entradas y un conjunto de
salidas, haciendo corresponder a cada posible entrada una determinada salida. Entre las
redes auto asociativas encontramos aquellas cuya misin es reconstruir una determinada
informacin de entrada que se presenta incompleta o distorsionada (le asocia el dato
almacenado ms parecido).
En realidad, estos dos tipos de redes no son diferentes en principio, ya que una red heteroasociativa puede ser reducida a una red auto asociativa concatenando una informacin de
entrada y su salida asociada para obtener la informacin de entrada de la red auto
asociativa equivalente. De modo similar, una red auto asociativa puede convertirse en una
hetero-asociativa presentando, como entrada parcial de la auto asociativa, la informacin
de entrada para la hetero-asociativa y haciendo que la red complete la informacin para
producir lo que sera la salida de la red hetero-asociativa equivalente.
1.3.3.1 Redes Auto asociativas
Una red auto asociativa asocia una informacin de entrada con el ejemplar ms parecido de
los almacenados conocidos por la red. Este tipo de redes puede implementarse con una sola
capa de neuronas. Esta capa comenzar reteniendo la informacin de entrada y terminar
representando la informacin asociada.
En cuanto a la conectividad, en este tipo de redes, existen conexiones laterales entre las
neuronas (Hopfield, etc.) y, en algunos casos, conexiones auto concurrentes (Brain-StateIn-A-Box, Additive Grossbarg, etc.)
Patrones: X1, X2,, Xn. Ante una entrada Xi, se realiza una auto correlacin, y se asocia
al ms parecido.
Uso: Este tipo de redes suelen utilizarse en tareas de filtrado de informacin para la
reconstruccin de datos, eliminando distorsiones o ruidos. Tambin se utilizan para buscar
relaciones entre informaciones similares, para resolver problemas de optimizacin y para
bsquedas por contenido en bases de datos.
Aprendizaje: En relacin con el tipo de aprendizaje, el ms comnmente utilizado es el no
supervisado (Hoppfield, Additive Grossbarg, etc.), aunque existen algunas con aprendizaje
supervisado (Brain-State-In-A-Box)
1.3.3.2 Redes Hetero asociativas
Estas redes, al asociar ciertas informaciones de entrada con informaciones de salida,
precisan al menos dos capas: una para captar y retener la informacin de entrada y la otra
para mantener la salida con la informacin asociada. Si esto no fuera as, se perdera la
| Introduccin a las Redes Neuronales Artificiales
23
representacin
verde
1000
amarillo
0100
rojo
0010
azul
0001
24
Jorge Aguilar J.
Por lo tanto, tenemos que los datos pueden tomar valores continuos (elementos de los
reales) y valores discretos en el caso de representacin de clases o datos especficos
(normalmente 0 y 1). En este sentido se tienen los siguientes tipos de redes.
Tipo de Datos
- Red Anloga E
Discreta
Hbrida
Entrada
Salida
D. Continuos
D. Continuos
D. Discretos o
binarios
D. Continuos
D. Discretos o
binarios
D. Discretos
Funcin de
Activacin
Lineal,
sigmoides
Escaln
25
Un problema de optimizacin trata entonces de tomar una decisin ptima para maximizar
(ganancias, velocidad, eficiencia, etc.) o minimizar (costos, tiempo, riesgo, error, etc.) un
criterio determinado. Las restricciones significan que no cualquier decisin es posible.
Por ejemplo la siguiente tabla ilustra el uso de algunas redes neuronales conocidas
Aplicacin
Modelo de Red
Back
Propagation
Hopfield
Maquina de
Boltzman
Kohonen
SOM
Clasificacin
Procesamiento de Imgenes
5
Al parecer esta es la funcin principal del sistema nervioso, segn (Llins, 2003) el sistema nervioso
aparece el momento que hay movimiento, es decir el momento en que es necesario la prediccin ya que si
hay movimiento el ambiente cambia. Tomemos el ejemplo de levantar un peso cualquiera, digamos una caja
de leche. Nuestro cerebro realiza todos los clculos para que nuestro brazo aplique la fuerza correcta y poder
levantar la caja de leche. Qu tal si esta caja, no contuviese leche sino una sustancia ms densa. Si estamos
convencidos que es leche, aplicaremos la fuerza para este peso y no podremos levantarla. Si queremos poder
levantarla necesitamos aplicar una fuerza mayor. Al realizar esta actividad nuestro cerebro realiza una
prediccin del peso.
26
Jorge Aguilar J.
Decisin de mercado
Optimizacin
Diseo de prtesis
Empresa
Finanzas
Identificacin de falsificaciones
Interpretacin de firmas
Entretenimiento
Animacin
Efectos especiales
| Introduccin a las Redes Neuronales Artificiales
27
1.5
Prediccin de mercado
Algunas Preguntas
A qu se refiere la Inteligencia Artificial, qu opina del trmino inteligencia
computacional, aclara mejor el concepto o es ms restrictivo?
Cree posible que algn da las mquinas lleguen a imitar las capacidades de la
inteligencia humana, en qu se diferenciaran, cules son las razones?
Qu se plantea la computacin neuronal y qu implicacin tiene esto en el
entendimiento del cerebro humano?
Cul es el proceso bsico de funcionamiento de la neurona?
Cules son los elementos de una red neuronal?
Qu simula la funcin de activacin?
Explique por qu es necesario el umbral. Cul es su efecto y cules sern las
consecuencias de no tener un umbral
Explique cul es el efecto del cambio de los pesos sobre el hiperplano de separacin
Explique cul es el efecto de de cambiar el umbral sobre el hiperplano que forma
las fronteras de decisin
Explique el aprendizaje supervisado, no supervisado y reforzado mediante un
ejemplo de la vida real, como se adapta este problema, u otro, a un computador?
Qu caracterizan a los algoritmos por correccin de error?
Qu implica que en el aprendizaje no supervisado se compare las entradas con los
pesos de la red, mientras que en el supervisado las salida del sistema con la salida
conocida?
En funcin de esta forma de ajustar los pesos de las redes de aprendizaje
supervisado y no supervisado, qu tipo de aplicaciones o problemas esperara
resolver con cada sistema?
28
Jorge Aguilar J.
29