Académique Documents
Professionnel Documents
Culture Documents
Donde:
es el estado de la unidad .
es el umbral de la unidad .
Entrenamiento.
El entrenamiento de una red de Hopfield consiste en reducir la energa de los estados que la red debe
"recordar". Esto convierte a la red en un sistema de memoria direccionable, es decir, la red "recordar" un
estado si se le da solo parte de dicho estado. Esto la hace til para recuperar una entrada distorsionada
usando un estado de la red obtenido durante el entrenamiento y que es ms similar al estado obtenido con
la entrada actual. Esto se llama memoria asociativa, ya que recupera la memoria en base a la similitud.
Por ejemplo, si entrenamos una red Hopfield con cinco unidades para que el estado (1, 0, 1, 0, 1) sea un
mnimo de energa, y le damos a la red el estado (1, 0, 0, 0, 1) esta convergir a (1, 0, 1, 0, 1). As, la red
estar adecuadamente capacitada cuando la energa de los estados que la red debe recordar son mnimos
locales.
Representacin grfica de la funcin
de activacin de una red Hopfield.
3. Perceptrn Multicapa.
Es una red neuronal artificial (RNA) formada por mltiples capas, esto le permite resolver problemas que
no son linealmente separables, lo cual es la principal limitacin del perceptrn (tambin llamado perceptrn
simple). El perceptrn multicapa puede ser totalmente o localmente conectado.
Tipos.
Las capas pueden clasificarse en tres tipos:
Capa de entrada: Constituida por aquellas neuronas que introducen los patrones de entrada
en la red. En estas neuronas no se produce procesamiento.
Capas ocultas: Formada por aquellas neuronas cuyas entradas provienen de capas
anteriores y cuyas salidas pasan a neuronas de capas posteriores.
Capa de salida: Neuronas cuyos valores de salida se corresponden con las salidas de toda
la red.
4. Red neuronal Competitivo Simple.
Las redes de aprendizaje competitivo se diferencian de las otras redes neuronales en que en las
anteriores redes las neuronas colaboran en la representacin de los patrones, sin embargo, en
este tipo de redes cada neurona compite con las otras neuronas para representar los
patrones.
El aprendizaje de este tipo de redes es como su nombre indica, competitivo.
Las neuronas compiten en cual representa mejor al patrn y la ganadora se lleva todo el
aprendizaje de ese patrn. El objetivo de este tipo de redes es que se formen grupos de
patrones, categoras, que son representados por cada neurona.
Ejemplo de red competitiva ms simple ya que no introduce ninguna mejora.
Arquitectura.
Las redes competitivas son usualmente bicapas Esta red admite valores binarios o bipolares
como entrada para los sensores y su salida es en el mismo formato de la entrada.
La funcin de la primera capa es hacer de sensor, por ella entran los patrones a la red y por
tanto debe tener el mismo tamao que la longitud del patrn.
La segunda capa tiene tantas neuronas como categoras deseemos. Sin embargo, algunas redes
competitivas, como la familia de las ART, crean neuronas dinmicamente para ajustar el nmero
de categoras automticamente.
Aprendizaje.
El aprendizaje de esta red se basa en comparar los patrones con los pesos sinpticos que
llegan a las neuronas de salida. La funcin actualizar de la neurona asigna valores mayores a las
neuronas de salida que representan mejor el patrn.
Una vez que sabemos cul es la neurona ganadora, hacemos que sus pesos se acerquen an
ms a los patrones para que lo aprendan.
Inicializamos los pesos sinpticos a valores aleatorios y pequeos (cercanos a cero).
Para cada patrn de la lista .
Se establece el patrn de entrada de en los sensores, la capa de entrada.
Se hace que las neuronas de la capa de salida se actualicen sus estados a los valores de la
capa de entrada.
Se halla la neurona ganadora que es la que tiene mayor estado.
Solicitar que aprendan las sinapsis que llegan la neurona ganadora.
5. Redes Neuronales Online ART1.
Las redes basadas en la Teora de Resonancia Adaptativa (ART) sirven para clasificar
patrones de manera no supervisada, esto es, la red forma grupos y crea el nmero de
categoras que crea conveniente en funcin de la configuracin que le demos y las cualidades de
los patrones.
Se considera que el aprendizaje no supervisado es el ms posible desde un punto de vista
psicolgico, ya que los humanos aprendemos ms sobre nuestra experiencia que escuchando a
profesores. Un ejemplo de aprendizaje no supervisado es el siguiente: debemos clasificar una
serie de objetos y no tenemos a nadie que nos diga a que categora pertenece, as que tenemos
que fijarnos en las caractersticas de los objetos y cuanto se parecen
ART hace uso de dos trminos usados en el estudio del comportamiento del celebro:
Estabilidad y Plasticidad para llevar a cabo esta clasificacin.
Estabilidad refleja la capacidad del sistema para recordar patrones previamente aprendidos.
Plasticidad es la capacidad de aprender nuevos patrones.
El equilibrio entre Estabilidad y Plasticidad es resuelto en las redes ART usando un parmetro
llamado, granulidad, segn algunos autores, otros lo llaman parmetro de vigilancia.
Este parmetro nos cuantifica cuanto debe diferenciarse un patrn al clasificar, del almacenado
(estabilidad) en una categora para que sea considerado una nueva categora (plasticidad).
Propiedades.
Aprende constantemente informacin significativa.
Un conocimiento nuevo no destruye la informacin anterior.
Recuerda rpidamente un patrn de entrada si este ya se ha aprendido.
Funciona como una memoria asociativa autnoma.
Trabaja nicamente con patrones binarios.
Posee habilidad para crear nuevas categoras.
Arquitectura.
Compuesta de 2 capas.
Una capa de entrada con N neuronas.
Una capa de salida con M neuronas.
Conexiones hacia delante feedforward (
) y
Conexiones hacia atrs feedback (