Vous êtes sur la page 1sur 55

Informática Industrial

Redes Neuronales:
Hopfield y Bam
Integrantes:
Caicedo Daniel
Guacho Julio
Mena Marco
Rubio Allan
Vinces Geovanny
Red de Hopfield
Descripción

Se utiliza principalmente con entradas binarias.

Se puede utilizar como una memoria asociativa, o para


resolver problemas de optimización.

Una memoria asociativa o dirigida por contenido es


aquella que se puede ingresar teniendo una parte de un
patrón de entrada, y obteniendo como resultado el
patrón completo.
Descripción
Se trata de una red auto asociativa. Por tanto, informaciones diferentes (patrones)
pueden ser almacenadas en la red, como si de una memoria se tratase, durante
la etapa de aprendizaje. Posteriormente, cuando se presenta una entrada a la
red, esta evoluciona hasta generar una salida que coincidirá con la que
corresponde a esa entrada, o bien la más parecida si la entrada está
distorsionada o incompleta.
La información que recibe la red debe haber sido previamente codificada y
representada en forma de vector (como una configuración binaria o como un
conjunto de valores reales dependiendo de si la red es discreta o continúa) con
tantas componentes como neuronas (N) tenga la red. Cada neurona recibe un
elemento del vector.
Gráfica representativa

N es el número de nodos en la red. Las entradas


Xo,X1...Xn-1 se aplican a la red en el tiempo t=0.
Pueden tomar valores de +1ó-1. Las salidas Uo,U1...Un-
1 se van calculando y recalculando, hasta que sus
valores ya no cambian. Cuando esto sucede, se tiene
la salida de la red, y X’i=Ui para i=1..n-1
Formulación Matemática.

 Algoritmo de Entrenamiento de la red Hopfield


 Paso único: Calcule los valores de los pesos que conectan a los nodos, utilizando la siguiente
fórmula:

 donde es el peso que va del neurón i al neurón j, y es el valor del i-ésimo elemento de la s-
ésima clase; m es el número de clases que se desean aprender. En notación matricial, la
matriz de pesos se define como:

 Lo que se conoce como el producto externo (outer product) de un vector renglón consigo
mismo
Formulación Matemática.

 Paso1. Inicialice la red con un patrón de entrada: donde n es el número de nodos en la red:
 Paso2. Itere hasta converger siguiendo la siguiente fórmula:

 donde F es una función escalón definida como: Cuando la red converge, su salida
representa al patrón que más se parece al patrón de entrada dado.
Red de Memoria Asociativa
Bidireccional
Descripción
La memoria asociativa bidireccional esta constituida por dos capas de neuronas
que son elementos básicos de procesamiento de información .

Estas capas están completamente interconectadas y el flujo de la información va


desde la capa de entrada hacia la capa de salida y desde la capa de salida
hacia la de entrada, por lo que los procesos son bidireccionales.

Las conexiones de retroalimentación de cada unidad pueden no estar presentes


en todas las arquitecturas BAM

Al igual que en otras redes neuronales, en la arquitectura bam existen pesos que
se asocian a las conexiones entre elementos de un proceso. A diferencia de otras
arquitecturas, estos pesos se determinan por anticipado, así es posible identificar
a todos los vectores de entrenamiento.
Gráfica representativa

La red consiste en 2 capas las cuales pueden ser de


diferente dimensiones. Ninguna de las capas
pueden ser intrínsicamente denominadas como de
entrada o de salida. A las capas se le denominan
capa-X y capa-Y respectivamente.

Ambas capas se encuentran bien conectadas.


No existen conexiones laterales entre las neuronas
dentro de la misma capa. Las conexiones entre las
capas son bidireccionales
Formulación Matemática.

• 𝑛𝑒𝑡𝑜 𝑦 = 𝑤𝑥
En donde 𝑛𝑒𝑡𝑜 𝑦 es el vector de valores de la capa y: en
términos de las unidades individuales yi

𝑦
𝑛𝑒𝑡𝑜𝑖 =σ𝑛𝑗=1 𝑊𝑖 𝑗 𝑋𝑗
Formulación Matemática.

En la capa x
𝑛𝑒𝑡𝑜 𝑥 = 𝑤 2 𝑦
𝑦
𝑛𝑒𝑡𝑜𝑖 =σ𝑚𝑗=1 𝑌𝑗 𝑋𝑗𝑖

Las magnitudes m y n son las dimensiones de las capas x e y,


respectivamente. El valor de la salida para cada elemento de proceso
depende del valor neto de la entrada, y del valor actual de salida de
esa capa . El nuevo valor de y en el instante t+1, y(t+1), esta
relacionado con el valor de y en el instante t, y(t), mediante
Formulación Matemática.
𝒚
+𝟏 𝒏𝒆𝒕𝒐𝒊 > 𝟎
𝒚
 𝒚.𝒊 𝒕 + 𝟏 = 𝒚.𝒊 𝒕 𝒏𝒆𝒕𝒐𝒊 = 𝟎
𝒚
−𝟏 𝒏𝒆𝒕𝒐𝒊 < 𝟎
De manera similar x(t+1) esta relacionado con x(t) mediante:

+𝟏 𝒏𝒆𝒕𝒐𝒙𝒊 > 𝟎
.
.
 𝒚𝒊 𝒕 + 𝟏 = 𝒙 𝒊 𝒕 𝒏𝒆𝒕𝒐𝒙𝒊 = 𝟎
−𝟏 𝒏𝒆𝒕𝒐𝒙𝒊 < 𝟎
Aplicaciones de Hopfield
1 1

APLICACIÓN:
DIAGNÓSTICO DE FALLOS EMPLEANDO UNA RED NEURONAL ARTIFICIAL HOPFIELD ANTE DATOS
INCOMPLETOS

El rendimiento de la Red Neural Artificial de Hopfield en el diagnóstico de fallas en procesos industriales se


evalúa cuando faltan datos. Se realiza el diagnóstico de dos clases con diferentes niveles de datos superpuestos.
Como resultado principal, Hopfield tiene un buen desempeño en las pruebas implementadas superando
arquitecturas como la Red Neuronal Probabilistic, por eso es una buena opción usarlo en el diagnóstico de
fallas.

DESCRIPCIÓN DE LOS DATOS:


Se emplearon dos conjuntos de datos en determinadas situaciones, con los objetivos de comprobar el correcto
diseño de ambas arquitecturas, además, evaluar el comportamiento de las mismas ante diferentes situaciones. El
primer conjunto representa cuando las clases se encuentran totalmente separadas, ver Figura 1 y el segundo
cuando están mezcladas, ver Figura 2.
Figura 1: Clases totalmente separadas. Figura 2: Clases mezcladas.

En cada caso, hay tres variables, dos clases y cada una de ellas tiene 50 datos, para un total de 100
muestras por cada conjunto de datos.
DISEÑO Y CONFIGURACIÓN DE HOPFIELD

Generalmente en el empleo de las RNA en el diagnóstico de fallos, el número de neuronas en la capa de


entrada coincide con la cantidad de variables que se midan en el proceso, en este caso Hopfield es una
arquitectura monocapa y tendrá tres neuronas en la capa de entrada pues los conjuntos de datos presentan
tres componentes principales. En su única capa es donde se realiza el procesamiento y a la salida se brinda el
dato recuperado que tiene la misma dimensión que el vector de entrada por lo que esta capa también está
compuesta por tres neuronas.
Debido a que la red solamente proporciona un conjunto de datos a su salida, se necesita un mecanismo de
clasificación posterior que permita agrupar los datos en las clases a las que pertenecen; para llevar a cabo
este mecanismo, una vez que se obtuvieron todas las salidas de la red, se implementó el siguiente algoritmo:
1) Se determina la media correspondiente a los datos que representan a cada clase.
2) Se halla la distancia Euclídea de cada dato de salida (ofrecido por la red) con ese vector de media.
3) Se determina la menor distancia.
4) Se clasifica el dato en la clase donde se obtuvo la mínima distancia.

Se utilizó la distancia Euclídea por su sencillez y por ser la distancia más empleada en las redes neuronales
artificiales
DISEÑO Y CONFIGURACIÓN DE PNN
(Probabilistic Neural Network)

Se determinó utilizar para el cálculo de la densidad de probabilidad, el kernel Gaussiano, que constituye el
kernel normal estándar más utilizado. El parámetro de dispersión toma valor entre 0 y 1, por lo que se
seleccionó σ = 0:5 Como el número de neuronas en la capa de entrada coincide con la cantidad de variables
que se midan en el proceso, al igual que Hopfield, PNN tiene tres neuronas en la capa de entrada, en la capa
de datos tiene 100 neuronas, debido a que son 2 clases, constituidas por 50 datos, la capa sumatoria presenta
dos neuronas porque son dos clases las que se diagnostican y la capa de decisión está constituida por una
sola neurona que brinda la clase a la que pertenece el dato de entrada.
DISEÑO DE EXPERIMENTOS

Se diseñaron dos tipos de experimentos:


Entrenando las redes con datos diferentes a los de la simulación. Entrenando las redes con datos incompletos
y simulando con el conjunto original. El diseño de estos experimentos tiene como objetivo, evaluar la
capacidad de generalización de las redes ante la presencia de nuevos datos. Para la realización del primer
experimento se entrenan las arquitecturas empleando el método de validación cruzada, dividiendo cada
subconjunto en 10 particiones. Para realizar el segundo experimento se entrenan las arquitecturas con el
conjunto original de datos pero introduciendo varios porcentajes (10%, 20% y 30%) de pérdida de
información en determinadas variables y determinados tiempos de muestreo y se simulan las redes con todo
el conjunto de datos (100 muestras). Reflejan diferentes métodos para estimar los datos incompletos debido
a la pérdida de los mismos como son:
(1) reemplazar los valores perdidos por cero, método no recomendable pues el cero indica la ausencia de
características esenciales en determinados procesos y en este caso puede representar un fallo; (2)
reemplazarlos por la media de la variable que se encuentra incompleta del conjunto de datos original, este
método es el que comúnmente se utiliza por los resultados que brinda y el empleado en este trabajo; (3)
eliminar los datos donde al menos exista un valor incompleto de algunas de las variables, en este caso se
trabajará con menos datos de los disponibles y (4) desarrollar un modelo que reconstruya los valores
perdidos atendiendo a la relación entre las variables.
RESULTADOS Y DISCUSIÓN

Los resultados obtenidos aplicando el método de validación cruzada se muestran en la Tabla 1, donde para
cada uno de los conjuntos de datos, se obtiene el porciento de error de clasificación de las arquitecturas
empleadas.

Los resultados para el experimento con datos incompletos se muestran en las Tablas 2 para cuando las clases
están separadas y en III cuando están mezcladas, donde para cada uno de estos casos, se obtiene el porciento
de error de clasificación de las arquitecturas ante el 10%, 20% y 30% de pérdida de información. Para el
conjunto 1:
RESULTADOS Y DISCUSIÓN

En los resultados obtenidos se muestra la capacidad de generalización de las arquitecturas de redes


neuronales ante datos nuevos y su desempeño ante la presencia de varios porcentajes de datos incompletos
en el entrenamiento. En el caso de los conjuntos de datos donde las clases están separadas, el porciento de
error de clasificación es cero como era de esperarse, por lo que se considera que el diseño de las redes es
correcto.
Se puede observar que en todos los casos el porciento de error de Hopfield es menor o igual que el de PNN,
teniendo mejores resultados en la clasificación de las clases, por lo que Hopfield representa una
arquitectura eficiente con resultados satisfactorios en el reconocimiento y clasificación de patrones y se
considera adecuada para emplearla en el diagnóstico de fallos en procesos industriales.
CONCLUSIÓN

Teniendo en cuenta los resultados obtenidos en cada experimento, el desempeño de Hopfield


ante las diferentes situaciones que se presentaron es mejor que el de la Red Neuronal
Probabilística, presentando buena robustez ante datos incompletos, siendo esta una
característica deseada en un sistema de diagnóstico de fallos. Por lo cual la red neuronal
artificial Hopfield puede ser aplicada con ´éxito al diagnóstico de fallos.

Para futuras investigaciones se desea utilizar otras distancias además de la Euclídea en el


mecanismo de clasificación de Hopfield con el objetivo de comprobar si la distancia
empleada afecta o no la clasificación, utilizar otros métodos para estimar datos incompletos y
continuar comparando con otras arquitecturas.
2 2

APLICACIÓN:
RECONOCIMIENTO DE CARÁCTERES

Se desea entrenar una Red de Hopfield bastante sencilla, que sea capaz de reconocer información
(patrones) de imágenes formadas por cuatro pixeles, en una matriz de 2x2. En la figura siguiente se
muestran ejemplos de patrones que podrían utilizarse como entradas a la red:

Los pixeles negros podrían representarse mediante el valor binario 1, y los blancos con el valor binario -1. En
este caso, las informaciones serían dos vectores de cuatro elementos (N = 4) que contienen los valores de los
pixeles. La red, por tanto, tendría 4 neuronas para que cada una reciba el valor de un pixel. Aplicaremos el
algoritmo detallado anteriormente para los patrones de entrada 1 y 2.
Los valores de los vectores de entrada que representan cada patrón son:

El aprendizaje de estas dos informaciones consiste en la obtención de los pesos de la red (matriz W).
Utilizaremos la fórmula

Para la entrada E1, la salida W1 es

Para la entrada E2, la salida W2 es:


Sumando W1 y W2 se obtiene la matriz de pesos definitiva, W:

Una vez finalizada la fase de aprendizaje (entrenamiento), la red podría ser utilizada como memoria
asociativa de acceso por contenido, de tal forma, que al presentarle una información más parecida a la
almacenada durante el aprendizaje
Fase de Evaluación:
Por ejemplo, ser podría comprobar lo que ocurre con el patrón de entrada siguiente:

El vector es

Inicialmente, la salida corresponde a la propia información de entrada. Entonces se produce la


primera iteración, obteniéndose las siguientes nuevas entradas en cada neurona:
Si suponemos una función de activación de cada neurona de tipo escalón centrada en el origen (desplazamiento
Ѳ1= 0), la salida de la red después de esta primera iteración será:

Repitiendo el proceso, tomando como entrada la salida anterior, S, tenemos:

Aplicando igualmente la función de activación a este nuevo resultado (segunda iteración de EW), la salida
obtenida es:
Observemos que se repite la salida de la primera iteración, entonces se ha llegado a una situación de estabilidad,
en la que la red ha generado como salida el patrón más parecido al presentado como entrada:

En este ejemplo, para la descripción del aprendizaje se ha utilizado el modelo discreto, la forma de calcular los
pesos para el modelo continuo es similar, si se utiliza la red como memoria asociativa. Si la red se utiliza para
resolver problemas de optimización, el cálculo de los pesos dependerá del problema concreto. Además, en el
modelo continuo se suele considerar la existencia de conexiones auto concurrentes, con lo que no siempre Wii = 0.
3 3

APLICACIÓN:
RED HOPFIELD COMO SOLUCIÓN A PROBLEMAS DE OPTIMIZACIÓN

Supóngase que hay N ciudades: A,B,C,D etc... a visitar y que las distancias entre ellas está dada por el valor dxy
que es la distancia de la ciudad x a la ciudad y .
Un tour posible para el agente viajero se puede representar como un conjunto de N renglones (uno por cada
ciudad) de 0´s y 1´s donde en cada renglón hay un solo 1, el cual indica la posición de esa ciudad en el tour. Un
tour válido tiene sólo un uno por renglón y un uno por columna.
Por ejemplo, suponiendo que el agente debe visitar 4 ciudades A,B,C y D podemos definir a un posible "tour" con
la siguiente matriz:
La cual representa al tour C-A-D-B.
Esta matriz se puede representar en un vector de una
dimensión con N2 elementos. Dicho vector puede
representarse en una red de Hopfield de N2 neuronas.
El objetivo de la red de Hopfield es hacer converger la red
hacia un tour válido en el cual exista la mínima energía
posible. El problema esta entonces en definir ahora que es
la “energía” del sistema.
FUNCIÓN DE ENERGÍA
Podemos notar que la representación escogida del problema establece la restricción que hay un solo uno por renglón y
un sólo uno por columna, Además, sabemos que el objetivo es minimizar la distancia entre ciudades.
Hopfield y Tank definieron la siguiente fórmula de energía que contiene dichas restricciones, que es la siguiente

Donde Vx,y representa la salida de la neurona que muestra que la ciudad x está en la posición y.
En la función se puede notar lo siguiente:
el primer término es cero si y sólo si hay un solo "uno" en cada renglón. De otra manera, el término toma en
valor mayor que cero.
- el 2º término es cero si y sólo si hay sólo un uno en cada columna.
- el 3º término será cero si y sólo si hay exactamente N 1´s en la matriz tour.
- el 4º término representa la longitud un tour válido. Considérese que los subíndices de V están definidos
en términos de módulo n, esto es:
Vj+n =Vj
CÁLCULO DE LA RED
La salida de cada nodo se calcula de la siguiente forma:

Donde x,i representa la entrada de cada neurón. Su valor deberá cambiar de manera que se
reduzca la energía del sistema, este cambio se puede escribir como:
VALORES DE LOS PARAMETROS
A, B, C, D, o, t y deben tomar un valor inicial.
Desgraciadamente la convergencia de la red va a depender de estos valores, los cuales son realmente difíciles de
establecer.
Hopfield y Tank han sugerido que el valor inicial sea: = 1/N añadiendo un poco de ruido para romper la
simetría, esto es:
= + noise(0.1* inicial)
Donde
noise(x) = # al azar entre 0 y x
En algunas pruebas que realizaron Hopfield y Tank utilizaron los siguientes valores:
A=1000
B= 1000
D= 1000
= 1.5*N C=0.75*D*N
o= 0.02
t= 1
Dt= 20000

Hopfield y Tank mostraron sus resultados con un experimento con 10 ciudades. De 20 corridas que hicieron, 16
dieron tours válidos y cerca del 50 % de las 50 soluciones fueron de las más cortas halladas por el método
exhaustivo.
Aplicaciones de BAM
1 1

APLICACIÓN:
EVASIÓN DE OBSTÁCULOS EN UN ROBOT MÓVIL

PLANTEAMIENTO DEL PROBLEMA


El ejemplo adaptado a una estructura del robot, que se prueba con una red neuronal, puede ser de utilidad para lograr
que un robot móvil navegue evadiendo obstáculos en una situación muy simple. Suponga dos sensores anticolisión con
salida binaria (todo o nada) y una estructura mecánica de tracción diferencial que requieren
dos señales binarias por motor; para girar en los dos sentidos y parar.
Además, se desea que el robot pueda evadir obstáculos cuando navega en un ambiente desconocido y tratando de
mantener un rumbo hacia adelante, siempre que pueda.
Intuitivamente se puede definir una serie de reglas simples que pueden evitar la colisión del robot y dependen del
número de sensores sobre el robot. Con dos sensores a cada lado del robot, se pueden caracterizar cuatro patrones de
entrada así:
• No colisiona.
• Se aproxima una colisión por el lado derecho.
• Se aproxima una colisión por el lado izquierdo.
• Se aproxima una colisión por ambos lados.
Para cada patrón de entrada se plantea una regla que relacione entradas y salidas al sistema:
1. Si no colisiona, entonces avance adelante.
2. Si se aproxima una colisión por el lado derecho, entonces gire por el lado izquierdo.
3. Si se aproxima una colisión por el lado izquierdo, entonces girar por el lado derecho.
4. Si se aproxima una colisión por ambos lados, entonces retroceda.

Estas cuatro reglas se representan como cuatro pares de patrones entrada y salida, que se almacenan sobre una
red neuronal tipo perceptrón. Si se expresan como vectores binarios, tenemos el siguiente conjunto de pares
entrada-salida que cumplen con las cuatro reglas simples anteriores:

X =[0 0]; Y =[1 0 1 0] no choca → adelante


X =[0 1]; Y =[0 1 1 0] choca derecha → giro izquierdo
X =[1 0]; Y =[1 0 0 1] choca izquierda → giro derecho
X =[1 1]; Y =[0 1 0 1] choca en dos lados → atrás

El primer termino de X, corresponde al estado del sensor izquierdo y el segundo, al estado del sensor derecho. Los dos
primeros términos de Y corresponden al estado del motor izquierdo y los dos últimos, al estado del motor derecho.
Este perceptrón se puede entrenar de forma grafica,
marcando puntos donde la señal de entrada binaria aplicada
por la columna debe activar alguna salida que se aplica por
la fila en la parte inferior (par entrada-salida). En algunos
casos se marca en el mismo punto y aparece concéntrica la
marca. Esto significa refuerzo de conexión como se propone
Con la información propuesta para entrenar este
comportamiento, la teoría de las redes neuronales impide
caracterizar los cuatro casos anteriores, ya que la clásica
desigualdad siguiente no se cumple:

Bajo este criterio sólo se puede almacenar con la información


propuesta, un solo caso. Para superar este inconveniente se
aumenta la dimensión del vector de entrada sin agregarle más
sensores al robot; tomando simplemente la parte complementaria
de la información de entrada en el vector Xi.
Dicho de otra forma, por cada valor de entrada se adiciona un término complemento y se obtiene así un par de
vectores de dimensión idéntica que al ser asociados sobre un perceptrón, producen una matriz cuadrada que asocia
patrones normales y negados. Ahora se aplica el método descrito en (Delgado, 1998). Al terminar de asociar las
cuatro reglas en cuestión, resulta la topología de la Figura 3.a.

Se investiga ahora por un método formal que sea útil para entrenar una red de dos capas con patrones de
entrenamiento en procedimiento supervisado, esto con el fin de ser embebido en la memoria y sistema operativo
implementado sobre un popular microcontrolador barato de ocho bits
tipo PIC16F84A. El algoritmo buscado debe adaptarse a la siguiente topología:
• Dos capas.
• Pesos sobre una matriz cuadrada.
• Memorice patrones normales y negados.
• Bidireccional.
El procedimiento seleccionado apunta a una red neuronales asociativas tipo B.A.M. En este tipo de redes los
elementos de ambas capas están interconectados entre si. Las unidades pueden o no tener conexiones de
realimentación consigo mismas.
Sin perder la generalidad de las redes neuronales, en estas arquitecturas tipo B.A.M. hay pesos asociados a las
conexiones entre elementos del proceso. A diferencia de muchas otras arquitecturas, estos pesos se pueden
determinar por anticipado si es posible identificar todos los vectores de entrenamiento.
Se puede tomar el modelo de un asociador lineal para construir la matriz de pesos. Dados L pares de vectores que
constituyen el conjunto de ejemplares que se desean almacenar, se construye la matriz:

En este caso la matriz de pesos es cuadrada y simétrica. Una vez que se ha construido la matriz de pesos, la B.A.M. se
puede emplear para recordar información. De hecho si la información tiene ruido o está incompleta la B.A.M. sería
capaz de completar la información. Para recordar información empleando esta red, se llevan a cabo los pasos
siguientes:
1. Se aplican el par de vectores Xo, Yo a los elementos del proceso de la B.A.M.
2. Se propaga la información de la capa X a la capa Y, y se actualizan los valores de las unidades de la capa.
3. Se vuelve a propagar esta información y se actualiza hasta la capa X, y se actualizan las unidades que se
encuentren allí.
4. Se repiten los pasos 2,3 hasta que no hayan cambios en las unidades de ambas capas.
Este algoritmo da a la B.A.M. la naturaleza bidireccional.
La siguiente ecuación se usa para calcular una matriz que asocia entradas con salidas de acuerdo a la siguiente
expresión:

siendo,
M, la matriz de asociación,
X, el vector fila de entradas,
Y, el vector columna de salida

Los elementos de la matriz representan los pesos de las conexiones de la red. Se realiza el cálculo de la matriz M con los
valores de los cuatro patrones que se deben cumplir en las cuatro reglas de navegación anteriores. Se toman los valores
normales y complementarios para construir un nuevo vector columna o vector ampliado y para el vector fila, se toman los
valores originales propuestos para la salida deseada en la red. Los vectores de entrada siguientes se obtienen colocando en
las filas 2 y 4 los términos negados de las filas 1 y 3. Luego efectuamos el cálculo de las sub-matrices Mi, para cada caso.
Cuando no colisiona avanza adelante

Cuando colisiona izquierda gira por derecha

Cuando colisiona a ambos lados retrocede


y el resultado de sumar las cuatro matrices parciales es:

Esta matriz asocia los cuatro comportamientos simples. Dicho en otras palabras, representa el conocimiento o
experiencia que permiten que el robot no colisione. Se hace la prueba de la matriz de asociación M con los cuatro
patrones de entrada y se obtiene lo siguiente:
Usando un limitador duro para detectar números mayores que el peso de la conexión (dos) como función de activación,
se cumple y se concluye que reconoce los cuatro patrones almacenados.
Si el lector compara la topología de esta matriz con la topología de la red neuronal perceptrón de la Figura 3, aprecia
una semejanza muy interesante: Los elementos ceros indican no conexión y el número sobre cada elemento de la matriz
da el peso de la conexión en la red (grado de refuerzo).
Con este razonamiento se ha probado que al tratar de obligar a la red binaria tipo perceptrón, que asocie patrones y sus
complementos, se logra que se comporte como una red tipo B.A.M. Además, al ser particularmente simétrica y
cuadrada, consolidan la transformación a una red
2 2

APLICACIÓN:
SEGMENTACIÓN Y CLASIFICACIÓN DE IMÁGENES MÉDICAS USANDO CARACTERÍSTICAS
PRIMITIVAS DE TEXTURA: APLICACIÓN DE RED NEURONAL ARTIFICIAL TIPO BAM

El objetivo de desarrollar este software es lograr la auto segmentación y la caracterización de tejidos. Por lo tanto,
el presente algoritmo ha sido diseñado y desarrollado para el análisis de imágenes médicas basadas en la
hibridación de enfoques sintácticos y estadísticos, utilizando redes neuronales artificiales.
Este algoritmo realiza la segmentación y clasificación como se hace en el sistema de visión humana, que reconoce
objetos; percibe profundidad; identifica diferentes texturas, superficies curvas o una inclinación de la superficie
por información de textura y brillo. El análisis de imágenes médicas se basa directamente en cuatro pasos:

1) Filtrado de imágenes
2) Segmentación
3) Extracción de características
4) Análisis de características extraídas por sistema de reconocimiento de patrones o clasificador.

En este papel, Se ha intentado presentar un enfoque para la caracterización de tejidos blandos utilizando
características primitivas de textura con ANN como herramienta de segmentación y clasificación. El enfoque
actual combina directamente los pasos segundo, tercero y cuarto en un algoritmo.
Este es un enfoque semisupervisado en el que la supervisión está
involucrada solo al nivel de definir la célula primitiva de
textura; luego, el algoritmo mismo escanea toda la imagen y realiza
la segmentación y clasificación en modo no supervisado. El
algoritmo se probó primero en las texturas de Márkov, y la tasa de
éxito lograda en la clasificación fue del 100%; Además, el
algoritmo pudo dar resultados en las imágenes de prueba
impregnadas con una celda de textura distorsionada de
Márkov. Además de esto, la salida también indicó el nivel de
distorsión en la celda de textura de Márkov distorsionada en
comparación con la celda de textura de Márkov
estándar. Finalmente, el algoritmo se aplicó a imágenes médicas
seleccionadas para la segmentación y clasificación. Los resultados
estaban de acuerdo con aquellos con segmentación manual y
estaban clínicamente correlacionados.
ALGORITMO
El algoritmo basado en BAM modificado para procesar imágenes en escala de grises, es decir, píxeles que tienen valores
codificados reales, es el siguiente:
La estrategia para la segmentación se puede explicar a través de los siguientes pasos:
• Primer paso: Se requiere identificar y etiquetar la región de intereses a segmentar. La región de intereses (ROI) podría
ser lesión, tumor, tejido normal, hueso o cualquier otro asunto relevante; por ejemplo, podría ser materia blanca, materia
gris, líquido cefalorraquídeo, sitio de hemorragias, etc. Además, el tipo de ROI a segmentar depende del tipo de
aplicación en la que esté interesado el usuario.
• Segundo paso: Después de especificar el ROI, se selecciona una muestra de plantilla colocando la ventana de
selección de plantilla sobre el mismo ROI.
• Tercer paso: Se calculan las características de textura (que comprenden características estadísticas de primer y segundo
orden) de la plantilla primitiva seleccionada.
• Cuarto paso: Las características de textura se calculan alrededor de cada píxel en la vecindad especificada de la
imagen que se segmentará para las ROI seleccionadas.
• Quinto paso: ANN de tipo BAM luego clasifica los píxeles correspondientes a las características de ROI como se
especifica, de manera supervisada, en el paso 2.
• Sexto paso: Según la clasificación de píxeles, se reconstruye la imagen segmentada.
APLICACIÓN DE ALGORITMO EN IMÁGENES MÉDICAS
El software se ha utilizado para la segmentación de imágenes de TC y RM. (Se han utilizado imágenes médicas en
formato DICOM; el formato DICOM admite imágenes médicas tanto de datos de tipo unidad 8 como de unidad 16 [es
decir, la imagen CT o MR se puede almacenar en formatos de 8 bits y 16 bits].
llevado a cabo en imágenes de TC y RM de diferentes partes del cuerpo y de diferentes tipos [tanto de la unidad 8 como
de la unidad 16], y se han logrado resultados prometedores). La Figura 4 muestra la segmentación realizada en imágenes
del cerebro utilizando este software. Las plantillas seleccionadas se muestran en la Figura 4a ; correspondiente a cada
plantilla, los segmentos obtenidos se muestran en las Figuras Figures4b4b - 4E4e respectivamente.
3 3

APLICACIÓN:
DETECCIÓN DE ALUMNOS DE RIESGO Y MEDICIÓN DE LA EFICIENCIA DE CENTROS ESCOLARES
MEDIANTE REDES NEURONALES

En este trabajo,-, se utilizan las redes neuronales para intentar solucionar empíricamente tres problemas
habituales en el campo de la economía de la educación: Detección de alumnos con alto riesgo de fracaso escolar,
evaluación de la eficiencia relativa de centros educativos y evaluación de la eficiencia relativa de diferentes planes
de estudio. En una primera parte, se realiza una introducción a los modelos neuronales, con especial atención a
los modelos con conexiones hacia delante (feed-forward) con algoritmo de aprendizaje de retro propagación
supervisada (backpropagation), utilizados en el ejercicio empírico desarrollado. A continuación, se comentan los
problemas planteados en este trabajo y se tratan de resolver mediante un modelo basado en las redes neuronales.
Se han aplicado las redes neuronales para la resolución de los diferentes problemas expuestos en datos
individuales de 7454 alumnos de enseñanzas medias de octubre de 1984 (1985) en 256 centros públicos y
privados. Los datos incluyen estudiantes que cursan el programa de Reforma de las Enseñanzas Medias (grupo
experimental), alumnos de BUP y FP en los mismos centros (grupo de control interno), y alumnos de estos
programas en centros no experimentales (grupo de control externo). Finalmente y a modo de conclusión, se
comentan los resultados obtenidos y su relevancia dentro del marco teórico de la economía de la educación.
HISTOGRAMA DE LA CMPONENTE A CADA ALUMNO
CONCLUSIÓN

Las redes neuronales artificiales pueden ser empleadas en el ámbito de la economía de la


educación para predecir el rendimiento académico de los alumnos y detectar así a los
alumnos con mayor riesgo de fracaso, a fin de invertir mayores recursos en ellos, mejorando de
esta forma la eficiencia y la equidad del sistema educativo en su conjunto. Asimismo, podemos
medir la eficiencia relativa de centros escolares y planes de estudio a partir de los conceptos
denominados Ineficiencia A y Eficiencia F que miden dos dimensiones de un mismo concepto:
la eficiencia. La eficiencia F parece más deseable desde el punto de vista de la equidad ya
que actúa sobre los individuos peor dotados tanto económica como aptitudinalmente.
Paper Hopfield
Red Neuronal Hopfield

En este Paper se trata de llegar a una condición de estabilidad mejorada de retardo para redes neuronales de Hopfield con
retrdos de tiempo lo cual es expresado en una LMI.

Recientemente, ha habido un creciente interés en el estudio de las redes neuronales de Hopfield ya que las redes neuronales
de Hopfield han encontrado amplias aplicaciones en la solución de algunos problemas de optimización, la memoria
asociativa, la clasificación de patrones, reconstrucción de imágenes en movimiento, y otras área. Ahora es bien sabido que
las aplicaciones de las redes neuronales dependen en gran medida su comportamiento dinámico ya que la estabilidad es
uno de los temas más importantes relacionados con este tipo de comportamiento, el problema del análisis de la estabilidad
de las redes neuronales de Hopfield ha atraído considerable atención en los últimos años.

Sobre la base de diferentes supuestos sobre los parámetros de la red, un gran número de resultados sobre la estabilidad
asintótica mundial tiene. En este trabajo, desarrollan una condición de estabilidad mejorada de retardo dependiente
asintótica para las redes neuronales de Hopfield con retrasos de tiempo mediante la utilización de los funcionales de
Lyapunov. Bajo la condición propuesta, tanto la existencia de un punto de equilibrio único y la estabilidad asintótica global
de una red neuronal Hopfield dado retardada están garantizados. La condición derivada se expresa en términos de una
desigualdad de la matriz lineal (LMI), que puede ser verificado numéricamente muy eficientemente por recurrir a algoritmos
estándar recientemente desarrollados tales como los métodos de punto interior, y estará involucrado no la sintonización de
los parámetros[3]. ejem- plos se proporcionan para demostrar la reducción de conservadurismo de la condición propuesta.
Paper Bam
BIDIRECTIONAL ASSOCIATIVE MEMORY (BAM).

Análisis de estabilidad asintótica global de redes neuronales asociativas bidireccionales de memoria con retrasos de tiempo
Este artículo presenta una condición suficiente para la existencia, singularidad y estabilidad asintótica global del punto de
equilibrio para redes neuronales de memoria asociativa bidireccional (BAM) con retrasos de tiempo distribuidos. Los
resultados imponen condiciones de restricción en los parámetros de red del sistema neural independientemente del
parámetro de retraso, y son aplicables a todas las funciones continuas de activación neuronal no monotónica. Se muestra
que en algunos casos especiales de los resultados, los criterios de estabilidad se pueden verificar fácilmente. También se dan
algunos ejemplos para comparar los resultados con los resultados anteriores derivados de la literatura.
Resumen: al extender la memoria asociativa bidireccional modelo de red neuronal, un modelo matemático de redes
neuronales multidireccionales de memoria asociativa (MAM) con tiempo constante se proponen retrasos. Al usar el teorema
de punto fijo de Brouwer y la derivada de Dini superior derecha, una condición suficiente para existencia y la estabilidad
exponencial global de un equilibrio se obtiene el punto.

INTRODUCCIÓN
Las redes NEURALES se han estudiado intensamente en la última década y se han utilizado en diversas aplicaciones como
diseñar recuerdos asociativos y resolver problemas de optimización. Cuando una red neuronal está diseñada para resolver
problemas de optimización, la red neuronal diseñada debe tener un punto de equilibrio único que es globalmente asintótico
estable. Por lo tanto, es de gran interés establecer condiciones que aseguran la estabilidad asintótica global de un punto de
equilibrio único de una red neuronal. Recientemente, muchos investigadores han estudió los equilibrios y las propiedades de
estabilidad de las redes neuronales y presentó varias condiciones suficientes para la singularidad y la estabilidad asintótica
global del punto de equilibrio de diferentes clases de redes neuronales [1] - [10]. Por otro lado, la versión retrasada de las
redes neuronales también ha demostrado ser importante para resolver algunas clases de movimiento problemas de
optimización.
MODELO DE RED NEURAL Y ALGUNOS CONCEPTOS BÁSICOS
Comportamiento dinámico de una red neuronal BAM con constante
los retrasos de tiempo se describen mediante el siguiente conjunto de ecuaciones diferenciales [26]:

EXISTENCIA, UNICIDAD Y ESTABILIDAD DEL PUNTO DE EQUILIBRIO


En esta sección, presentamos un teorema que establece las condiciones que garantizan la existencia, la unicidad y la estabilidad
asintótica global del punto de equilibrio del sistema (1). Bajo Asunción (H2), la red neuronal definida por (1) siempre tiene un punto de
equilibrio [2]. Por lo tanto, lo que hay que demostrar es el singularidad y estabilidad asintótica global del equilibrio punto. Con el fin de
simplificar la prueba de la singularidad y global estabilidad asintótica del punto de equilibrio, cambiaremos el
punto de equilibrio del sistema (1) al origen. Usando la transformación:

COMPARACIONES Y EJEMPLOS
En esta sección, compararemos nuestros resultados con los anteriores resultados derivados en la literatura, que se exponen a
continuación:
Teorema 2 [30]: el punto de equilibrio de la red neuronal definido por (1) es globalmente exponencialmente estable si existen constantes y
tales como:
Bibliografía
[1] Centro Informático Científico de Andalucía(2000, mayo 10). El Modelo de Hopfield [Online] . Available: https://thales.cica.es/rd/Recursos/rd98/TecInfo/07/capitulo5.html

[2] P. Gómez Gil. INAOE (2017, febrero 15). Redes Neuronales Artificiales[Online] . Available:
https://ccc.inaoep.mx/~pgomez/cursos/redes%20neuronales%20artificiales/presentaciones/hopfield.pdf

[3] Gustavo Ramírez, “Método de aprendizaje simple para navegación de minirobots rodantes," Dyna, vol. 70, núm. 138, julio, 2003.

[4] J. Med Phis, “Segmentación y clasificación de imágenes médicas usando características primitivas de textura: aplicación artificial tipo bam,” Journal and Medical Physics, vol 33, núm 3, julio 2008

[5] Anónimo, “Redes Neuronales Artificiales, “ presented in network, City, Country, 2008

[6] Journal of Engineering and Technology for Industrial Applications, (2018, febrero 01). Faults Diagnostic using Hopfield Artificial Neural Network in front of Incomplete
Data [Online] . Available: https://www.researchgate.net/publication/324045029_Faults_Diagnostic_using_Hopfield_Artificial_Neural_Network_in_front_of_Incomplete_Data

[7] Sabri Arik, “IEEE TRANSACTIONS ON NEURAL NETWORKS,” VOL. 16, NO. 3, MAY 2005

[8] Shengyuan Xu, James Lam, Senior Member, IEEE, and Daniel W. C. Ho, Senior Member, IEEE, IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS—II: EXPRESS BRIEFS, VOL.
53, NO. 3, MARCH 2006

Vous aimerez peut-être aussi