Académique Documents
Professionnel Documents
Culture Documents
Captulo 1
Gerardo Colmenares
CAPTULO I
ALGUNOS HECHOS INTERESANTES DE LAS NEURONAS
Redes Neuronales
Captulo 1
Gerardo Colmenares
ALGO DE HISTORIA
McCulloch y Pitts (1943) fueron los pioneros al desarrollar los
primeros clculos lgicos de redes neuronales.
Von Neuman (1949). Difunde la teora McCulloch-Pitts despus
de ponerla en prctica en el computador ENIAC.
Hebb (1949). Inicia sus estudios en Redes Neuronales Artificiales
(RNA) poniendo en prctica por primera vez las modificaciones
sinpticas entre dos neuronas como parte de las reglas de
aprendizaje debido a la repetida activacin de una neurona por
otra a travs de la sinapsis. Introduce la ley de aprendizaje de
Hebb.
Rosenblatt (1957). Desarrolla la mquina Mark I Perceptrn.
Primer clasificador lineal basado en entrenamiento supervisado.
Introdujo la ley de aprendizaje Perceptrn.
Widrow y Hoff (1960). Introducen el algoritmo Least MeanSquared (LMS) usado para derivar los adaptadores lineales
ADALINE y MADALINE en problemas de clasificacin. Se
inicia el uso de la regla Delta como mecanismo de entrenamiento
para el cambio de los pesos sinpticos.
Minsky (1967). Difunde un texto llamado Perceptrn y advierte
sus limitaciones. (Caso del XOR). Se alinean hacia la Inteligencia
Artificial. Primeros ensayos en Reinforcement como nuevo
rgimen de aprendizaje.
Grossberg (1960-1970), Kohonen (1962-1980). Redescubren el
rgimen de entrenamiento no supervisado mediante aprendizaje
2
Redes Neuronales
Captulo 1
Gerardo Colmenares
Redes Neuronales
Captulo 1
Gerardo Colmenares
Redes Neuronales
Captulo 1
Gerardo Colmenares
Redes Neuronales
Captulo 1
Gerardo Colmenares
Redes Neuronales
Captulo 1
Gerardo Colmenares
Redes Neuronales
Captulo 1
Gerardo Colmenares
Redes Neuronales
Captulo 1
Gerardo Colmenares
Redes Neuronales
Captulo 1
Gerardo Colmenares
entradas
Unidades de Procesamiento
salidas
10
Redes Neuronales
Captulo 1
Gerardo Colmenares
UTILIDAD DE LA RNA
Puede procesar cualquier funcin. (ej.: til para clasificacin,
aproximacin de funciones, pronstico).
Parte esencial en la minera de datos para el reconocimiento de
patrones en los datos.
Procesos de control y aseguramiento de la calidad.
Control de procesos de plantas.
Transformacin de los patrones de entrenamiento mediante
reduccin de datos y/o seleccin de variables.
Problemas de anlisis de supervivencia
Construccin de ndices de seguridad y de riesgo financiero.
Control de fraudes electrnicos.
Reconocimiento de imgenes.
Dbil para modelos que una memorizacin de todo su dominio
(ej.: nmeros primos, factorizacin, etc.)
11
Redes Neuronales
Captulo 1
Gerardo Colmenares
EL SUMADOR1 LINEAL
x1
w1
x2
x3
x4
w2
z
n
wn
w3
w4
Es una traduccin de linear associator. Se entiende como la sumatoria de la combinacin lineal de los pesos
sinptico o parmetros y los valores de las variables de entrada o ejemplos de entrada.
12
Redes Neuronales
Captulo 1
Gerardo Colmenares
13
Redes Neuronales
Captulo 1
Gerardo Colmenares
14
Redes Neuronales
Captulo 1
x1
Gerardo Colmenares
w2
xn w n
w4
x2
W=z1xT = 2 [0 1] = [0 2]
los
vectores
(1 2 3 4 )T ,
x 1 = 1
30
(8 3 2 2 )T , y = (3 5 2 9 1)T ,
x 2 = 1
2
81
y 1 = (3 2 1 0 1)T ,
construir la matriz
15
Redes Neuronales
Captulo 1
Gerardo Colmenares
x1
w 11
x2
xn w n
w 12
16
Redes Neuronales
Captulo 1
Gerardo Colmenares
Redes Neuronales
Captulo 1
Gerardo Colmenares
18
Redes Neuronales
Captulo 1
Gerardo Colmenares
0
n
Funcin sigmoide:
1
n
Funcin tangente hiperblica:
1
EL PERCEPTRON DE ROSENBLATT
Redes Neuronales
Captulo 1
Gerardo Colmenares
x1
z
w1
x
x2
wn
w2
C1
x1
0
Redes Neuronales
Captulo 1
Gerardo Colmenares
w1
1
x2
xn
1
w2
wn
wn
-wn +1
z = 1 si xi wi wn +1 >= 0
z = 0 de otro modo
Redes Neuronales
Captulo 1
Gerardo Colmenares
22
Redes Neuronales
Captulo 1
Gerardo Colmenares
Donde:
C es una constante de aprendizaje previamente seleccionada.
x es el vector de entrada aumentado.
z es el valor deseado y z` el valor estimado.
5. Repetir los pasos 3 y 4 para cada uno de los patrones de entrada.
6. Repetir 3, 4 y 5 para todo el conjunto de entrenamiento hasta que
todos queden clasificados.
NOTA: UN EPOCH (EPOCA) ES UN ITERACIN REALIZADA CON
TODO EL CONJUNTO DE ENTRENAMIENTO PARA MEJORAR LOS
PESOS.
23
Redes Neuronales
Captulo 1
Gerardo Colmenares
EJEMPLO
1
0
0
wviejo
0 0 0 0
0.5 0 0.5 0.5
0.5 0 0.5 0
n
0
0.5
z` (z-z`) C(z-z`)xT
0
1
1
-1
wnuevo_______
0.5 0 0.5 0.5
0.5 0 0.5 0
(Completar el clculo..)
24
Redes Neuronales
Captulo 1
Gerardo Colmenares
3
4
Pesos finales para la clasificacin
correcta que satisfacen todas las
restricciones
Pesos iniciales
Hiperplano y secuencia de la
actualizacin del vector de esos
25
Redes Neuronales
Captulo 1
Gerardo Colmenares
1
z
0.5
1
x2
OR
X1
0
1
0
1
X2
0
0
1
1
Z
0
1
1
1
B) X1 AND X2
26
Redes Neuronales
x1
Captulo 1
Gerardo Colmenares
1
z
1.5
1
x2
AND
X1 X2 Z
0
0
0
1
0
0
0
1
0
1
1
1
C) NAND: NOT(X1 AND X2) / X1 NOT X2
x1
1.5
1
x2
NOT
X1 X2
0
0
1
0
0
1
1
1
Z
1
1
1
0
27
Redes Neuronales
Captulo 1
Gerardo Colmenares
x1
x2
NOR
X1 X2
28
Redes Neuronales
Captulo 1
Gerardo Colmenares
E) FALSE
x1
x2
FALSE
X1 X2
F) XOR
X1 X2
0
0
0
1
1
0
1
1
Z
0
1
1
0
29
Redes Neuronales
Captulo 1
Gerardo Colmenares
X1
0
X2
0
0
0
0
0
0
0
0
0
1
1
1
1
1
1
1
1
X1
0
X2
1
0
0
0
0
1
1
1
1
0
0
0
0
1
1
1
1
X1
1
X2
0
0
0
1
1
0
0
1
1
0
0
1
1
0
0
1
1
X1
1
X2 FUNCION
1
0
FALSE
1
AND
0
1
0
1
0
XOR
1
OR
0
1
OR EQ.
0
1
0
1
0
NAND
1
TRUE
30
Redes Neuronales
Captulo 1
Gerardo Colmenares
X1
Redes Neuronales
Captulo 1
Gerardo Colmenares
001
011
111
010
100
X2
X1
110
Redes Neuronales
x1
Captulo 1
Gerardo Colmenares
1
z
0.5
1
x2
AND
x1
1
z
1.5
1
x2
NAND
x1
1.5
1
x2
Agrupados en una sola red con tres salidas, una para cada categora
sera:
33
Redes Neuronales
Captulo 1
Gerardo Colmenares
z1
1
x1
0.5
1
1
1
x2
z2
1.5
1.5
z3
x1
w1
x2
w2
x3
w3
xi w i
x2
0
0
x3
1
1
z
1
0
34
Redes Neuronales
Captulo 1
Gerardo Colmenares
____________________________________________
_____________________________________________________
La Regla Delta podra generar los pesos correctos para construir las
asociaciones anteriores?
Si __
____________________________________________
_____________________________________________________
No __
____________________________________________
_____________________________________________________
x1
w1
x2
w2
xi w i
n
0
w3
x2
0.5
1.5
0.5
0.5
0.25
z
1
0
0
1
0
35
Redes Neuronales
Si __
Captulo 1
Gerardo Colmenares
____________________________________________
_____________________________________________________
No __
____________________________________________
_____________________________________________________
Cmo estara representada en un plano (x1 x2)
36
Redes Neuronales
x1
x2
Captulo 1
Gerardo Colmenares
w1
w2
x3
w3
w4
xi w i
n
0
x2
0
1
0
0
x3
0
1
0
1
z
1
0
0
1
37
Redes Neuronales
Captulo 1
Gerardo Colmenares
z1
W11
x1
W21
W12
z2
x2
W22
1
3
de entrada 1 con el vector de salida y el vector de entrada
5 4
2
1 4 con el vector de salida 2 .
5 3
1
Cul sera la matriz resultante si se aplica la regla de aprendizaje de
Hebb.
38
Redes Neuronales
x1
x2
Captulo 1
Gerardo Colmenares
w1
w2
x3
w3
w4
xi w i
n
0
x2
1
1
0
0
x3
1
0
0
1
z
0
0
0
1
Al aplicar la regla Delta, cules son los valores de los pesos despus
que el primer ejemplo de entrada es aplicado la primera vez y se
hayan realizado las correcciones.
39