Académique Documents
Professionnel Documents
Culture Documents
EC5721
Quiz 25%
Parcial 30%
Proyecto 30%
bsqueda 15%
Total 100%
Redes Neurales.
Universidad Simn Bolvar
Prof. O. Chang.
Prof. O. Chang.
Rev. 2013
Redes Neurales.
Visin Robtica.
2
Universidad Simn Bolvar
Prof. O. Chang.
Ojo compuesto
El ojo compuesto de un insecto se compone de hasta miles de componentes, rganos llamados
omatidios. La superficie de cada omatidio es una lente hexagonal, bajo la que hay una lente
cnica. Estas lentes enfocan la luz que entra en el omatidio a lo largo de una estructura central
llamada rabdoma, donde se forma una imagen invertida en las clulas retinulares fotosensitivas.
Las clulas pigmentadas que rodean al rabdoma transmiten informacin desde cada uno de ellos
hasta el cerebro, donde se combina para formar una imagen nica del mundo exterior.
Microsoft Encarta Biblioteca de Consulta 2002. 1993-2001 Microsoft
Corporation. Reservados todos los derechos.
3
Universidad Simn Bolvar
Prof. O. Chang.
Fig 005: Dos posibles rutas para recorrer las ciudades retornando al punto de partida.
Sistemas Conexionistas.
4
Universidad Simn Bolvar
Prof. O. Chang.
Funcionamiento Bsico.
Conexin interneurona.
Sistema coneccionista
5
Universidad Simn Bolvar
Prof. O. Chang.
Comunicacin interneuronas.
6
Universidad Simn Bolvar
Prof. O. Chang.
Modelo Esquemtico:
n
Pi = ( Ni * Wi )
i =1
7
Universidad Simn Bolvar
Prof. O. Chang.
Modelo Crudo:
n
Pi = ( Ni * Wi )
i =1
Donde:
Pi = Potencial interno
n = nmero de sinpsis descargando
Ni = Entrada i-sima
Wi = Peso i.
Entonces tendremos:
Pi = (N1*W1 + N2*W2 + ... + Nn*Wn)
8
Universidad Simn Bolvar
Prof. O. Chang.
sinpticas con i. Su valor real en teora puede ser cualquier nmero real
positivo o negativo.
Funcin de Activacin.
Una vez definido el potencial interno, debemos definir una funcin
de activacin la cual relaciona a la salida de la neurona con su potencial.
Como las neuronas vivas son entes fsicos sus salidas siempre tendrn
valores finitos, es decir siempre estarn acotadas entre un mnimo y un
mximo. Las funciones de activacin son variadas y algunas basadas en
reglas simples. Por ejemplo si Pi>0 salida=1. Si Pi0 salida=0. Una
forma muy usada es la sigmoide dada por
Salida=1/(1+exp(-Pi)
Neurona Artificial.
9
Universidad Simn Bolvar
Prof. O. Chang.
Fig. 016: Salida del modelo Standard con diferentes valores de Ganancia (funcin sigmf de
MATLAB).
10
Universidad Simn Bolvar
Prof. O. Chang.
Ejemplo simple:
(0.5*-2) + (0.1*5)
-1 + 0.5 = -0.5
-0.5 * 1 = -0.5
Redes de Neuronas.
11
Universidad Simn Bolvar
Prof. O. Chang.
Entradas Salida
N
Capas Ocultas
Entrenamiento
Mtodos de entrenamiento.
Mtodos de Gradiente
12
Universidad Simn Bolvar
Prof. O. Chang.
Ventajas Desventajas
Funciona con poca informacin Mnimos locales
Regla Delta.
Premisas:
Existe una neurona con pesos asignados aleatoriamente por un
ente externo (captando ruido, antena desde el espacio). Queremos definir
un mtodo iterativo el cual modifique los pesos paulatinamente y haga
que la neurona aprenda por lo menos un caso especfico de entrada /
salida.
13
Universidad Simn Bolvar
Prof. O. Chang.
Donde:
W(n+1) es el peso futuro
W(n) es el peso actual
es el coeficiente de aprendizaje (0.01<= <0.1)
n = 0, 1, 2, ... tiempo de entrenamiento.
Ejemplo:
Condiciones iniciales
G = 1 (constante)
= 0.01
W1 y W2 inicialmente
aleatorios y pequeos (-1,1)
14
Universidad Simn Bolvar
Prof. O. Chang.
Ejemplo:
15
Universidad Simn Bolvar
Prof. O. Chang.
Tabla Equivalente:
A b OUT
0.1 0.1 0.1 Estas 4 cartas conformaran nuestro fichero.
0.1 0.9 0.9
0.9 0.1 0.9
0.9 0.9 0.1
Diagrama de Flechas
Nuevos Desarrollos
(Aos 70)
Rumelhart: Back propagation.
16
Universidad Simn Bolvar
Prof. O. Chang.
Feed forward.
Las redes multicapa (una o ms capas H) pueden aprender
comportamientos complejos, incluyendo el XOR.
Back Propagation
Sistema de Gradiente mximo aplicable a redes multicapa.
Correccin Base.
Error
= (1 OUT ) * (OUT ) * (T OUT )
Wi
1 = o*W1
NOTA: Si W1 es negativo el
triangulo cambia de signo!
2 = o*W2
NOTA: Si W2 < 0, cambia
de signo!
17
Universidad Simn Bolvar
Prof. O. Chang.
Caso genrico:
Muchas entradas / muchas salidas.
Backpropagation.
Ventajas Desventajas
1. Genrico y aplicable a muchas 1. Gradiente mximo mnimos
capas y neuronas por capa. locales.
2. Relativamente simple. 2. Solo funciona para las primeras
capas H (4 5 mximo). Para las
capas ms profundas el error se
18
Universidad Simn Bolvar
Prof. O. Chang.
Capacidad de Inferir.
*Alta dimensionalidad:
Visin Automtica o Visin Robtica.
19
Universidad Simn Bolvar
Prof. O. Chang.
= ngulo de cobertura
= ngulo del cono
Generalmente y el omatdeo slo recibe luz si cae dentro de
su ngulo de cono.
Omatdeo binario.
deteccin de luz
Luz = 0.9
No luz = 0.1
Fig 026: Omatdeo binario.
20
Universidad Simn Bolvar
Prof. O. Chang.
21
Universidad Simn Bolvar
Prof. O. Chang.
Dimensionalidad:
Nmero de imgenes posibles:
32 pix * 32 pix = 1024 pix.
32 pix * 8 pix = 256 pix.
1280 pix. * 8 bits = 10260 bits.
Resultados.
22
Universidad Simn Bolvar
Prof. O. Chang.
Fig 031: Retinas y red neuronal con matrices de pesos en la capa Hidden.
Set 1:
23
Universidad Simn Bolvar
Prof. O. Chang.
24
Universidad Simn Bolvar
Prof. O. Chang.
25
Universidad Simn Bolvar
Prof. O. Chang.
Visin Robtica.
Ojos Radiales
26
Universidad Simn Bolvar
Prof. O. Chang.
Simples de modelar.
Simples de construir.
No requieren enfoque.
Visin Robtica.
27
Universidad Simn Bolvar
Prof. O. Chang.
Fig 043: Red neural para visin robtica con ojos compuestos.
Aterrizaje automtico.
28
Universidad Simn Bolvar
Prof. O. Chang.
TX = K1*d + V0.
Donde:
TX : velocidad ideal (target) en el eje X.
V0 : velocidad mnima de sustentacin.
TY = K2*.
Donde puede ser positivo o negativo.
Sinpsis Dinmica.
n
OUT = sig ( INi * Wi )
i =1
Donde Ni es un nivel DC (analgico) y Wi es
un valor constante
29
Universidad Simn Bolvar
Prof. O. Chang.
Sinpsis Dinmica.
30
Universidad Simn Bolvar
Prof. O. Chang.
31
Universidad Simn Bolvar
Prof. O. Chang.
32
Universidad Simn Bolvar
Prof. O. Chang.
l1
t1 = + 0.5
c
l
t 2 = 2 + 0.5
c
l
t 3 = 3 + 0.5
c
l
t 4 = 4 + 0.5
c
Respuesta compleja
33
Universidad Simn Bolvar
Prof. O. Chang.
Modelos Matemticos
dR
R = = R + k R AP
dt
34
Universidad Simn Bolvar
Prof. O. Chang.
dV
R = = V + EPS P j
dt
Conclusiones
Modelo Doerksen
35
Universidad Simn Bolvar
Prof. O. Chang.
p s (t i ) = 1 e C (ti )V ( ti )
Donde:
ps(ti) = probabilidad de que en el i-simo pulso se descarge
neurotransmisores en la sinpsis s.
C(t) 0 estado de facilitacin de la sinapse en tiempo ti.
V(t) 0 estado de depresin de la sinapse en tiempo ti.
C (t ) = C0 + c(t t i )
ti < t
36
Universidad Simn Bolvar
Prof. O. Chang.
Ejemplo Simple:
Ejemplos:
37
Universidad Simn Bolvar
Prof. O. Chang.
38
Universidad Simn Bolvar
Prof. O. Chang.
39
Universidad Simn Bolvar
Prof. O. Chang.
En general:
40
Universidad Simn Bolvar
Prof. O. Chang.
Facilitation o Replica:
41
Universidad Simn Bolvar
Prof. O. Chang.
En general:
Caso Completo:
42
Universidad Simn Bolvar
Prof. O. Chang.
Ejemplo:
Problema del agente Viajero
TSP Traveling Salesman Problem
43
Universidad Simn Bolvar
Prof. O. Chang.
El n-flop.
Estructura bsica.
44
Universidad Simn Bolvar
Prof. O. Chang.
Estructura bsica.
Calentamiento.
9
10 neuronas ((OUTi ) (1) ) + K K>n
j =1 j i
De hecho si K > n todas las neuronas deben estar sobre 0.5 (ley
de la sigmoide).
45
Universidad Simn Bolvar
Prof. O. Chang.
46
Universidad Simn Bolvar
Prof. O. Chang.
fire_neurona_i{
for j=1 n, j I
OUTi = sig ( OUT j 1)
}
Sistemas Shakleford.
Resumen:
1. Neuronas normales tipo back pro.
47
Universidad Simn Bolvar
Prof. O. Chang.
Mundo Fsico.
i 2
48
Universidad Simn Bolvar
Prof. O. Chang.
Si se tiene un 4-flop
El n2 flop.
49
Universidad Simn Bolvar
Prof. O. Chang.
50
Universidad Simn Bolvar
Prof. O. Chang.
Fig. 095: Correspondencia directa entre salida del flop y ruta. a) Salida del 62 Flop b) Mapa de
ciudades visitadas
51
Universidad Simn Bolvar
Prof. O. Chang.
Todas las rutas que se obtienen son vlidas pero no tiene valor
desde el punto de vista estadstico/optimizacin.
Agregando pesos extra a las estructuras flop podemos modificar
sus estadsticas y obtener resultados ptimos o cuasi-ptimos para
problemas NP.
Efecto de campo
Fig 099: Estadsticas de salida del Flop con efecto de campo (despus).
52
Universidad Simn Bolvar
Prof. O. Chang.
Fig 100: Estadsticas de salida del Flop con efecto de campo negativo sobre una sola neurona.
A X
B 1.00 X
C 0.90 0.50 X
D 0.42 0.71 0.31 X
E 0.65 0.62 0.98 1.00 X
F 0.30 0.85 0.70 0.69 0.40 X
A B C D E F
Regla de Gradiente.
53
Universidad Simn Bolvar
Prof. O. Chang.
Corolario:
Fig 102: En algunos recorridos los mnimos locales dan respuestas no ptimas.
Resultado Final:
Programa CIUDAD.PAS
Efecto Cluster:
CLUSTER Reunin o grupo de ciudades en un mapa dado.
54
Universidad Simn Bolvar
Prof. O. Chang.
Rueda de Carreta:
Otro ejemplo:
Tenemos un rea de silicn y se debe colocar un chip en cada
celda.
1 2 3 4
5 6 7 8
9 10 11 12
rea de Silicn.
Solucin genrica.
(un chip por celda).
55
Universidad Simn Bolvar
Prof. O. Chang.
Potencia Consumida.
56
Universidad Simn Bolvar
Prof. O. Chang.
Regla de Gradiente:
Chips con ms potencia es la parte superior (Celdas 1, 2, 3 y 4).
1 50 lneas.
Regla de Gradiente:
Chips con ms conexiones mutuas deben estar cerca. (esto
minimiza el nmero de cruces de lneas y baja los costos).
1X
2 1.00 X
3 0.10 0.50 X
4 0.00 0.20 0.40 X
*
1
*
2
*
3 4
En donde 1 en la celda 6 representa al Chip 1 y
*
5
1
6
*
7 8 los asteriscos (*) indican las celdas que estn
*
9
*
10
*
11 12 relacionadas en cuanto a nmero de lneas.
57
Universidad Simn Bolvar
Prof. O. Chang.
Fig 108: conexiones del n2 flop para optimizar el nmero de lneas del Chip 1 en la Celda 6 (los pesos
no se muestran en esta figura).
Resultado final:
58
Universidad Simn Bolvar
Prof. O. Chang.
Problemas Asimtricos.
Ejercicio:
59
Universidad Simn Bolvar
Prof. O. Chang.
BIBLIOGRAFA RECOMENDADA.
INDICE.
ANEXOS.
60