Académique Documents
Professionnel Documents
Culture Documents
- Capa de Salida
- Capas Ocultas
1.3. Consideraciones Prcticas
- Datos de Entrada
- Funciones de Transferencia
- Dimensionamiento de la estructura
1.4. Control de Convergencia
- Mnimos Locales
- Momento
- Heursticas para incrementar la velocidad de aprendizaje
netapj w ji x pi
i0
Notacin:
h
pj
f j (netahpj)
o
opj f j (netapj)
ARQUITECTURA DE PESOS
Capa de Salida
Como en la capa de salida puede haber un n >1 de PE, en este caso no nos basta
con un nico valor de error:
pk ( y p opk )
k
2
1
( y o )
2
E p 21
pk
pk
pk
2 k
k 1
E p
E p
o pk
( y
)
pk
o
k
wkj
(neta pk )
o
(neta pk
)
o o1
o1
(
) i pj
o
o wkj
wk
wkj
i
j
Todo
implica
pj
que:
( y pk opk )
o
k
o1
(neta pk )
o
wkj
(neta pk ) i pk
De tal manera que los pesos en la capa de salida se modificarn de la siguiente manera:
o
(t)
o pk )
p wkj (t)
( y pk
o1
f (neta pk )ipj
f neta neta
fo ok 11 o
neta f
f (
)
(1 e k
k
k netak
)
o
(
ko
o
k)
o
o
k
( y
)( f o
fo (1 foo)
pk
k
k
(1 o )
pk
f o (netao
pk
pk
o pk
neta pk
Sea:
o1
pk
pk
Capas Ocultas
Como determinamos los valores esperados de los PE en las capas ocultas?
Ep est relacionado con la salida de los PE en capas ocultas de la siguiente manera:
1
E p (ypk opk)
))
pk
o
(y
f
pk k(netao
o h
o
(ypk f k(wkji pj ))
j
h h1
i pj f j (netapj) f j ( w ji i pi
De tal manera:
Ep
h
w ji
w ji
( y pk opk)
(ypk
opk )
pk
pk
opk
o )
(netaopk)
h1
j k
Con lo que:
wh f h (netah )ih1
(y
) f o ( netao
)wo
netapk
h
i pj
i pj
netapj
netahpj whji
ji
h
ji
pj
pi
pk
k
f h (netah )ih1 o o
wkj
pj pi pk
j
pk
k
pk
kj
Las actualizaciones de los pesos en la capa oculta dependen de todos los trminos de
errores de la capa de salida. Esto es a lo que se refiere uno con el nombre de
propagacin hacia atrs.
pj f
h
h
j
h1
Entonces:
h
ji
(t 1) w j (t)
pj i
Los trminos de error de las unidades ocultas, se calculan antes de que hayan sido
modificado los pesos de conexiones con las unidades de la capa de salida.
CONSIDERACIONES PRCTICAS
Este tipo de estructuras se introducen para resolver problemas que no son linealmente
separables.
Se pueden emplear todos los datos disponibles para entrenar la red. Lo que se
necesita es: Subconjunto de datos que cubran todo el espacio de los mismos.
La BPN admite la Generalizacin:
Dados varios vectores de entrada
(no pertenecientes al conjunto de
entrenamiento), similares
a
patrones existentes en el conjunto
de entrenamiento, la red reconocer
las similitudes entre dichos
patrones.
La BNP no extrapola bien es
decir: Si la red se entrena mal o
insuficientemente, las salidas
pueden ser imprecisas.
f(
x)
(an cos nx
n0
bn
2
2
sen
nx)
a0
n1
c
n
s
e
n
(
n
x
cn (an bn )
n )
F=sen(i)
C1
1
C2
F=sen(i)
2
Cn
F=sen(i)
n arctang(b a)
X
f(x)
a0
FuncinTransferencia F=sen(i).
CONTROL DE CONVERGENCIA
kj
(t 1) wkj (t )
o1
o
pk
pk
p wkj (t 1)
Una vez que la red se asienta en un mnimo, sea local o global, cesa el
aprendizaje, aunque el error siga siendo demasiado alto, si se ha alcanzado un
mnimo local.
APLICACIONES
Compresin y Codificacin de Informacin
Reconocimiento de Palabras.
Reconocimiento de Objetos.
Deteccin de Caras.
Reconocimiento de Patrones
Segmentacin de Imgenes
Bibliografia.
http://www.varpa.org/
http://catarina.udlap.mx/
www.ibiblio.org