Vous êtes sur la page 1sur 27

Redes Neuronales Artificiales

2
R
e
d
e
s

N
e
u
r
o
n
a
l
e
s

A
r
t
i
f
i
c
i
a
l
e
s
Red de Hopfield
Problema de memoria asociativa
Almacenar un conjunto de p patrones de forma tal
que cuando se presente un nuevo patrn, la red
responda produciendo alguno de los patrones
previamente almacenados que ms se parezca al
presentado.
3
R
e
d
e
s

N
e
u
r
o
n
a
l
e
s

A
r
t
i
f
i
c
i
a
l
e
s
Red de Hopfield
Las memorias asociativas resuelven problemas del
tipo de reconstruccin de patrones y memorias
direccionables por contenido.
La red de Hopfield consiste de una red monocapa
con N neuronas cuyos valores de salida pueden ser
binarios o continuos.
Cada neurona se encuentra conectada a todas las dems pero
no consigo misma.
Los pesos asociados a las conexiones entre pares de neuronas
son simtricos, es decir, w
ij
=w
ji
.
4
R
e
d
e
s

N
e
u
r
o
n
a
l
e
s

A
r
t
i
f
i
c
i
a
l
e
s
1 N 3 2
...
x
1 x
2
x
3 x
N
e
1
e
2
e
3
e
N
w
N3
w
N2
w
N1
Red de Hopfield
Estructura:
5
R
e
d
e
s

N
e
u
r
o
n
a
l
e
s

A
r
t
i
f
i
c
i
a
l
e
s
Funcionamiento:
En el instante (t=0) se aplica la informacin de
entrada (valores e
1
,e
2
,...,e
N
)
s
i
(t=0)=e
i
para 1<=i<=N
La red realiza iteraciones hasta alcanzar la
convergencia (hasta que s
i
(t+1) = s
i
(t)).
s
i
(t+1)=f [
j=1,N
w
ij
s
j
(t)-t
i
] para 1<=i<=N
Red de Hopfield
6
R
e
d
e
s

N
e
u
r
o
n
a
l
e
s

A
r
t
i
f
i
c
i
a
l
e
s
Aprendizaje:
No supervisado de tipo hebbiano.
Expresin:
w
ij
=
k=1,M
e
i
(k)
e
j
(k)
para 1<=ij<=N;i j
0 para 1<=ij<=N;i= j
Red de Hopfield
7
R
e
d
e
s

N
e
u
r
o
n
a
l
e
s

A
r
t
i
f
i
c
i
a
l
e
s
Suponiendo K clases a almacenar en una red
con N nodos.
1. Se calculan los pesos W
ij
2. Se muestra a la red un vector
3. La red itera en pasos discretos hasta la
convergencia.
4. El vector mostrado es el vector de salida.
Red de Hopfield
8
R
e
d
e
s

N
e
u
r
o
n
a
l
e
s

A
r
t
i
f
i
c
i
a
l
e
s
Red de Hopfield
1. Calcule los pesos: w
ij
=X
k
i
X
k
j
2. Inicialice la red con un vector de entrada X
3. Itera hasta converger:
y
j
(t+1)=F
h
[w
ij
y
j
(t)]
Siendo: F
h
(x)=1 si x>0
-1 si x<0
y
j
(t) si x=0
9
R
e
d
e
s

N
e
u
r
o
n
a
l
e
s

A
r
t
i
f
i
c
i
a
l
e
s
Red de Hopfield
Ejemplo
1. Almacenar los patrones:
X1=[1,-1,1,1] y X2=[-1,1,1,1]
Multiplicamos cada patrn por su traspuesta
1 -1 1 1
-1 1 -1 -1
1 -1 1 1
1 -1 1 1
1
-1
1
1
*
[1, -1, 1, 1]
=
10
R
e
d
e
s

N
e
u
r
o
n
a
l
e
s

A
r
t
i
f
i
c
i
a
l
e
s
1 -1 -1 -1
-1 1 1 1
-1 1 1 1
-1 1 1 1
Sumamos estos productos haciendo la
diagonal 0.
0 -2 0 0
-2 0 0 0
0 0 0 2
0 0 2 0
-1
1
1
1
*
[-1, 1, 1, 1]
=
W=
11
R
e
d
e
s

N
e
u
r
o
n
a
l
e
s

A
r
t
i
f
i
c
i
a
l
e
s
Red de Hopfield
Ejemplo
Sea que deseamos recuperar el vector X=[1, 1, 1, -1]
Evaluamos la red, X*W
[1, 1, 1, -1] *
0 -2 0 0
-2 0 0 0
0 0 0 2
0 0 2 0
=
=
[-2, -2, -2, 2]
Y
1
=[-1, -1, -1, 1]
Y
1
< > X
12
R
e
d
e
s

N
e
u
r
o
n
a
l
e
s

A
r
t
i
f
i
c
i
a
l
e
s
Red de Hopfield
Ejemplo
Ahora evaluamos la red, y
1
*W
[-1, -1, -1, 1] *
0 -2 0 0
-2 0 0 0
0 0 0 2
0 0 2 0
= [2, 2, 2, -2]
Y
2
=[1, 1, 1, -1]
Y
1
< > Y
2
13
R
e
d
e
s

N
e
u
r
o
n
a
l
e
s

A
r
t
i
f
i
c
i
a
l
e
s
Red de Hopfield
Aplicaciones:
Reconocimiento de imgenes y de voz
Control de motores
Resolucin de problemas de optimizacin
Diseo de conversores anlogos
Procesamiento de seales.
14
R
e
d
e
s

N
e
u
r
o
n
a
l
e
s

A
r
t
i
f
i
c
i
a
l
e
s
En teora de redes neuronales podemos distinguir tres niveles
en su arquitectura:
Microestructura. Hace referencia a los elementos ms
pequeos de las redes neuronales: las neuronas.
Mesoestructura. Resultado de la combinacin de las
neuronas. Seran las redes neuronales propiamente dichas.
Macroestructura. Combinacin de redes, se podra
denominar a este nivel comit de expertos. Existen
diferentes tipos de combinacin: paralelo, jerrquica, etc.
dependiendo de la aplicacin que se quiera implementar.
Arquitectura de las redes
15
R
e
d
e
s

N
e
u
r
o
n
a
l
e
s

A
r
t
i
f
i
c
i
a
l
e
s
Microestructura
La neurona puede tener diferentes formas dependiendo de la
aplicacin:
16
R
e
d
e
s

N
e
u
r
o
n
a
l
e
s

A
r
t
i
f
i
c
i
a
l
e
s
Mesoestructura
La combinacin de las neuronas se puede realizar de muchas
formas diferentes. En esta combinacin se habla de capas y
dependiendo del nmero de stas y de la conexin entre ellas
tenemos diferentes clasificaciones.
Nmero de capas
Tipos de conexiones
Nmero de conexiones
Monocapa (1 capa)
Multicapa
Recurrente (Hay realimentacin)
No recurrente
Totalmente conectada
Parcialmente conectada
17
R
e
d
e
s

N
e
u
r
o
n
a
l
e
s

A
r
t
i
f
i
c
i
a
l
e
s
Macroestructura
Existen problemas donde una combinacin de redes
da un mejor comportamiento que usar una sola red.
Esta combinacin puede ser en paralelo (todas
tienen el mismo peso), en serie (la salida de una red
es la entrada a otra mayor), jerrquica (en
problemas de clasificacin, existen redes ms
expertas que otras), etc. o variaciones de ellas
dependiendo de la aplicacin concreta.
18
R
e
d
e
s

N
e
u
r
o
n
a
l
e
s

A
r
t
i
f
i
c
i
a
l
e
s
Algoritmos de aprendizaje
Los procedimientos para determinar las conexiones entre
neuronas reciben el nombre de algoritmos de aprendizaje ya
que es en los pesos donde reside el conocimiento de una red.
NO-Supervisado
Extraccin de caractersticas
Agrupamiento de datos
Supervisado
Clasificacin de patrones
Clasificacin de patrones
Modelizacin
Modelizacin
de sistemas
de sistemas
Por Refuerzo Por Correccin
19
R
e
d
e
s

N
e
u
r
o
n
a
l
e
s

A
r
t
i
f
i
c
i
a
l
e
s
El supervisado dispone de informacin sobre la salida deseada
de la red.
Aprendizaje por correccin. Se dispone de informacin
adecuada. Al disponer de informacin lgica (es o no la seal
deseada) estamos en un aprendizaje por refuerzo.
La funcin debe ser siempre una funcin montona creciente
de la diferencia entre la seal deseada (seal que debera dar
la red) y la salida proporcionada por la red. El problema es,
pues, de optimizacin: bsqueda del mnimo de una funcin .
20
R
e
d
e
s

N
e
u
r
o
n
a
l
e
s

A
r
t
i
f
i
c
i
a
l
e
s
Hay que tener en cuenta que una de la principales
caractersticas de las redes neuronales, que las hacen
especiales frente a otros mtodos, es su capacidad de
generalizacin; es decir, ante entradas desconocidas son
capaces de dar salidas aproximadas a las deseadas.
21
R
e
d
e
s

N
e
u
r
o
n
a
l
e
s

A
r
t
i
f
i
c
i
a
l
e
s
Aprendizaje por propagacin posterior
Se le presentan a la red las entradas (ejemplos), y si
esta calcula un vector de salida que coincida con la
meta, no hay nada que hacer. Pero si existe un error
(diferencia entre la salida y la meta) los pesos se
ajustan para disminuir el error. El secreto consiste
en evaluar las consecuencias del error y dividirlas
entre todos los pesos contribuyentes.
22
R
e
d
e
s

N
e
u
r
o
n
a
l
e
s

A
r
t
i
f
i
c
i
a
l
e
s
Regla de actualizacin
W
i,j
W
i,j
+ x a
j
x Err
i
x g(Ini)
23
R
e
d
e
s

N
e
u
r
o
n
a
l
e
s

A
r
t
i
f
i
c
i
a
l
e
s
Wi,j W
i,j
+ x a
j
x Err
i
x g( Ini)
W
i,j
= Peso del enlace que est entre la unidad j y la unidad i
g = Derivada de la funcin de activacin
= Velocidad de aprendizaje
a
j
= Unidades ocultas
T
i
= Salida Meta
Err
i
= Ti - Oi
I
i
= Activacin de un a unidad i en el nivel de entrada
24
R
e
d
e
s

N
e
u
r
o
n
a
l
e
s

A
r
t
i
f
i
c
i
a
l
e
s
Aprendizaje por refuerzo
Un ejemplo. El ambiente propone pares de entrada/salida y
el objetivo consiste en aprender la funcin que haya
producido tales pares.
En el aprendizaje por refuerzo no se le proporcionan
ejemplos, se empieza sin contar con un modelo de ambiente
ni con una funcin de utilidad.
25
R
e
d
e
s

N
e
u
r
o
n
a
l
e
s

A
r
t
i
f
i
c
i
a
l
e
s
El aprendizaje por refuerzo es otra forma de plantear todo el problema de
la inteligencia artificial.
Un agente en un ambiente recibe percepciones, los correlaciona con
utilidades positivas o negativas y luego decide que accin emprender.
La utilidad de un estado es la suma esperada de recompensas recibidas
entre el momento presente y el final de la secuencia.
Para aprender la utilidades pueden utilizarce 3 metodos
1- PMC (Promedio de mnimos cuadrados)
2- PDA (Programacin dinmica adaptativa)
3- DT (Desviaciones temporales )
26
R
e
d
e
s

N
e
u
r
o
n
a
l
e
s

A
r
t
i
f
i
c
i
a
l
e
s
Conclusiones
El aprendizaje es la adaptacin al ambiente.
El aprendizaje por refuerzo es una rea muy activas en la
investigacin del aprendizaje maquinal. Sus aplicaciones en la
robtica son prometedoras, el aprendizaje por refuerzo en
ambientes inaccesibles es tambin tema de investigaciones
actuales.
27
R
e
d
e
s

N
e
u
r
o
n
a
l
e
s

A
r
t
i
f
i
c
i
a
l
e
s

Vous aimerez peut-être aussi