Académique Documents
Professionnel Documents
Culture Documents
A) LOS COMPONENTES
BSICOS
El elemento de Proceso Simple (PE)
O Neurona Artificial
Entradas 1
2
PE
Salida
3
4
1) FUNCIONES
(3 de las 150 funciones reales)
Evaluar seales de entrada determinando en
peso de cada una.
2) ENTRADAS Y SALIDAS
Las E ingresan simultneamente al PE. De
acuerdo a un umbral la neurona dispara o
no una salida. Varias Entradas una sola
Salida.
3) FACTOR PESO
Cada Entrada puede tener un Peso relativo
que afecta el impacto como entrada.
3) FACTOR PESO
La Entrada Total en un PE es el producto de
dos vectores:
(e1 , e 2, e 3 . . . e n) y (P1 , P2,
P3 .
..
Pn)
E1 = e
1*
P1 ;
E2 = e
1*
P1
etc
4) FUNCIONES NEURONALES
a) Funcin Sumatoria
Si
e X * PX
es mayor que el umbral
entonces genera una seal de salida.
e1
P1
e2
P2
S=
eX
PX
e3
p3
p4
e4
4) FUNCIONES NEURONALES
b) Funcin de Activacin
El resultado de la debera ingresar a una
Funcin de Activacin antes que a una funcin de
Transferencia. Esto permite variar la salida en
funcin del tiempo y la experiencia
e1
P1
e2
P2
S=
eX
PX
e3
p3
p4
4) FUNCIONES NEURONALES
c) Funcin de Transferencia
El Umbral o Funcin de Transferencia es
generalmente no lineal.
Las funciones
lineales son limitadas y no muy tiles
(x or)
para decidir si se prende una clula
fotoelctrica.
4) FUNCIONES NEURONALES
c) Funcin de Transferencia
1
1
1
-1
X < 0 ^ Y = -1
+ex)
X>0^Y= 1
X < 0 ^ Y = 0
0 X 1 ^Y = X
X > 1 ^ Y = 1
Y = 1 / (1
5) COMBINANDO ELEMENTOS
PEs
Si se combinan varios PEs da lugar a una
capa.
Las entradas se conectan a varios nodos (Pes)
con distinto peso. La salida sigue por un nodo.
Una Capa
6) COMBINANDO CAPAS
Se pueden interconectar varias capas. La
capa que recibe las entradas se llama capa de
entrada y su funcin es un buffer de inputs.
La capa de salida genera los outputs.
Entre una y otra puede haber n capas
ocultas.
Las interconexiones se ponderan por un peso
asociado a cada conexin particular.
Una red es full connected si para cada
salida de una capa existe una conexin para
6) COMBINANDO CAPAS
7) OPCIONES DE
CONECTIVIDAD
La conectividad alude a como las salidas
pueden ser usadas como canales para ser
entradas de otras neuronas:
1. Si la salida de un PE no puede ser entrada de
8) FILTROS
Las capas pueden actuar como filtros generando
representaciones intermedias. Ej. La Matriz de
puntos de la letra A (5 por 7).
La salida activa una representacin ASCII 0100 0001
.
. .
. .
. .
.
. .
.
. .
. . .
. .
.
MODOS Y RANGOS DE
APRENDIZAJE
Los Modos aprendizajes pueden ser:
1.Supervisado: Con un tutor que REFUERZA
hasta congelar los pesos.
2.No supervisado: Aprende de detectar
regularidades.
Los Rangos de aprendizaje pueden ser:
1.Rpido: Poco training Discriminacin baja.
2.Lento: Mucho training (off line)
Discriminacin fina.
TCNICAS DE ENTRENAMIENTO
Las Redes Aprenden la relacin entre Entradas
y Salidas mirando ejemplos de varias Entradas
y Salidas.
LEYES DE APRENDIZAJE
Ley de Hebb y Regla Delta
Ley de Hebb:
Si un PE recibe un input de otro PE y si ambos
son altamente activos (= signo), el peso entre
los PEs debera potenciarse
Regla DELTA:
Para un PE la regla continuamente modifica el
nivel de discrepancia (DELTA) entre el output
deseado y el output real corriente (Ej. Windrow
& Hoff Adaline)
LEYES DE APRENDIZAJE
Regla del descenso y Kohonen
Regla del descenso del gradiente:
Los pesos son modificados por un monto proporcional
a la primera derivada del error respecto del peso.
LEYES DE APRENDIZAJE
Propagacn hacia atrs
Aprendizaje Back Propagation (dos fases con 3
o ms capas):
LEYES DE APRENDIZAJE
Red de Grossberg
La nariz electrnica: La idea de una nariz qumica puede parecer un poco absurda,
pero tiene varios usos en el mundo real. La nariz electrnica se compone de un
sistema de deteccin qumico y de una red que reconoce ciertos patrones de
productos qumicos. Un olor se pasa sobre el arsenal qumico del sensor, se traducen
de formato y la red identifica el producto qumico.