Académique Documents
Professionnel Documents
Culture Documents
El primer modelo de neurona, propuesto por McCulloch y Pitts en los aos 40, es
un combinador lineal: la neurona realiza una combinacin lineal de las seales de
entrada, cada una de las cuales tiene su peso, jo o no, y en funcin del valor
obtenido puede activarse o no (si supera un cierto valor umbral, se activa y
devuelve una salida; si no, devuelve otro). El modelo puede mejorarse aplicando la
salida de la combinacin lineal a una cierta funcin, generalmente diferenciable,
aunque ello no es imprescindible, y comparar el valor que toma la funcin con el
valor umbral para determinar si la neurona se activa o no.
Una red neuronal se puede representar
mediante un grafo dirigido, donde cada nodo
representa una neurona, y las aristas
representan las conexiones entre las
mismas. Es claro que el grafo es dirigido,
pues las seales que se envan las neuronas
entre s son siempre en el mismo sentido (y
por tanto, tiene sentido que las aristas sean
dirigidas). Lo que s puede ocurrir, y de
hecho ocurre en todos los modelos
recurrentes de redes neuronales, es que la
salida de una neurona inuya en sus propias
entradas; es decir, una neurona se puede
realimentar.
Una red neuronal puede ser entrenada para que realice unas determinadas
tareas. Una de las formas ms comunes de realizar dicho entrenamiento es
proporcionar a la red un determinado conjunto de entradas y las correspondientes
salidas que se esperan para esas entradas. De ese modo las neuronas de la red
podran, si por ejemplo estuviramos trabajando con una red formada por
neuronas de McCulloch-Pitts, ajustar sus pesos para conseguir obtener los
resultados deseados. Adems, si se trabaja previamente sobre el problema a
resolver, se puede disear la estructura de la red de forma que resulte ms
sencillo el tratamiento del mismo.
En general, se espera de una red neuronal articial que responda de forma similar
ante entradas parecidas; es decir, que la red tenga capacidad de generalizacin.
Para comprobar si dos entradas son parecidas se puede medir la distancia
(vectorial) entre ambas, o utilizar cualquier otro tipo de medida que tenga sentido
en el contexto del problema que estemos resolviendo.
El modelo neuronal de McCulloch y Pitts fue el primer modelo neuronal moderno, y
ha servido de inspiracin para el desarrollo de otros modelos neuronales. Sin
embargo, en muchos de los estudios en que refieren a este modelo, no se
interpreta correctamente el sentido que quisieron dar originalmente McCulloch y
Pitts, atribuyndole caractersticas o funciones que no fueron descritas por sus
autores, o restndole importancia a la capacidad de procesamiento del modelo.
Por otro lado, el modelo McCulloch-Pitts por s mismo est retomando importancia
debido a que es uno de los pocos modelos digitales en tiempo discreto y, como
para realizar implantaciones electrnicas o computacionales de las neuronas
artificiales en la actualidad se utilizan sistemas digitales, con la mayora de los
modelos analgicos actuales es necesario realizar ciertas adaptaciones a los
modelos al momento de implantarlos, lo que dificulta y hace imprecisa a dicha
implantacin con respecto al comportamiento terico derivado del modelo.
Definicin
En trminos generales, la neurona de
McCulloch-Pitts es una unidad de clculo que
intenta modelar el comportamiento de
una neurona "natural", similares a las que
constituyen del cerebro humano. Ella es la
unidad esencial con la cual se construye una
red neuronal artificial.
El resultado del clculo en una neurona
consiste en realizar una suma ponderada de
las entradas, seguida de la aplicacin de una
funcin no-lineal, como se ilustra en la
siguiente figura
Donde
es la suma ponderada.
es el valor de la i-sima entrada (input).
es el peso (weights) de la conexin entre la i-sima entrada y la
neurona.
Con
y
boolean mistake;
do{
mistake = false;
for(int i = 0; i < entries.length; i++){
double net = computeNet(entries[i]);
if(net != outputs[i]){
mistake = true;
adjustWeights(entries[i],net,outputs[i]);
}
}
}while(mistake);
}
public void outputFinalWeights(){
for(int i = 0; i< weights.length; i++){
System.out.println("Peso " + (i+1) +
weights[i]);
"=" +
}
}
Referencias
1. D. Michie, D.J. Spiegelhalter, C.C. Taylor (eds). Machine Learning, Neural
and Statistical Classification, 1994. [1]
2. R. Rojas. Neural Networks: A Systematic Introduction, Springer, 1996 .ISBN
3-540-60505-3.
3. Freund, Y. and Schapire, R. E. 1998. Large margin classification using the
perceptron algorithm. In Proceedings of the 11th Annual Conference on
Computational Learning Theory (COLT' 98). ACM Press.
4. Gallant, S. I. (1990). Perceptron-based learning algorithms. IEEE
Transactions on Neural Networks, vol. 1, no. 2, pp. 179-191.
5. Rosenblatt, Frank (1958), The Perceptron: A Probabilistic Model for
Information Storage and Organization in the Brain, Cornell Aeronautical
Laboratory, Psychological Review, v65, No. 6, pp. 386-408.
6. Minsky M L and Papert S A 1969 Perceptrons (Cambridge, MA: MIT Press)
7. Novikoff, A. B. (1962). On convergence proofs on perceptrons. Symposium
on the Mathematical Theory of Automata, 12, 615-622. Polytechnic Institute
of Brooklyn.
8. Widrow, B., Lehr, M.A., "30 years of Adaptive Neural Networks: Peceptron,
Madaline, and Backpropagation," Proc. IEEE, vol 78, no 9, pp. 1415-1442,
(1990).