Vous êtes sur la page 1sur 7

1.

EVOLUCIÓN HISTÓRICA
Los primeros análisis acerca del comportamiento del cerebro y el proceso de pensamiento
se deben a filósofos griegos, destacando las aportaciones realizadas por Aristóteles {384-
422 a .C.) y Platón (427-347 a.C.), continuadas en la Edad Media por Descartes (1596-
1650) y por los filósofos empiristas del siglo XVII.
En 1936, Alan Turing fue el primero en estudiar el cerebro desde el punto de vista
computacional, si bien los trabajos pioneros para la construcción de modelos matemáticos
que imitasen el comportamiento de las neuronas biológicas se deben a Warren McCulloch
y Walter Pitts (neurofisiología y matemático, respectivamente), que presentaron en 1943
uno de los primeros modelos abstractos de una neurona artificial (McCU LLOCH y
PITTS, 1943). Pocos años más tarde, HEBB (1949) propuso una ley explicativa del
aprendizaje neuronal, conocida como "regla de Hebb" que se convirtió en la antecesora
de las modernas técnicas de entrenamiento de Redes Neuronales Artificiales.
A partir de estas aportaciones iniciales, durante la década de los años 50 y 60 surgieron
nuevos desarrollos, destacando los trabajos de MINSKY (1954) y ROSEN BLATT
(1958), quien desarrollo la red conocida como Perceptrón o Perceptrón Simple, un
modelo sencillo capaz de generalizar el conocimiento, es decir, tras aprender una serie de
patrones podía reconocer otros similares, aunque no se le hubieran presenta do
previamente.
Casi al mismo tiempo, WIDROW y HOFF (1960) desarrollaron una importante variación
del algoritmo de aprendizaje del Perceptrón, La denominada "ley de Widrow-Hoff", que
dio lugar al modelo ADALINE (ADAptive LINear Elements), que constituyó La primera
RNA aplicada a un problema real (la eliminación de ecos de las líneas telefónicas a través
de filtros adaptativos), y que ha continuado utilizándose durante años.
A pesar de los brillantes inicios de la investigación neuronal, el interés de la comunidad
científica por las RNAs decreció enormemente con la publicación en 1969 del Libro
Perceptrons por parte de Marvin Minsky y Seymour Papert, del Instituto Tecnológico de
Massach ussets (MIT). Estos autores demostraron importantes limitaciones teóricas en el
aprendizaje de los modelos neurona les artificiales desarrollados hasta entonces, en
particular de la red Perceptrón, que eran incapaces de aprender funciones no linealmente
separables, lo que las convertía en meros juguetes matemáticos sin aplicabilidad práctica
real.
A partir de este trabajo, numerosos autores abandonaron el ámbito neuronal para centrarse
en el análisis de los sistemas simbólicos basados en el conocimiento, mucho más
prometedor en aquel momento. No obstante, otros autores continuaron investigando en el
campo de las RNAs, destacando particularmente el Asociador Lineal desarrollado por
James Anderson en 1977 y su extensión conocida como red "Brain-State-in-a-Box", que
permitieron modelizar funciones arbitra riamen te complejas (ANDERSON, 1968;
ANDERSON et al., 1977). Durante la década de los años 80 se desarrollaron diversas
redes autoasociativas, especializadas en la detección de clusters de ejemplos, tales como
la red Neurocognitrón (FUKUSHIM A, 1980), o la red LVQ (KOHON EN, 1977).
En 1982 coincidieron numerosos eventos que hicieron resurgir el interés en las RNAs.
John Hopfield presentó su trabajo sobre redes neurona les en la Academia Naciona l de
las Ciencias (HOPFIELD, 1982), describiendo con claridad y precisión una variante del
Asociador Lineal inspirada en la minimización de la energía presen te en los sistemas
físicos, conocida como "red de Hopfield". Por su parte, FELDMAN y BALLARD (1982)
perfeccionaron los modelos de redes conexionistas, generalizando sus aplicaciones.
Además, en 1982 se celebró la "U.S.-Japa n Joint Conference on
Cooperative/Competitive Neu ral Networks'', y Fujitsu comenzó el desarrollo de "com
putadores pensantes" para diversas aplicaciones en robótica.
En 1985 tuvo lugar la primera reunión anual "Neural Networks for Computing",
orgaizada por el Instituto Americano de Ffsica, a la que seguirian en 1987 la primera
conferencia internacional sobre redes neurona les del IEEE y la "lnternational Neural
Network Society" (IN NS), dirigida por Grossberg (EE. UU.), Kohonen (Finlan dia) y
Amari (Japón).
Un avance muy significativo tuvo lugar con la formulación de una nueva regla de
aprendizaje supervisad o, la denominada "Regla Delta Generalizada" por parte de
WERBOS (1974), PARKER (1985) y LeCUNN (1987), popu larizada en los trabajos de
RUMELHART y McCLELLAND (1986; 1988). Asimismo, el desarrollo por
RUMELHART et al. {1986b) del algoritmo de aprendizaje supervisa do para RNAs
conocido como "back propagation" ofreció una solución muy poderosa para la
construcción de redes neurona les más compleja s, al evitar los problemas observados en
el aprendizaje del Perceptrón Sim ple. Este algoritmo constituye desde entonces una de
las reglas de aprendizaje de mayor utilización en el ámbito de la neurocomputación para
el entrenamiento de la red conocida como Perceptrón Multicapa .
En 1988, los esfuerzos de la IEEE y de la INNS se unieron para formar la "lnternational
Joint Conference on Neural Networ ks" (IJCNN) y, tres años más tarde, surgió la "Internat
ional Conference on Artificial Neural Networks" (ICANN), organizada por la Sociedad
Europea de Redes Neurona les. Asimismo, desde 1987 se viene celebrando la reunión
anual "Neural Information Processing Systems" (NIPS), que constituye uno de los
referentes de más alto nivel en este campo de investigación .
Como consecuencia de estos esfuerzos, las RNAs han experimentado un importante
desarrollo en los últimos años, hasta el punto que el paradigma conexionista ha llegado a
superar a las aplicaciones basadas en modelos simbólicos. En los últimos años, las
investigaciones se centran en la combinación de ambos paradigmas de aprendizaje, al
objeto de conseguir sinergias entre la capacidad de procesa miento y aproximación de las
RNAs, que pueden llegar a soluciones sorprendentemente buenas con rapidez y poca
información de partida, y el potencial explicativo de los sistemas basados en el
conocimiento, como demuestran los trabajos de HRYCEJ (1992), McN ELIS (1997;
2005) y BAESENS et al. (2003), entre otros.
2. ELEMENTOS Y CARACTERÍSTICAS PRINCIPALES DE UNA RED
NEURONAL ARTIFICIAL
Las RNAs están formadas por una serie de procesadores elementales, denomina- dos
neuronas artificiales, que constituyen dispositivos simples de cálculo que, bien a partir de
un vector de entrada procedente del mundo exterior, bien a partir de estímulos recibidos
de otras neuronas, proporcionan una respuesta única (salida). Resulta útil la
caracterización de tres tipos de neuronas artificiales: unidades de entrada, de salida y
unidades ocultas (Figura 2.3).
 Las neuronas de entrada reciben señales desde el entorno, provenientes de
sensores o de otros sectores del sistema (como archivos de almacenamiento de
patrones de aprendizaje).
 Las neuronas de salida envían su señal directamente fuera del sistema una vez
finalizado el tratamiento de la información (salidas de La red).
 Las neuronas ocultas reciben estímulos y emiten salidas dentro del sistema, sin
mantener contacto alguno con el exterior. En ellas se lleva a cabo el procesamiento
básico de la información, estableciendo la representación interna de ésta.

3. FUNCIONES EN EL MODELO DE NEURONA ARTIFICIAL

Función de entrada.
La neurona trata a muchos valores de entrada como si fueran uno solo; esto recibe el
nombre de entrada global.
función activación
La función activación calcula el estado de actividad de una neurona.
Función Escalón
La Figura muestra como esta función de transferencia acerca la salida de la red a cero, si
el argumento de la función es menor que cero y la lleva a uno si este argumento es mayor
que uno. Esta función crea neuronas que clasifican las entradas en dos categorías
diferentes, característica que le permite ser empleada en la red tipo Perceptrón.

Función de signos
Una modificación de esta función puede verse en la Fig. 1.11, la que representa la función
de transferencia Escalón Simétrica (Hardlims) que restringe el espacio de salida a valores
entre 1 y –1.

Función de Transferencia sigmoidal


Esta función toma los valores de entrada, los cuales pueden oscilar entre más y menos
infinito, y restringe la salida a valores entre cero y uno, de acuerdo a la expresión:

Función de salida
El último componente que una neurona necesita es la función de salida. El valor resultante
de esta función es la salida de la neurona i (outi); por ende, la función de salida determina
que valor se transfiere a las neuronas vinculadas

4. APRENDIZAJE Y ENTRENAMIENTO
Aprendizaje Supervisado
De forma simple, en Aprendizaje Supervisado se cuenta con un conjunto de ejemplos de
los cuáles conocemos la respuesta. Lo que deseamos es formular algún tipo de regla o
correspondencia que nos permita dar (o aproximar) la respuesta para todos los objetos
que se nos presenten.
Aprendizaje no supervisado
clasificación no supervisados son aquellos en los que no disponemos de una batería de
ejemplos previamente clasificados, sino que únicamente a partir de las propiedades de los
ejemplos intentamos dar una agrupación (clasificación, clustering) de los ejemplos según
su similaridad.
Aprendizaje hibrido
No se dice ante un patrón de objetivo si no la respuesta se dice falla o no ante una entrada.
Aplicaciones de la vida real
Las tareas se aplican a las redes neuronales artificiales tienden a caer dentro de las
siguientes categorías generales:
 Aproximación de funciones, o el análisis de regresión, incluyendo la predicción
de series de tiempo, aproximación de la capacidad y el modelado.
 Clasificación, incluyendo el patrón y la secuencia de reconocimiento, detección y
de la toma de decisiones secuencial.
 Procesamiento de datos, incluyendo el filtrado, el agrupamiento, la separación
ciega de fuentes y compresión.
 Robótica, incluyendo manipuladores, que dirigen la prótesis.
 De control, incluyendo control numérico por ordenador.

Las redes neuronales artificiales se han utilizado también para el diagnóstico de varios
tipos de cáncer.

Algoritmos de Aprendizaje.
Aprendizaje
• El aprendizaje es el proceso por medio del cual, los parámetros libres de una red
neuronal son adaptados a través de un proceso de estimulación por el ambiente en el cual
la red se encuentra inmersa.
• El tipo de aprendizaje es determinada por la manera en la cual el cambio de parámetros
tiene lugar.

El aprendizaje es el proceso por el cual una red neuronal modifica sus pesos en respuesta
a una información de entrada. Los cambios que se producen durante el proceso de
aprendizaje son la destrucción, modificación y creación de conexiones entre las neuronas.

Tipos de Aprendizaje
 Aprendizaje Supervisado
 Aprendizaje No supervisado
 Aprendizaje por Reforzamiento.
APRENDIZAJE SUPERVISADO
Se realiza mediante un entrenamiento controlado por un agente externo (supervisor,
maestro), que determina la respuesta que debería generar la red a partir de una entrada
determinada.
Algoritmos de Aprendizaje Supervisado
Se realiza mediante un entrenamiento controlado por un agente externo (supervisor,
maestro.
 Aprendizaje por Corrección de error.
 Aprendizaje por Refuerzo.
 Aprendizaje Estocástico.

Aprendizaje No supervisado
El aprendizaje no supervisado o auto supervisado no hay un maestro o critico externo
para supervisar el proceso de aprendizaje.
No existen ejemplos etiquetados de la función que será aprendida por la red
También llamado auto supervisado, no requieren influencia externa para ajustar los pesos
de las conexiones entre sus neuronas. existen varias posibilidades en cuanto a la
interpretación de la salida de estas redes, que dependen de su estructura o del algoritmo
de aprendizaje empleado los casos de salida pueden representar:

Vous aimerez peut-être aussi