Académique Documents
Professionnel Documents
Culture Documents
Las redes neuronales (también conocidas como sistemas conexionistas) son un modelo
computacional basado en un gran conjunto de unidades neuronales simples (neuronas
artificiales), de forma aproximadamente análoga al comportamiento observado en los axones
de las neuronas en los cerebros biológicos. Cada unidad neuronal está conectada con muchas
otras y los enlaces entre ellas pueden incrementar o inhibir el estado de activación de las
neuronas adyacentes. Cada unidad neuronal, de forma individual, opera empleando funciones
de suma. Puede existir una función limitadora o umbral en cada conexión y en la propia
unidad, de tal modo que la señal debe sobrepasar un límite antes de propagarse a otra
neurona. Estos sistemas aprenden y se forman a sí mismos, en lugar de ser programados de
forma explícita, y sobresalen en áreas donde la detección de soluciones o características es
difícil de expresar con la programación convencional.
Las redes neuronales suelen consistir en varias capas o un diseño de cubo, y la ruta de la señal
atraviesa de adelante hacia atrás. Propagación hacia atrás es donde se utiliza la estimulación
hacia adelante o en el "frente" para restablecer los pesos de las unidades neuronales y esto a
veces se realiza en combinación con una formación en la que se conoce el resultado correcto.
Las redes modernas son un poco más libres en el sentido de que fluye en términos de
estimulación e inhibición con conexiones que interactúan de una manera mucho más caótica
Una red neuronal artificial es un grupo
y compleja. Las redes neuronales dinámicas son lo más avanzadas en que se pueden formar
interconectado de nodos similar a la
dinámicamente nuevas conexiones e incluso nuevas unidades neuronales.
vasta red de neuronas en un cerebro
El objetivo de la red neuronal es resolver los problemas de la misma manera que el cerebro
humano, aunque las redes neuronales son más abstractas. Los proyectos de redes neurales biológico. Cada nodo circular representa
modernas suelen trabajar desde unos miles a unos pocos millones de unidades neuronales y una neurona artificial y cada flecha
millones de conexiones que, si bien son muchas órdenes, siguen siendo de una magnitud representa una conexión desde la salida
menos compleja que la del cerebro humano, más bien cercana a la potencia de cálculo de un de una neurona a la entrada de otra.
gusano.
Nuevas investigaciones sobre el cerebro a menudo estimulan nuevos patrones en las redes neuronales. Un nuevo enfoque está utilizando
conexiones que se extienden mucho más allá y capas de procesamiento de enlace en lugar de estar siempre localizado en las neuronas
adyacentes. Otra investigación está estudiando los diferentes tipos de señal en el tiempo que los axones se propagan, como el aprendizaje
profundo , interpola una mayor complejidad que un conjunto de variables booleanas que son simplemente encendido o apagado.
Las redes neuronales se basan en los números reales, con el valor del núcleo y del axón siendo típicamente una representación entre 0,0 y 1.
Un aspecto interesante de estos sistemas es que son impredecibles en su éxito con el auto-aprendizaje. Después del entrenamiento, algunos
se convierten en grandes solucionadores de problemas y otros no funcionan tan bien. Con el fin de capacitarlos, se necesitan varios miles de
ciclos de iteración.
Las redes neuronales se han utilizado para resolver una amplia variedad de tareas, como la visión por computador y el reconocimiento de voz,
que son difíciles de resolver usando la ordinaria programación basado en reglas.
Históricamente, el uso de modelos de redes neuronales marcó un cambio de dirección a finales de los años ochenta de alto nivel, que se
caracteriza por sistemas expertos con conocimiento incorporado en si-entonces las reglas, a bajo nivel de aprendizaje automático,
caracterizado por el conocimiento incorporado en los parámetros de un modelo cognitivo con algún sistema dinámico .
Historia
Warren McCulloch y Walter Pitts (1943) crearon un modelo informático para redes neuronales basados en las matemáticas y algoritmos
denominados lógica de umbral. Este modelo señaló el camino para que la investigación de redes neuronales se divida en dos enfoques
distintos. Un enfoque centrado en los procesos biológicos en el cerebro y el otro se centró en la aplicación de redes neuronales para la
inteligencia artificial.
Aprendizaje de Hebb
A finales de la década de 1940 el psicólogo Donald Hebb creó una hipótesis de aprendizaje basado en el mecanismo de plasticidad neuronal
que ahora se conoce como aprendizaje de Hebb . Aprendizaje de Hebb se considera que es un "típico" de aprendizaje no supervisado regla y
sus variantes posteriores fueron los primeros modelos de la potenciación a largo plazo. Los investigadores empezaron a aplicar estas ideas a
los modelos computacionales en 1948 con máquinas de tipo B de Turing.
Farley y Wesley A. Clark (1954) las primeras máquinas computacionales utilizadas, son las "calculadoras", para simular una red de Hebb en el
MIT. Otras máquinas de cálculo de redes neuronales han sido creadas por Rochester, Holanda, Hábito y Duda (1956).
Frank Rosenblat (1958) creó el perceptrón, un algoritmo de reconocimiento de patrones basado en una red de aprendizaje de computadora
de dos capas usando una simple suma y la resta. Con la notación matemática, Rosenblatt también describe circuitería no en el perceptrón
básico, tal como él o-exclusiva de circuito, un circuito que no se pudo procesar por redes neuronales hasta después de la propagación hacia
atras algoritmo fue creado por Paul Werbos (1975).
La investigación de redes neuronales se estancó después de la publicación de la investigación de aprendizaje automático por Marvin
Minsky y Seymour Papert (1969), que descubrió dos cuestiones fundamentales con las máquinas computacionales que procesan las redes
neuronales. La primera fue que los perceptrones básicos eran incapaces de procesar la exclusiva-o circuito. La segunda cuestión importante
era que los ordenadores no tenían suficiente poder de procesamiento para manejar eficazmente el tiempo de ejecución largo requerido por
las grandes redes neuronales.
Máquinas de soporte vectorial y otros métodos mucho más simples, tales como los clasificadores lineales, alcanzaron gradualmente las redes
neuronales en popularidad en aprendizaje automático. Como retos anteriores en redes neuronales profundas de capacitación se abordaron
con éxito con métodos como no supervisada previa a la capacitación y la potencia de cálculo incrementado a través del uso de las GPU y la
computación distribuida , las redes neuronales se desplegaron de nuevo a gran escala, sobre todo en la imagen y problemas de
reconocimiento visual. Esto se conoció como "aprendizaje profundo", aunque el aprendizaje profundo no es estrictamente sinónimo de redes
neuronales profundas.
Modelos[editar]
Modelos de redes neuronales en la inteligencia artificial se refieren generalmente a las redes neuronales artificiales (RNA); estos son modelos
matemáticos esencialmente simples que definen una función f:X→Y o una distribución más X o ambos X e Y. Pero a veces los modelos
también están íntimamente asociadas con un algoritmo de aprendizaje en particular o regla de aprendizaje. Un uso común de la frase
"modelo ANN" es en realidad la definición de una clase de tales funciones (donde los miembros de la clase se obtiene variando parámetros,
los pesos de conexión, o específicos de la arquitectura, tales como el número de neuronas o su conectividad).