Vous êtes sur la page 1sur 2

Red neuronal artificial

Las redes neuronales (también conocidas como sistemas conexionistas) son un modelo
computacional basado en un gran conjunto de unidades neuronales simples (neuronas
artificiales), de forma aproximadamente análoga al comportamiento observado en los axones
de las neuronas en los cerebros biológicos. Cada unidad neuronal está conectada con muchas
otras y los enlaces entre ellas pueden incrementar o inhibir el estado de activación de las
neuronas adyacentes. Cada unidad neuronal, de forma individual, opera empleando funciones
de suma. Puede existir una función limitadora o umbral en cada conexión y en la propia
unidad, de tal modo que la señal debe sobrepasar un límite antes de propagarse a otra
neurona. Estos sistemas aprenden y se forman a sí mismos, en lugar de ser programados de
forma explícita, y sobresalen en áreas donde la detección de soluciones o características es
difícil de expresar con la programación convencional.
Las redes neuronales suelen consistir en varias capas o un diseño de cubo, y la ruta de la señal
atraviesa de adelante hacia atrás. Propagación hacia atrás es donde se utiliza la estimulación
hacia adelante o en el "frente" para restablecer los pesos de las unidades neuronales y esto a
veces se realiza en combinación con una formación en la que se conoce el resultado correcto.
Las redes modernas son un poco más libres en el sentido de que fluye en términos de
estimulación e inhibición con conexiones que interactúan de una manera mucho más caótica
Una red neuronal artificial es un grupo
y compleja. Las redes neuronales dinámicas son lo más avanzadas en que se pueden formar
interconectado de nodos similar a la
dinámicamente nuevas conexiones e incluso nuevas unidades neuronales.
vasta red de neuronas en un cerebro
El objetivo de la red neuronal es resolver los problemas de la misma manera que el cerebro
humano, aunque las redes neuronales son más abstractas. Los proyectos de redes neurales biológico. Cada nodo circular representa
modernas suelen trabajar desde unos miles a unos pocos millones de unidades neuronales y una neurona artificial y cada flecha
millones de conexiones que, si bien son muchas órdenes, siguen siendo de una magnitud representa una conexión desde la salida
menos compleja que la del cerebro humano, más bien cercana a la potencia de cálculo de un de una neurona a la entrada de otra.
gusano.
Nuevas investigaciones sobre el cerebro a menudo estimulan nuevos patrones en las redes neuronales. Un nuevo enfoque está utilizando
conexiones que se extienden mucho más allá y capas de procesamiento de enlace en lugar de estar siempre localizado en las neuronas
adyacentes. Otra investigación está estudiando los diferentes tipos de señal en el tiempo que los axones se propagan, como el aprendizaje
profundo , interpola una mayor complejidad que un conjunto de variables booleanas que son simplemente encendido o apagado.
Las redes neuronales se basan en los números reales, con el valor del núcleo y del axón siendo típicamente una representación entre 0,0 y 1.
Un aspecto interesante de estos sistemas es que son impredecibles en su éxito con el auto-aprendizaje. Después del entrenamiento, algunos
se convierten en grandes solucionadores de problemas y otros no funcionan tan bien. Con el fin de capacitarlos, se necesitan varios miles de
ciclos de iteración.
Las redes neuronales se han utilizado para resolver una amplia variedad de tareas, como la visión por computador y el reconocimiento de voz,
que son difíciles de resolver usando la ordinaria programación basado en reglas.
Históricamente, el uso de modelos de redes neuronales marcó un cambio de dirección a finales de los años ochenta de alto nivel, que se
caracteriza por sistemas expertos con conocimiento incorporado en si-entonces las reglas, a bajo nivel de aprendizaje automático,
caracterizado por el conocimiento incorporado en los parámetros de un modelo cognitivo con algún sistema dinámico .

Historia
Warren McCulloch y Walter Pitts (1943) crearon un modelo informático para redes neuronales basados en las matemáticas y algoritmos
denominados lógica de umbral. Este modelo señaló el camino para que la investigación de redes neuronales se divida en dos enfoques
distintos. Un enfoque centrado en los procesos biológicos en el cerebro y el otro se centró en la aplicación de redes neuronales para la
inteligencia artificial.

Aprendizaje de Hebb
A finales de la década de 1940 el psicólogo Donald Hebb creó una hipótesis de aprendizaje basado en el mecanismo de plasticidad neuronal
que ahora se conoce como aprendizaje de Hebb . Aprendizaje de Hebb se considera que es un "típico" de aprendizaje no supervisado regla y
sus variantes posteriores fueron los primeros modelos de la potenciación a largo plazo. Los investigadores empezaron a aplicar estas ideas a
los modelos computacionales en 1948 con máquinas de tipo B de Turing.
Farley y Wesley A. Clark (1954) las primeras máquinas computacionales utilizadas, son las "calculadoras", para simular una red de Hebb en el
MIT. Otras máquinas de cálculo de redes neuronales han sido creadas por Rochester, Holanda, Hábito y Duda (1956).
Frank Rosenblat (1958) creó el perceptrón, un algoritmo de reconocimiento de patrones basado en una red de aprendizaje de computadora
de dos capas usando una simple suma y la resta. Con la notación matemática, Rosenblatt también describe circuitería no en el perceptrón
básico, tal como él o-exclusiva de circuito, un circuito que no se pudo procesar por redes neuronales hasta después de la propagación hacia
atras algoritmo fue creado por Paul Werbos (1975).
La investigación de redes neuronales se estancó después de la publicación de la investigación de aprendizaje automático por Marvin
Minsky y Seymour Papert (1969), que descubrió dos cuestiones fundamentales con las máquinas computacionales que procesan las redes
neuronales. La primera fue que los perceptrones básicos eran incapaces de procesar la exclusiva-o circuito. La segunda cuestión importante
era que los ordenadores no tenían suficiente poder de procesamiento para manejar eficazmente el tiempo de ejecución largo requerido por
las grandes redes neuronales.

Propagación hacia atrás y el resurgimiento[editar]


Un avance clave que vino después fue el algoritmo de propagación hacia atrás que resuelve eficazmente el problema, y en general el
problema de la formación de redes neuronales rápida de múltiples capas (Werbos 1975).
A mediados de la década de 1980, el procesamiento distribuido en paralelo se hizo popular con el nombre conexionismo . El libro de David E.
Rumelhart y James McClelland (1986) proporcionan una exposición completa de la utilización de conexionismo en los ordenadores para
simular procesos neuronales.
Las redes neuronales, tal como se utiliza en la inteligencia artificial, que tradicionalmente han sido considerados como modelos simplificados
de procesamiento neural en el cerebro, a pesar de que la relación entre este modelo y la arquitectura biológica del cerebro se debate; no
está claro en qué medida las redes neuronales artificiales reflejan la función cerebral.
Red neuronal artificial

Máquinas de soporte vectorial y otros métodos mucho más simples, tales como los clasificadores lineales, alcanzaron gradualmente las redes
neuronales en popularidad en aprendizaje automático. Como retos anteriores en redes neuronales profundas de capacitación se abordaron
con éxito con métodos como no supervisada previa a la capacitación y la potencia de cálculo incrementado a través del uso de las GPU y la
computación distribuida , las redes neuronales se desplegaron de nuevo a gran escala, sobre todo en la imagen y problemas de
reconocimiento visual. Esto se conoció como "aprendizaje profundo", aunque el aprendizaje profundo no es estrictamente sinónimo de redes
neuronales profundas.

Mejoras desde 2006[editar]


Dispositivos computacionales se han creado en el CMOS , tanto para la simulación biofísica y computación neuromorphic . Los esfuerzos más
recientes se muestran prometedores para la creación de nanodispositivos de una gran escala de componentes .Si tiene éxito, se crearía una
nueva clase de computación neuronal , ya que depende de aprendizaje en lugar de la programación y porque es
fundamentalmente analógico en lugar de digitales a pesar de que las primeras instancias pueden ser de hecho con los dispositivos digitales
CMOS.
Entre 2009 y 2012, las redes neuronales recurrentes y redes neuronales feedforward profundos desarrollados en el grupo de investigación
de Jürgen Schmidhuber en el suizo laboratorio de IA IDSIA han ganado ocho concursos internacionales de reconocimiento de
patrones y aprendizaje automático . Por ejemplo, el bi-direccional y multidimensional de memoria de largo a corto plazo (LSTM) de Alex
Graves ha ganado tres competiciones en el reconocimiento de escritura conectado en el 2009 Conferencia Internacional sobre Análisis de
documentos y Reconocimiento (ICDAR), sin ningún conocimiento previo acerca de los tres idiomas diferentes que se pueden aprender.
Fast GPU -basado puestas en práctica de este enfoque por Dan Ciresan y sus colegas de IDSIA han ganado varios concursos de
reconocimiento de patrones, incluyendo el IJCNN 2011 Señales de Tráfico Reconocimiento de Competencia, la segmentación ISBI 2012 de
estructuras neuronales en el desafío de Microscopía Electrónica de Pilas, y otros. Sus redes neurales también fueron los primeros
reconocedores de patrones artificiales para lograr un rendimiento aún sobrehumana competitivo o en los puntos de referencia importantes,
tales como el reconocimiento de señales de tráfico (IJCNN 2012), o la MNIST manuscrita problema dígitos de Yann LeCun en la Universidad de
Nueva York .
Arquitecturas profundos, altamente no lineales neuronales similares a los del 1980 Neocognitrón por Kunihiko Fukushima y la "arquitectura
estándar de la visión", inspirados en las células simples y complejas identificadas por David H. Hubel y Torsten Wiesel en las primarias de la
corteza visual , puede también ser pre-formados por métodos no supervisados de Geoff Hinton laboratorio en la Universidad de Toronto .Un
equipo de este laboratorio ganaron un concurso de 2012 patrocinado por Merck para el diseño de software para ayudar a encontrar
moléculas que podrían conducir a nuevos medicamentos.

Modelos[editar]
Modelos de redes neuronales en la inteligencia artificial se refieren generalmente a las redes neuronales artificiales (RNA); estos son modelos
matemáticos esencialmente simples que definen una función f:X→Y o una distribución más X o ambos X e Y. Pero a veces los modelos
también están íntimamente asociadas con un algoritmo de aprendizaje en particular o regla de aprendizaje. Un uso común de la frase
"modelo ANN" es en realidad la definición de una clase de tales funciones (donde los miembros de la clase se obtiene variando parámetros,
los pesos de conexión, o específicos de la arquitectura, tales como el número de neuronas o su conectividad).

Vous aimerez peut-être aussi