Académique Documents
Professionnel Documents
Culture Documents
El objetivo de la red neuronal es resolver los problemas de la misma manera que el cerebro humano, aunque las redes
neuronales son más abstractas. Las redes neuronales actuales suelen contener desde unos miles a unos pocos millones
de unidades neuronales.
Nuevas investigaciones sobre el cerebro a menudo estimulan la creación de nuevos patrones en las redes neuronales.
Un nuevo enfoque está utilizando conexiones que se extienden mucho más allá y capas de procesamiento de enlace en
lugar de estar siempre localizado en las neuronas adyacentes. Otra investigación está estudiando los diferentes tipos
de señal en el tiempo que los axones se propagan, como el aprendizaje profundo, interpola una mayor complejidad que
un conjunto de variables booleanas que son simplemente encendido o apagado.
Las redes neuronales se han utilizado para resolver una amplia variedad de tareas, como la visión por computador y el
reconocimiento de voz, que son difíciles de resolver usando la ordinaria programación basado en reglas.
Históricamente, el uso de modelos de redes neuronales marcó un cambio de dirección a finales de los años ochenta de
alto nivel, que se caracteriza por sistemas expertos con conocimiento incorporado en si-entonces las reglas, a bajo
nivel de aprendizaje automático, caracterizado por el conocimiento incorporado en los parámetros de un modelo
cognitivo con algún sistema dinámico.
https://es.wikipedia.org/wiki/Red_neuronal_artificial 1/22
4/7/2019 Red neuronal artificial - Wikipedia, la enciclopedia libre
Índice
Historia
Aprendizaje de Hebb
Propagación hacia atrás y el resurgimiento
Diseños basados en Hardware
Mejoras desde 2006
Modelos
Función de red
El aprendizaje
La elección de una función de coste
Paradigmas de aprendizaje
El aprendizaje supervisado
Aprendizaje no supervisado
Aprendizaje por refuerzo
Tipo de entrada
Algoritmos de aprendizaje
Algoritmo recursivo convergente de aprendizaje
El empleo de redes neuronales artificiales
Aplicaciones
Aplicaciones de la vida real
Las redes neuronales y la neurociencia
Potencia del cálculo
La crítica
Cuestiones de capacitación
Cuestiones teóricas
Las clases y tipos de RNAs
Ejemplos
Quake II Neuralbot
Clasificador No Sesgado de Proteínas
Galería
Herramientas de software
Véase también
Referencias
Enlaces externos
Historia
Warren McCulloch y Walter Pitts 2 (1943) crearon un modelo informático para redes neuronales, que se llama lógica
umbral, que se base en las matemáticas y los algoritmos. Este modelo señaló el camino para que la investigación de
redes neuronales se divida en dos enfoques distintos. Un enfoque se centró en los procesos biológicos en el cerebro y el
otro se centró en la aplicación de redes neuronales para la inteligencia artificial.
Aprendizaje de Hebb
A finales de la década de 1940 el psicólogo Donald Hebb3 4 creó una hipótesis de aprendizaje basado en el mecanismo
de plasticidad neuronal que ahora se conoce como aprendizaje de Hebb. Aprendizaje de Hebb se considera que es un
"típico" de aprendizaje no supervisado y sus variantes posteriores fueron los primeros modelos de la potenciación a
https://es.wikipedia.org/wiki/Red_neuronal_artificial 2/22
4/7/2019 Red neuronal artificial - Wikipedia, la enciclopedia libre
largo plazo. Los investigadores empezaron a aplicar estas ideas a los modelos computacionales en 1948 con la
sugerencia de Turing, que el córtex humano infantil es lo que llamaba "máquina desorganizada" (también conocido
como "máqina Turing Tipo B").5 6
Farley y Wesley A. Clark7 (1954) al principio utilizaron máquinas computacionales, que entonces se llamaban
"calculadoras", para simular una red de Hebb en el MIT. Otras simulaciones de redes neuronales por computadora
han sido creadas por Rochester, Holanda, Hábito y Duda (1956).8
Frank Rosenblatt9 10 (1958) creó el perceptrón, un algoritmo de reconocimiento de patrones basado en una red de
aprendizaje de computadora de dos capas, que utilizaba adición y sustracción simples. Con la notación matemática,
Rosenblatt también describe circuitería que no está en el perceptrón básico, tal como el circuito de o-exclusiva, un
circuito que no se pudo procesar por redes neuronales antes de la creación del algoritmo de propagación hacia atrás
por Paul Werbos (1975).11
En 1959, un modelo biológico propuesto por dos laureados de los Premios Nobel, David H. Hubel y Torsten Wiesel,
estaba basado en su descubrimiento de dos tipos de células en la corteza visual primaria: células simples y células
complejas.12
El primer reporte sobre redes funcionales multicapas fue publicado en 1965 por Ivakhnenko y Lapa, y se conoce como
el método de agrupamiento para el manejo de datos.13 14 15
A mediados de la década de 1980, el procesamiento distribuido en paralelo se hizo popular con el nombre
conexionismo. El libro de David E. Rumelhart y James McClelland (1986) proporcionan una exposición completa de la
utilización de conexionismo en los ordenadores para simular procesos neuronales.17
Las redes neuronales, tal como se utilizan en la inteligencia artificial, han sido consideradas tradicionalmente como
modelos simplificados de procesamiento neuronal en el cerebro, a pesar de que la relación entre este modelo y la
arquitectura biológica del cerebro se debate; no está claro en qué medida las redes neuronales artificiales reflejan el
funcionamiento cerebral.
Máquinas de soporte vectorial y otros métodos mucho más simples, tales como los clasificadores lineales, alcanzaron
gradualmente popularidad en el aprendizaje automático. No obstante, el uso de redes neuronales ha cambiado algunos
campos, tales como la predicción de las estructuras de las proteínas.18 19
En 1992, max-pooling (una forma de submuestreo, en la que se divide los datos en grupos de tamaños iguales, que no
tienen elementos en común, y se transmite solamente el valor máximo de cada grupo) fue introducido para ayudar con
el reconocimiento de objetos tri-dimensionales.20 21 22
https://es.wikipedia.org/wiki/Red_neuronal_artificial 3/22
4/7/2019 Red neuronal artificial - Wikipedia, la enciclopedia libre
En 2010, el uso de max-pooling en el entrenamiento por propagación hacia atrás fue acelerado por los GPUs, y se
demostró que ofrece mejor rendimiento que otros tipos de agrupamiento.23
El problema del desvanecimiento del gradiente afecta las redes neuronales prealimentadas de múltiples capas, que
usan la propagación hacia atrás, y también los redes neuronales recurrentes (RNNs).24 25 Aunque los errores se
propagan de una capa a otra, disminuyen exponencialmente con el número de capas, y eso impide el ajuste hacia atrás
de los pesos de las neuronas basado en esos errores. Las redes profundas se ven particularmente afectadas.
Para vencer este problema, Schmidhuber adoptaba una jerarquía multicapa de redes (1992) pre entrenados, una capa
a la vez, por aprendizaje no supervisado, y refinado por propagación hacia atrás.26 Behnke (2003) contaba solamente
con el signo del gradiente (Rprop)27 tratándose de problemas tales como la reconstrucción de imágenes y la
localización de caras.
Como retos anteriores en redes neuronales profundas de capacitación se resolvieron con métodos como pre-
entrenamiento no supervisado y potencia de cálculo incrementada a través del uso de las GPU y la computación
distribuida, las redes neuronales se desplegaron de nuevo a gran escala, sobre todo en problemas de procesamiento de
imágenes y de reconocimiento visual. Esto se conoció como "aprendizaje profundo", aunque el aprendizaje profundo
no es estrictamente sinónimo de redes neuronales profundas.
Entre 2009 y 2012, las redes neuronales recurrentes y redes neuronales profundas feedforward desarrollados en el
grupo de investigación de Jürgen Schmidhuber en el laboratorio suizo de IA IDSIA han ganado ocho concursos
internacionales de reconocimiento de patrones y aprendizaje automático. Por ejemplo, la memoria bi-direccional y
multidimensional de largo a corto plazo (LSTM) de Alex Graves ha ganado tres competiciones en el reconocimiento de
escritura conectada en Conferencia Internacional sobre Análisis de documentos y Reconocimiento (ICDAR) del 2009,
sin ningún conocimiento previo acerca de los tres idiomas diferentes que se pueden aprender.
Implementaciones de este método basadas en unidades de procesamiento gráfico rápidas, hechos por Dan Ciresan y
sus colegas de IDSIA han ganado varios concursos de reconocimiento de patrones, incluyendo la Competición de
Reconocimiento de Señales de Tráfico del 2011,33 el desafío de ISBI 2012 de segmentación de estructuras neuronales
en series de imágenes de Microscopía Electrónica,34 y otros. Sus redes neuronales también fueron las primeras
reconocedoras artificiales de patrones en lograr un rendimiento superior al humano en los puntos de referencia
importantes, tales como el reconocimiento de señales de tráfico (IJCNN 2012) o el problema de clasificación de dígitos
escritos a mano.
https://es.wikipedia.org/wiki/Red_neuronal_artificial 4/22
4/7/2019 Red neuronal artificial - Wikipedia, la enciclopedia libre
Arquitecturas profundas altamente no lineales similares a las del 1980 Neocognitrón por Kunihiko Fukushima y la
"arquitectura estándar de la visión", inspirados en las células simples y complejas identificadas por David H. Hubel y
Torsten Wiesel en la corteza visual, pueden también ser pre-formados por métodos no supervisados en el laboratorio
de la universidad de Toronto. Un equipo de este laboratorio ganó un concurso en 2012 patrocinado por Merck para el
diseño de software para ayudar a encontrar moléculas que podrían conducir a nuevos medicamentos.
Modelos
Los modelos de redes neuronales en la inteligencia artificial se refieren generalmente a las redes neuronales artificiales
(RNA); estos son modelos matemáticos esencialmente simples que definen una función f:X→Y o una distribución más
X o ambos X e Y. Pero a veces los modelos también están íntimamente asociadas con un algoritmo de aprendizaje en
particular o regla de aprendizaje. Un uso común de la frase "modelo ANN" es en realidad la definición de una clase de
tales funciones (donde los miembros de la clase se obtiene variando parámetros, los pesos de conexión, o específicos
de la arquitectura, tales como el número de neuronas o su conectividad).
Función de red
La palabra red en el término "red neuronal artificial" se refiere a las interconexiones entre las neuronas en las
diferentes capas de cada sistema. Un sistema ejemplar tiene tres capas. La primera capa tiene neuronas de entrada
que envían datos a través de las sinapsis a la segunda capa de neuronas, y luego a través de más sinapsis a la tercera
capa de neuronas de salida. Los sistemas más complejos tendrán más capas, algunos aumentando las de entrada y de
salida de neuronas. Las sinapsis almacenan parámetros llamados "pesos" que manipulan los datos en los cálculos.
3. La función de activación que convierte las entradas ponderadas de una neurona a su activación a la salida.
Matemáticamente, la función de red de una neurona se define como una composición de otras funciones .
Este se representa como una estructura de red, con flechas que representan las dependencias entre variables.Un tipo
ampliamente utilizado de la composición es la suma ponderada no lineal , donde , dónde k
(denominado comúnmente como la función de activación35 ) es una función predefinida, como la tangente hiperbólica
o función sigmoide . La característica importante de la función de activación es que proporciona una transición suave
como valores de entrada de cambio, es decir, un pequeño cambio en la entrada produce un pequeño cambio en la
producción. Será conveniente para la siguiente para referirse a una colección de funciones simplemente como un
vector .
Esta cifra representa una descomposición de tales , Con las dependencias entre las variables indicadas por las
flechas. Estos pueden ser interpretados de dos maneras.
La primera vista es la vista funcional: la entrada se transforma en un vector de 3 dimensiones , Que se transforma a
continuación en un vector de 2 dimensiones , Que es finalmente transformado en . Este punto de vista se encuentra
más comúnmente en el contexto de la optimización.
El segundo punto de vista es la vista probabilístico: la variable aleatoria depende de la variable aleatoria
, Que depende de , Que depende de la variable aleatoria . Este punto de vista se encuentra más
comúnmente en el contexto de modelos gráficos .
https://es.wikipedia.org/wiki/Red_neuronal_artificial 5/22
4/7/2019 Red neuronal artificial - Wikipedia, la enciclopedia libre
Los dos puntos de vista son en gran medida equivalente. En cualquier caso,
para esta arquitectura de red en particular, los componentes de las capas
individuales son independientes entre sí (por ejemplo, los componentes de
son independientes entre sí, dada su aportación ). Esto permite,
naturalmente, un grado de paralelismo en la ejecución.
El aprendizaje
Lo que ha atraído el mayor interés en las redes neuronales es la posibilidad Grafo de dependencias ANN
de aprendizaje. Dada una determinada tarea a resolver, y una clase de
funciones , el aprendizaje consiste en utilizar un conjunto de
observaciones para encontrar la cual resuelve la tarea de alguna forma óptima.
Esto implica la definición de una función de coste tal que, para la solución óptima
. Es decir, ninguna solución tiene un costo menor que el costo de la solución óptima.
La función de coste es un concepto importante en el aprendizaje, ya que representa lo lejos que una solución
particular se encuentra de la solución óptima al problema a resolver. Los algoritmos de aprendizaje buscan a través del
espacio de soluciones para encontrar una función que tiene el menor costo posible.
https://es.wikipedia.org/wiki/Red_neuronal_artificial 6/22
4/7/2019 Red neuronal artificial - Wikipedia, la enciclopedia libre
Si bien es posible definir alguna función de coste, con frecuencia un coste particular, se utilizará, ya sea porque tiene
propiedades deseables (tales como convexidad) o porque surge de forma natural a partir de una formulación
particular del problema (por ejemplo, en una formulación probabilística la probabilidad posterior del modelo puede
ser utilizada como un costo inverso). En última instancia, la función de coste dependerá de la tarea deseada.
Paradigmas de aprendizaje
Hay tres grandes paradigmas de aprendizaje, cada uno correspondiente a una tarea de aprendizaje abstracto en
particular. Estos son el aprendizaje supervisado ,el aprendizaje no supervisado y el aprendizaje por
refuerzo.
El aprendizaje supervisado
En el aprendizaje supervisado, se nos da una serie de ejemplos de pares y el objetivo es encontrar
una función en la clase permitido de funciones que corresponden con los ejemplos. En otras palabras,
deseamos inferir el mapeo derivado de los datos; la función de coste está relacionado con la falta de coincidencia entre
nuestro mapeo y los datos, y contiene implícitamente el conocimiento previo sobre el dominio del problema.36
Un coste de uso común es el error cuadrático medio, que trata de minimizar el error cuadrático medio entre las salidas
de la red, y el valor objetivo sobre todos los pares ejemplares. Cuando uno trata de minimizar este coste
utilizando descenso de gradiente para la clase de las redes neuronales llamadas perceptrones multicapas (MLP), se
obtiene el común y bien conocido algoritmo de propagación hacia atrás para la formación de redes neuronales.
Tareas que caen dentro del paradigma de aprendizaje supervisado son el reconocimiento de patrones (también
conocido como clasificación) y regresión (también conocido como aproximación de función). El paradigma de
aprendizaje supervisado es aplicable también a los datos secuenciales (por ejemplo, reconocimiento del habla, del
manuscrito, y de gestos). Esto se puede considerar como una forma de aprendizaje con un "maestro", en la forma de
una función que proporciona información continua sobre la calidad de las soluciones obtenidas hasta el momento.
Aprendizaje no supervisado
En el aprendizaje no supervisado, algunos datos se da y la función de coste que se reduce al mínimo, que puede ser
cualquier función de los datos y la salida de la red, .
La función de coste depende de la tarea (lo que estamos tratando de modelar) y nuestros a priori suposiciones
implícitas (las propiedades de nuestro modelo, sus parámetros y las variables observadas).
Tareas que caen dentro del paradigma de aprendizaje no supervisado están en generales de estimación de problemas;
las aplicaciones incluyen el agrupamiento, la estimación de distribuciones estadísticas, la compresión de datos y el
filtrado bayesiano de spam.
https://es.wikipedia.org/wiki/Red_neuronal_artificial 7/22
4/7/2019 Red neuronal artificial - Wikipedia, la enciclopedia libre
En el aprendizaje por refuerzo , los datos por lo general no se dan, pero generada por la interacción de un agente con
el medio ambiente. En cada punto en el tiempo , El agente realiza una acción y el medio ambiente genera una
observación y un costo instantáneo , De acuerdo con algunas dinámicas (por lo general desconocidos). El objetivo
es descubrir una política para la selección de las acciones que minimiza una cierta medida de un costo a largo plazo,
por ejemplo, el coste acumulativo esperado. La dinámica del medio ambiente y el coste a largo plazo para cada política
general son desconocidos, pero pueden ser estimados.
Más formalmente el medio ambiente se modela como un proceso de decisión de Markov (MDP) con los estados
y acciones con las siguientes distribuciones de probabilidad: la distribución de
costos instantánea ,La distribución de observación y la transición Mientras que una
política se define como la distribución condicional sobre las acciones dadas las observaciones. Tomados en conjunto,
los dos entonces definen una cadena de Márkov (MC). El objetivo es descubrir la política (es decir, el MC) que
minimice el costo.
RNAs se utilizan con frecuencia en el aprendizaje de refuerzo como parte del algoritmo general.37 38 La programación
dinámica se ha unido a las RNA (dando la programación neurodinámica) por Bertsekas y Tsitsiklis39 y se aplicó
problemas no lineales a la multi-dimensionales, tales como los implicados en enrutamiento de vehículos , gestión de
los recursos naturales40 41 o la medicina42 debido a la capacidad de RNAs para mitigar las pérdidas de precisión
incluso cuando la reducción de la densidad de la red de discretización para aproximar numéricamente la solución de
los problemas de control originales.
Tareas que caen dentro del paradigma de aprendizaje por refuerzo son problemas de control, juegos y otras
secuenciales tareas.
Tipo de entrada
Finalmente también se pueden clasificar las RNAs según sean capaces de procesar información de distinto tipo en:
Redes analógicas: procesan datos de entrada con valores continuos y, habitualmente, acotados. Ejemplos de
este tipo de redes son: Hopfield, Kohonen y las redes de aprendizaje competitivo.
Redes discretas: procesan datos de entrada de naturaleza discreta; habitualmente valores lógicos booleanos.
Ejemplos de este segundo tipo de redes son: las máquinas de Boltzmann y Cauchy, y la red discreta de Hopfield.
Algoritmos de aprendizaje
El entrenamiento de un modelo de red neuronal en esencia significa seleccionar un modelo de la serie de modelos
permitidos (o, en un bayesiano marco, la determinación de una distribución en el conjunto de modelos permitidos)
que minimiza el criterio de costo. Hay numerosos algoritmos disponibles para la formación de los modelos de redes
neuronales; la mayoría de ellos puede ser vista como una aplicación directa de la teoría de optimización y la
estimación estadística.
La mayoría de los algoritmos utilizados en las redes neuronales artificiales de formación emplean alguna forma de
descenso de gradiente, utilizando propagación hacia atrás para calcular los gradientes reales. Esto se hace
simplemente tomando la derivada de la función de coste con respecto a los parámetros de la red y a continuación,
cambiando los parámetros en una dirección relacionada al gradiente. Los algoritmos de entrenamiento de
propagación hacia atrás generalmente se clasifican en tres categorías:
1. Descenso del gradiente (con tasa variable de aprendizaje y momentum, retropropagación elástica (Rprop));
2. cuasi-Newton ( Broyden-Fletcher-Goldfarb-Shannon, Método de la secante );
3. Levenberg-Marquardt y gradiente conjugado (actualización Fletcher-Reeves, actualizaación Polak-Ribiere,
Powell-Beale reinicio, gradiente conjugado escalado).43
https://es.wikipedia.org/wiki/Red_neuronal_artificial 8/22
4/7/2019 Red neuronal artificial - Wikipedia, la enciclopedia libre
Elección de modelo
Esto dependerá de la representación de datos y la aplicación. Excesivamente complejos
modelos tienden a conducir a problemas en el aprendizaje.
Algoritmo de aprendizaje
Existen numerosas soluciones de compromiso entre los algoritmos de aprendizaje. Casi
cualquier algoritmo va a funcionar bien con los hiperparámetros correctos para la formación
de un conjunto específico de datos fijos. Sin embargo, la selección y el ajuste de un
algoritmo para la formación en datos no previstos requieren una cantidad significativa de
experimentación.
Robustez
Si se seleccionan apropiadamente el modelo, la función de coste y el algoritmo de
aprendizaje, la RNA resultante puede ser extremadamente robusto.
Con la aplicación correcta, las RNA pueden ser utilizadas de forma natural en el aprendizaje online y aplicaciones de
grandes conjuntos de datos. Su aplicación sencilla y la existencia de dependencias en su mayoría locales expuestos en
la estructura permiten implementaciones rápidas y paralelas en el hardware.
Aplicaciones
RNA las hacen bastante apropiadas para aplicaciones en las que no se dispone a priori de un modelo identificable que
pueda ser programado, pero se dispone de un conjunto básico de ejemplos de entrada (previamente clasificados o no).
Asimismo, son altamente robustas tanto al ruido como a la disfunción de elementos concretos y son fácilmente
paralelizables.
Esto incluye problemas de clasificación y reconocimiento de patrones de voz, imágenes, señales, etc. Asimismo se han
utilizado para encontrar patrones de fraude económico, hacer predicciones en el mercado financiero, hacer
predicciones de tiempo atmosférico, etc.
También se pueden utilizar cuando no existen modelos matemáticos precisos o algoritmos con complejidad razonable,
por ejemplo la red de Kohonen ha sido aplicada con un éxito más que razonable al clásico problema del viajante (un
problema para el que no se conoce solución algorítmica de complejidad polinómica).
https://es.wikipedia.org/wiki/Red_neuronal_artificial 9/22
4/7/2019 Red neuronal artificial - Wikipedia, la enciclopedia libre
Otro tipo especial de redes neuronales artificiales se ha aplicado en conjunción con los algoritmos genéticos (AG) para
crear controladores para robots. La disciplina que trata la evolución de redes neuronales mediante algoritmos
genéticos se denomina Robótica Evolutiva. En este tipo de aplicación el genoma del AG lo constituyen los parámetros
de la red (topología, algoritmo de aprendizaje, funciones de activación, etc.) y la adecuación de la red viene dada por la
adecuación del comportamiento exhibido por el robot controlado (normalmente una simulación de dicho
comportamiento).
Las redes neuronales artificiales se han utilizado también para el diagnóstico de varios tipos de cáncer. Un sistema de
detección de cáncer de pulmón híbrido basado ANN llamado HLND mejora la precisión del diagnóstico y la velocidad
de la radiología cáncer de pulmón. Estas redes también se han utilizado para diagnosticar el cáncer de próstata. Los
diagnósticos se pueden utilizar para hacer modelos específicos tomados de un gran grupo de pacientes en
comparación con la información de un paciente dado. Los modelos no dependen de suposiciones acerca de las
correlaciones de diferentes variables. El cáncer color rectal también se ha previsto el uso de las redes neuronales. Las
redes neuronales podrían predecir el resultado de un paciente con cáncer color rectal con más precisión que los
métodos clínicos actuales. Después del entrenamiento, las redes podrían predecir múltiples resultados de los pacientes
de instituciones relacionadas.
El objetivo del campo es la creación de modelos de sistemas neuronales biológicas con el fin de comprender cómo
funcionan los sistemas biológicos. Para ganar este entendimiento, los neurólogos se esfuerzan por hacer un vínculo
entre los procesos biológicos observados (datos), biológicamente plausibles mecanismos para el procesamiento
neuronal y aprendizaje ( redes neuronales biológicas modelos) y la teoría (la teoría del aprendizaje estadístico y la
teoría de la información ).
Tipos de modelos
https://es.wikipedia.org/wiki/Red_neuronal_artificial 10/22
4/7/2019 Red neuronal artificial - Wikipedia, la enciclopedia libre
Muchos modelos se utilizan en el campo, que se define en diferentes niveles de abstracción y el modelado de diferentes
aspectos de los sistemas neurales. Se extienden desde modelos del comportamiento a corto plazo de las neuronas
individuales, tras los modelos del surgimiento de la dinámica de los circuitos neuronales de la interacción entre las
neuronas individuales hasta, finalmente, los modelos del surgimiento del comportamiento de los módulos neuronales
abstractos que representan subsistemas completas. Estos incluyen modelos de plasticidad de largo y corto plazo, y de
los sistemas neuronales y sus relaciones con el aprendizaje y la memoria de la neurona individual a nivel del sistema.
La integración de los componentes de memoria externa con redes neuronales artificiales tiene una larga historia que
se remonta a las primeras investigaciones en las representaciones distribuidas y mapas de auto-organización . Por
ejemplo, en memoria distribuida dispersa los patrones codificados por las redes neuronales se utilizan como
direcciones de memoria para la memoria de contenido direccionable, con "neuronas" que sirven esencialmente como
dirección codificadores y decodificadores .
Más recientemente aprendizaje profundo ha demostrado ser útil enhashing semántica , donde un profundo modelo
gráfico de los vectores de palabra de recuento de se obtiene a partir de un gran conjunto de documentos. Los
documentos se asignan a las direcciones de memoria de tal manera que los documentos semánticamente similares se
encuentran en direcciones cercanas. Documentos similares a un documento de consulta a continuación, se pueden
encontrar simplemente accediendo a todas las direcciones que difieren por sólo unos pocos bits de la dirección del
documento de consulta.
Redes de memoria es otra extensión de las redes neuronales que incorporan la memoria a largo plazo que fue
desarrollado por Facebook investigación. La memoria a largo plazo puede ser leído y escrito para, con el objetivo de
utilizarlo para la predicción. Estos modelos se han aplicado en el contexto de la búsqueda de respuestas (QA), donde la
memoria a largo plazo que de hecho actúa como un (dinámico) base de conocimientos, y la salida es una respuesta
textual.
Máquinas de Turing neuronales desarrollados por Google DeepMind permiten ampliar las capacidades de las redes
neuronales profundas mediante el acoplamiento a los recursos de memoria externos, que pueden interactuar con los
procesos atencionales. El sistema combinado es análogo a una máquina de Turing pero es diferenciable de extremo a
extremo, lo que le permite ser entrenado de manera eficiente con descenso del gradiente. Los resultados preliminares
demuestran que las máquinas de Turing neuronales puede deducir algoritmos simples, tales como copiar, clasificar, y
recuerdo asociativo a partir de ejemplos de entrada y salida.
Computadoras neuronales diferenciables (DNC) son una extensión de las máquinas de Turing neuronal, también de
DeepMind. Se han realizado fuera de las máquinas de Turing neuronales, la memoria de largo a corto plazo los
sistemas y redes de la memoria en las tareas de procesamiento de secuencia.
Software de la red neuronal se utiliza para simular, investigación , desarrollo y aplicación de redes neuronales
artificiales, redes neuronales biológicas y, en algunos casos, una gama más amplia de sistemas adaptativos.
Tipos de redes neuronales artificiales varían de aquellos con sólo una o dos capas de lógica única dirección, para
muchos bucles complejos multi-direccionales de entrada de realimentación y capas. En general, estos sistemas utilizan
algoritmos en su programación para determinar el control y la organización de sus funciones. La mayoría de los
sistemas utilizan "pesos" para cambiar los parámetros del rendimiento y las diferentes conexiones con las neuronas.
Las redes neuronales artificiales pueden ser autónomas y aprender mediante el aporte de "maestros" externos o
https://es.wikipedia.org/wiki/Red_neuronal_artificial 11/22
4/7/2019 Red neuronal artificial - Wikipedia, la enciclopedia libre
incluso auto-enseñanza de las reglas escritas de entrada. Redes neuronales estilo Cubo Neural primera por primera
vez por Gianna Giavelli proporcionan un espacio dinámico en el que las redes se recombinan dinámicamente
información y enlaces a través de miles de millones de nodos independientes que utilizan la adaptación neuronal
darwinismo , una técnica desarrollada por Gerald Edelman , que permite sistemas más modeladas biológicamente.
El trabajo de Hava Siegelmann y Eduardo D. Sontag ha proporcionado una prueba de que una arquitectura específica
recurrente con los pesos valorados racionales (en oposición a la precisión total número real -valued pesos) tiene toda
la potencia de una máquina universal de Turing [59]utilizando un número finito de las neuronas y las conexiones
lineales estándar. Además, se ha demostrado que el uso de valores irracionales para resultados pesos en una máquina
con super-Turing poder.
Capacidad
Los modelos de redes neuronales artificiales tienen una propiedad denominada "capacidad", que corresponde
aproximadamente a su capacidad para modelar cualquier función dada. Se relaciona con la cantidad de información
que puede ser almacenada en la red y a la noción de complejidad.
Convergencia
Nada se puede decir en general sobre la convergencia ya que depende de una serie de factores. En primer lugar,
pueden existir muchos mínimos locales. Esto depende de la función de coste y el modelo. En segundo lugar, el método
de optimización utilizado no puede ser garantizado a converger cuando lejos de un mínimo local. En tercer lugar, para
una cantidad muy grande de datos o parámetros, algunos métodos se vuelven poco práctico. En general, se ha
encontrado que las garantías teóricas sobre la convergencia son una guía fiable para la aplicación práctica.
Generalización y estadísticas
En aplicaciones donde el objetivo es crear un sistema que generaliza bien en los ejemplos que no se ven, ha surgido el
problema de la formación excesiva. Esto surge en los sistemas complicados o sobre especificadas cuando la capacidad
de la red supera significativamente los parámetros libres necesarios. Hay dos escuelas de pensamiento para evitar este
problema: La primera es utilizar la validación cruzada técnicas similares y para comprobar la presencia de un exceso
de entrenamiento y de manera óptima seleccione hiper- tales que se minimice el error de generalización. La segunda
es utilizar algún tipo de regularización . Este es un concepto que surge de manera natural en un marco probabilístico
(Bayesiano), donde la regularización puede realizarse mediante la selección de una probabilidad a priori más grande
sobre los modelos más simples; sino también en la teoría estadística de aprendizaje, donde el objetivo es reducir al
mínimo más de dos cantidades: el "riesgo empírico" y el "riesgo estructural ', que corresponde aproximadamente al
error sobre el conjunto de entrenamiento y el error de predicción en los datos que no se ven debido a sobreajuste.
Redes neuronales supervisadas que utilicen un error cuadrático medio (MSE) función de coste se pueden utilizar
métodos estadísticos formales para determinar la confianza del modelo entrenado. El MSE en un conjunto de
validación se puede utilizar como una estimación de la varianza. Este valor puede ser utilizado para calcular el
intervalo de confianza de la salida de la red, suponiendo una distribución normal . Un análisis de confianza realizado
de esta manera es estadísticamente válida siempre que la salida de distribución de probabilidad sigue siendo el mismo
y la red no es modificada.
https://es.wikipedia.org/wiki/Red_neuronal_artificial 12/22
4/7/2019 Red neuronal artificial - Wikipedia, la enciclopedia libre
La crítica
Análisis de confianza de una
Cuestiones de capacitación red neuronal
Cuestiones teóricas
AK Dewdney , un científico matemático e informática de la Universidad de Ontario Occidental y ex Scientific
American columnista, escribió en 1997, "A pesar de que las redes neurales hacen resolver algunos problemas de
juguete, su poder de computación son tan limitados que me sorprende que nadie los toma en serio como una
herramienta general de resolución de problemas ". No existe una red neuronal nunca se ha demostrado que resuelve
los problemas computacionalmente difíciles, tales como la N-Queens problema, el problema del viajante de comercio ,
o el problema de factorizar enteros grandes.
Aparte de su utilidad, una objeción fundamental a las redes neuronales artificiales es que no logran reflejar cómo
funcionan las neuronas reales. Propagación hacia atrás está en el corazón de las redes neuronales artificiales y la
mayoría no sólo no hay evidencia de ningún mecanismo de este tipo de redes neuronales naturales,53 parece
contradecir el principio fundamental de las neuronas reales que la información sólo puede fluir hacia adelante a lo
largo del axón. Como la información está codificada por las neuronas reales aún no se conoce. Lo que se sabe es que
las neuronas sensoriales disparan potenciales de acción con mayor frecuencia con la activación del sensor y las células
musculares tiran más fuertemente cuando sus neuronas motoras asociadas reciben los potenciales de acción con más
frecuencia.54 Aparte del caso más simple de solo transmisión de información de una neurona a un sensor de la
neurona motora casi nada se conoce de los principios generales subyacentes de cómo se maneja la información por las
redes neuronales reales.
https://es.wikipedia.org/wiki/Red_neuronal_artificial 13/22
4/7/2019 Red neuronal artificial - Wikipedia, la enciclopedia libre
La motivación detrás de las redes neuronales artificiales no es necesariamente para replicar la función neural real,
pero para utilizar redes neuronales naturales como inspiración para un acercamiento a la computación que es
inherentemente paralelo y que proporciona soluciones a los problemas que tienen hasta ahora ha considerado
intratable. Por tanto, una afirmación central de las redes neuronales artificiales es que encarna algún principio general
nuevo y potente para el procesamiento de la información. Por desgracia, estos principios generales están mal definidos
y que a menudo se afirma que son emergentes de la red neuronal en sí. Esto permite la asociación estadística sencilla
(la función básica de las redes neuronales artificiales), que se describe como el aprendizaje o el reconocimiento. Como
resultado, las redes neuronales artificiales tienen, según Dewdney, un "algo para nada la calidad, que imparte un aura
peculiar de la pereza y una clara falta de curiosidad acerca de lo bien que estos sistemas de computación son Ninguna
mano humana (o la mente) interviene; soluciones. Se encuentran como por arte de magia, y nadie, al parecer, ha
aprendido nada”.55
Para implementar el software de redes neuronales grandes y eficaces, considerables recursos de procesamiento y
almacenamiento deben estar comprometidos. Mientras que el cerebro ha hardware adaptado a la tarea de
procesamiento de señales a través de un gráfico de las neuronas, simulando incluso una forma más simplificada en la
arquitectura von Neumann puede obligar a un diseñador de la red neural para llenar muchos millones de bases de
datos filas por sus conexiones - que puede consumir grandes cantidades de equipo de memoria y disco duro espacio.
Además, el diseñador de sistemas de redes neurales a menudo necesitará para simular la transmisión de señales a
través de muchas de estas conexiones y sus neuronas asociadas - que a menudo deben coincidir con una increíble
cantidad de CPU potencia de procesamiento y tiempo.
Jürgen Schmidhuber toma nota de que el resurgimiento de las redes neuronales en el siglo XXI, y su éxito renovado en
tareas de reconocimiento de imagen es atribuible en gran medida a los avances en el hardware: de 1991 a 2015, el
poder de computación, especialmente en lo entregado por GPGPUs (en las GPU ), ha aumentado alrededor de un
millón de veces, por lo que el algoritmo de retropropagación estándar viable para las redes de formación que son
varias capas más profundas que antes (pero añade que esto no resuelve los problemas algorítmicos tales como fuga
gradientes "de una manera fundamental"). El uso de la GPU en lugar de CPUs ordinarios puede traer los tiempos de
entrenamiento para algunas redes por debajo de los meses a meros días.
Potencia de cálculo sigue creciendo más o menos de acuerdo con la Ley de Moore , que puede proporcionar recursos
suficientes para llevar a cabo nuevas tareas. Ingeniería neuromorphic aborda la dificultad de hardware directamente,
mediante la construcción de chips de no-von Neumann con circuitos diseñados para implementar redes neuronales
desde el principio. Google también ha diseñado un chip optimizado para el procesamiento de red neural llamado
Unidad de Procesamiento Tensor o TPU.
Argumentos en contra de la posición de Dewdney son que las redes neuronales se han utilizado con éxito para resolver
muchas tareas complejas y diversas, que van desde aviones que vuelan de forma autónoma para la detección de fraude
de tarjetas de crédito.
Escritor de tecnología Roger Bridgman ha comentado las declaraciones de DEWDNEY sobre redes neuronales:
Las redes neuronales, por ejemplo, están en el muelle no sólo porque han sido promocionado al alto cielo, (lo que
tiene, no?), sino también porque se puede crear una red de éxito sin la comprensión de cómo funcionaba: el montón
de números que captura su comportamiento sería con toda probabilidad "una, mesa ilegible opaca... sin valor como
recurso científico".
A pesar de su enfática declaración de que la ciencia no es la tecnología, parece Dewdney aquí para ridiculizar a las
redes neuronales como mala ciencia cuando la mayoría de los ideando ellos están tratando de ser buenos ingenieros.
Una tabla puede leer que una máquina útil podía leer todavía sería bien vale la pena tener.
https://es.wikipedia.org/wiki/Red_neuronal_artificial 14/22
4/7/2019 Red neuronal artificial - Wikipedia, la enciclopedia libre
Si bien es cierto que el análisis de lo que se ha aprendido por una red neuronal artificial es difícil, es mucho más fácil
de hacerlo que analizar lo que se ha aprendido por una red neuronal biológica. Por otra parte, los investigadores
involucrados en la exploración de algoritmos de aprendizaje para redes neuronales están descubriendo gradualmente
principios genéricos que permiten que una máquina de aprendizaje tenga éxito. Por ejemplo, Bengio y LeCun (2007)
escribió un artículo sobre el aprendizaje locales vs. No locales, así como poco profundas frente a la arquitectura de
profundidad.
Enfoques híbridos
Algunas otras críticas que provienen de los defensores de los modelos híbridos (combinación de redes neuronales y
enfoques simbólicos), que creen que el intermix de estos dos enfoques puede capturar mejor los mecanismos de la
mente humana.
Ejemplos
Quake II Neuralbot
Un bot es un programa que simula a un jugador humano. El Neuralbot es un bot para el juego Quake II que utiliza una
red neuronal artificial para decidir su comportamiento y un algoritmo genético para el aprendizaje. Es muy fácil
probarlo para ver su evolución. Más información aquí [1] (http://homepages.paradise.net.nz/nickamy/neuralbot/inde
x.html)
El problema de clasificación no sesgada basada en la expresión de las proteínas en Aminoácidos puede reducirse,
conceptualmente, a lo siguiente:
Las RNA han sido aplicadas a un número en aumento de problemas en la vida real y de considerable complejidad,
donde su mayor ventaja es en la solución de problemas que son bastante complejos para la tecnología actual,
tratándose de problemas que no tienen una solución algorítmica o cuya solución algorítmica es demasiado compleja
para ser encontrada.
En general, debido a que son parecidas a las del cerebro humano, las RNA son bien nombradas ya que son buenas para
resolver problemas que el humano puede resolver pero las computadoras no. Estos problemas incluyen el
reconocimiento de patrones y la predicción del tiempo. De cualquier forma, el humano tiene capacidad para el
reconocimiento de patrones, pero la capacidad de las redes neuronales no se ve afectada por la fatiga, condiciones de
trabajo, estado emocional, y compensaciones.
Galería
https://es.wikipedia.org/wiki/Red_neuronal_artificial 17/22
4/7/2019 Red neuronal artificial - Wikipedia, la enciclopedia libre
Indefinido Indefinido
Herramientas de software
Existen muchas herramientas de software que implementan redes neuronales artificiales, tanto libres como
comerciales como, por ejemplo:
Véase también
Inteligencia artificial
Dinámica de sistemas
Sistema complejo
Sistema dinámico
https://es.wikipedia.org/wiki/Red_neuronal_artificial 18/22
4/7/2019 Red neuronal artificial - Wikipedia, la enciclopedia libre
Robótica evolutiva
Conformación de haces (beamforming)
Cerebro artificial
Redes neuronales convolucionales
Perceptrón multicapa
Deep Dream
Referencias
1. [url=https://www.frontiersin.org/research-topics/4817/artificial-neural-networks-as-models-of-neural-information-
processing «Artificial Neural Networks as Models of Neural Information Processing | Frontiers Research Topic»]
(en inglés). Consultado el 20 de febrero de 2018.
2. McCulloch, Warren; Walter Pitts (1943). «A Logical Calculus of Ideas Immanent in Nervous Activity». Bulletin of
Mathematical Biophysics 5 (4): 115-133. doi:10.1007/BF02478259 (http://dx.doi.org/10.1007%2FBF02478259).
3. Figueroba, Alex. «Ley de Hebb: la base neuropsicológica del aprendizaje» (https://psicologiaymente.com/neuroci
encias/ley-de-hebb). Psicología y mente. Consultado el 24 de octubre de 2018.
4. Hebb, Donald (1949). The Organization of Behavior [La Organización del Comportamiento] (https://books.google.
com/books?id=ddB4AgAAQBAJ). Nueva York: Wiley. ISBN 978-1-135-63190-1.
5. Republicación del artículode Turing de 1948: Turing, A.M. (1992). Collected works of AM Turing — Mechanical
Intelligence. [Obras colectivas de AM Turing — Inteligencia mecánica] (en inglés). Elsevier Science Publishers.
6. Webster, C.S. (2012). Alan Turing's unorganized machines and artificial neural networks: his remarkable early
work and future possibilities [Las máquinas desoranizadas y redes de neuronas artificiales de Alan Turing: su
notable trabajo inicial y posibilidades futuras posibilidades] (en inglés publicación=Evolutionary Intelligence) (5).
pp. 35-43. Webster CS. Alan Turing's unorganized machines and artificial neural networks: his remarkable early
work and future possibilities. Evolutionary Intelligence 2012: 5; 35-43.
7. Farley, B.G.; W.A. Clark (1954). «Simulation of Self-Organizing Systems by Digital Computer» [Simulación de
Sistemas Autoorganizadoras por Computadora Digital]. IRE Transactions on Information Theory 4 (4): 76-84.
doi:10.1109/TIT.1954.1057468 (http://dx.doi.org/10.1109%2FTIT.1954.1057468).
8. Rochester, N.; J.H. Holland; L.H. Habit; W.L. Duda (1956). «Tests on a cell assembly theory of the action of the
brain, using a large digital computer» ["Pruebas de una teoría de la acción del cerebro por asamblea de células,
usando una computadora digital grande]. IRE Transactions on Information Theory 2 (3): 80-93.
doi:10.1109/TIT.1956.1056810 (http://dx.doi.org/10.1109%2FTIT.1956.1056810).
9. Matich, Damián Jorge (2001). «Redes Neuronales: Conceptos Básicos y Aplicaciones.» (https://www.frro.utn.edu.
ar/repositorio/catedras/quimica/5_anio/orientadora1/monograias/matich-redesneuronales.pdf) (PDF). Buenos
Aires, Argentina. p. 6. Consultado el 26 de octubre de 2018.
10. Rosenblatt, F. (1958). «The Perceptron: A Probabilistic Model For Information Storage And Organization In The
Brain». Psychological Review 65 (6): 386-408. PMID 13602029 (https://www.ncbi.nlm.nih.gov/pubmed/13602029).
doi:10.1037/h0042519 (http://dx.doi.org/10.1037%2Fh0042519).
11. Werbos, P.J. (1975). Beyond Regression: New Tools for Prediction and Analysis in the Behavioral Sciences (http
s://books.google.com/books?id=z81XmgEACAAJ). Harvard University.
12. Hubel, David H.; Wiesel, Torsten (2005). Brain and visual perception: the story of a 25-year collaboration [Cerebro
y percepción visual: la historia de una colaboración de 25 años] (https://books.google.com/books?id=8YrxWojxUA
4C&pg=PA106). Oxford University Press US. p. 106. ISBN 978-0-19-517618-6.
13. Schmidhuber, J. (2015). «Deep Learning in Neural Networks: An Overview». Neural Networks 61: 85-117.
PMID 25462637 (https://www.ncbi.nlm.nih.gov/pubmed/25462637). arXiv:1404.7828 (https://arxiv.org/abs/1404.7828).
doi:10.1016/j.neunet.2014.09.003 (http://dx.doi.org/10.1016%2Fj.neunet.2014.09.003).
14. Ivakhnenko, A. G. (1973). Cybernetic Predicting Devices (https://books.google.com/books?id=FhwVNQAACAAJ).
CCM Information Corporation.
15. Ivakhnenko, A. G.; Grigorʹevich Lapa, Valentín (1967). Cybernetics and forecasting techniques (https://books.goog
le.com/books?id=rGFgAAAAMAAJ). American Elsevier Pub. Co.
16. Minsky, Marvin; Papert, Seymour (1969). Perceptrons: An Introduction to Computational Geometry (https://books.
google.com/books?id=Ow1OAQAAIAAJ). MIT Press. ISBN 0-262-63022-2.
17. Rumelhart, D.E; McClelland, James (1986). Parallel Distributed Processing: Explorations in the Microstructure of
Cognition (https://books.google.com/books?id=davmLgzusB8C). Cambridge: MIT Press. ISBN 978-0-262-63110-5.
18. Qian, N.; Sejnowski, T.J. (1988). «Predicting the secondary structure of globular proteins using neural network
models.». Journal of Molecular Biology 202: 865-884. Qian1988.
19. Rost, B.; Sander, C. (1993). «Prediction of protein secondary structure at better than 70% accuracy». Journal of
Molecular Biology 232: 584-599. Rost1993.
20. Weng, J.; Ahuja, N.; Huang, T. S. (1992). «Cresceptron: a self-organizing neural network which grows adaptively»
(http://www.cse.msu.edu/~weng/research/CresceptronIJCNN1992.pdf). Proc. International Joint Conference on
Neural Networks (Baltimore, Maryland) 1: 576-581.
https://es.wikipedia.org/wiki/Red_neuronal_artificial 19/22
4/7/2019 Red neuronal artificial - Wikipedia, la enciclopedia libre
21. Weng, J.; Ahuja, N.; Huang, T.S. (1993). «Learning recognition and segmentation of 3-D objects from 2-D
images» (http://www.cse.msu.edu/~weng/research/CresceptronICCV1993.pdf). Proc. 4th International Conf.
Computer Vision (Berlin, Alemania): 121-128.
22. Weng, J.; Ahuja, N.; Huang, T.S. (1997). «Learning recognition and segmentation using the Cresceptron» (http://w
ww.cse.msu.edu/~weng/research/CresceptronIJCV.pdf). International Journal of Computer Vision 25 (2): 105-139.
23. Scherer, Dominik; Müller, Andreas C.; Behnke, Sven (2010). «Evaluation of Pooling Operations in Convolutional
Architectures for Object Recognition» (https://www.ais.uni-bonn.de/papers/icann2010_maxpool.pdf). 20th
International Conference Artificial Neural Networks (ICANN): 92-101. doi:10.1007/978-3-642-15825-4_10 (http://dx.doi.org/
10.1007%2F978-3-642-15825-4_10).
24. S. Hochreiter., "Untersuchungen zu dynamischen neuronalen Netzen (http://people.idsia.ch/~juergen/SeppHochre
iter1991ThesisAdvisorSchmidhuber.pdf)," Diploma thesis. Institut f. Informatik, Technische Univ. Munich. Advisor:
J. Schmidhuber, 1991.
25. Hochreiter, S.; et al. (15 de enero de 2001). «Gradient flow in recurrent nets: the difficulty of learning long-term
dependencies» (https://books.google.com/books?id=NWOcMVA64aAC). En Kolen, John F.; Kremer, Stefan C. A
Field Guide to Dynamical Recurrent Networks. John Wiley & Sons. ISBN 978-0-7803-5369-5.
26. J. Schmidhuber., "Learning complex, extended sequences using the principle of history compression," Neural
Computation, 4, pp. 234–242, 1992.
27. Behnke, Sven (2003). Hierarchical Neural Networks for Image Interpretation. (http://www.ais.uni-bonn.de/books/L
NCS2766.pdf). Lecture Notes in Computer Science 2766. Springer.
28. Yang, J. J.; Pickett, M. D.; Li, X. M.; Ohlberg, D. A. A.; Stewart, D. R.; Williams, R. S. (2008). «Memristive
switching mechanism for metal/oxide/metal nanodevice». Nat. Nanotechnol. 3: 429-433. doi:10.1038/nnano.2008.160
(http://dx.doi.org/10.1038%2Fnnano.2008.160).
29. Strukov, D. B.; Snider, G. S.; Stewart, D. R.; Williams, R. S. (2008). «The missing memristor found». Nature 453
(7191): 80-83. Bibcode:2008Natur.453...80S (http://adsabs.harvard.edu/abs/2008Natur.453...80S). PMID 18451858 (https://www.ncbi.
nlm.nih.gov/pubmed/18451858). doi:10.1038/nature06932 (http://dx.doi.org/10.1038%2Fnature06932).
30. Cireşan, Dan Claudiu; Meier, Ueli; Gambardella, Luca María; Schmidhuber, Jürgen (21 de septiembre de 2010).
«Deep, Big, Simple Neural Nets for Handwritten Digit Recognition» (http://www.mitpressjournals.org/doi/10.1162/N
ECO_a_00052). Neural Computation 22 (12): 3207-3220. ISSN 0899-7667 (https://www.worldcat.org/issn/0899-7667).
doi:10.1162/neco_a_00052 (http://dx.doi.org/10.1162%2Fneco_a_00052).
31. Yang, J. J.; Pickett, M. D.; Li, X. M.; Ohlberg, D. A. A.; Stewart, D. R.; Williams, R. S. (2008). «Memristive
switching mechanism for metal/oxide/metal nanodevices». Nat. Nanotechnol. 3 (7): 429-433.
doi:10.1038/nnano.2008.160 (http://dx.doi.org/10.1038%2Fnnano.2008.160).
32. Strukov, D. B.; Snider, G. S.; Stewart, D. R.; Williams, R. S. (2008). «The missing memristor found». Nature 453
(7191): 80-83. Bibcode:2008Natur.453...80S (http://adsabs.harvard.edu/abs/2008Natur.453...80S). PMID 18451858 (https://www.ncbi.
nlm.nih.gov/pubmed/18451858). doi:10.1038/nature06932 (http://dx.doi.org/10.1038%2Fnature06932).
33. Cireşan, Dan; Meier, Ueli; Masci, Jonathan; Schmidhuber, Jürgen (Agosto de 2012). «Multi-column deep neural
network for traffic sign classification» (http://www.sciencedirect.com/science/article/pii/S0893608012000524).
Neural Networks. Selected Papers from IJCNN 2011 32: 333-338. doi:10.1016/j.neunet.2012.02.023 (http://dx.doi.org/10.10
16%2Fj.neunet.2012.02.023).
34. Ciresan, Dan; Giusti, Alessandro; Gambardella, Luca M.; Schmidhuber, Juergen (2012). Pereira, F.; Burges, C. J.
C.; Bottou, L. et al., eds. Advances in Neural Information Processing Systems 25 (http://papers.nips.cc/paper/474
1-deep-neural-networks-segment-neuronal-membranes-in-electron-microscopy-images.pdf). Curran Associates,
Inc. pp. 2843-2851.
35. «The Machine Learning Dictionary» (http://www.cse.unsw.edu.au/~billw/mldict.html#activnfn).
36. Ojha, Varun Kumar; Abraham, Ajith; Snášel, Václav (1 de abril de 2017). «Metaheuristic design of feedforward
neural networks: A review of two decades of research» (http://www.sciencedirect.com/science/article/pii/S0952197
617300234). Engineering Applications of Artificial Intelligence 60: 97-116. doi:10.1016/j.engappai.2017.01.013 (http://dx.d
oi.org/10.1016%2Fj.engappai.2017.01.013).
37. Dominic, S.; Das, R.; Whitley, D.; Anderson, C. (July 1991). «Genetic reinforcement learning for neural networks».
IJCNN-91-Seattle International Joint Conference on Neural Networks (Seattle, Washington, USA: IEEE). ISBN 0-
7803-0164-1. doi:10.1109/IJCNN.1991.155315 (http://dx.doi.org/10.1109%2FIJCNN.1991.155315).
38. Hoskins, J.C.; Himmelblau, D.M. (1992). «Process control via artificial neural networks and reinforcement
learning». Computers & Chemical Engineering 16 (4): 241-251. doi:10.1016/0098-1354(92)80045-B (http://dx.doi.org/10.101
6%2F0098-1354%2892%2980045-B).
39. Bertsekas, D.P.; Tsitsiklis, J.N. (1996). Neuro-dynamic programming (https://papers.nips.cc/paper/4741-deep-neur
al-networks-segment-neuronal-membranes-in-electron-microscopy-images). Athena Scientific. p. 512. ISBN 1-
886529-10-8.
40. de Rigo, D.; Rizzoli, A. E.; Soncini-Sessa, R.; Weber, E.; Zenesi, P. (2001). «Neuro-dynamic programming for the
efficient management of reservoir networks» (https://zenodo.org/record/7482/files/de_Rigo_etal_MODSIM2001_a
ctivelink_authorcopy.pdf). Proceedings of MODSIM 2001, International Congress on Modelling and Simulation
(Canberra, Australia: Modelling and Simulation Society of Australia and New Zealand). ISBN 0-867405252.
doi:10.5281/zenodo.7481 (http://dx.doi.org/10.5281%2Fzenodo.7481). Consultado el 29 de julio de 2012.
41. Damas, M.; Salmeron, M.; Díaz, A.; Ortega, J.; Prieto, A.; Olivares, G. (2000). «Genetic algorithms and neuro-
dynamic programming: application to water supply networks». Proceedings of 2000 Congress on Evolutionary
https://es.wikipedia.org/wiki/Red_neuronal_artificial 20/22
4/7/2019 Red neuronal artificial - Wikipedia, la enciclopedia libre
Computation (La Jolla, California, USA: IEEE). ISBN 0-7803-6375-2. doi:10.1109/CEC.2000.870269 (http://dx.doi.org/10.110
9%2FCEC.2000.870269).
42. Deng, Geng; Ferris, M.C. (2008). «Neuro-dynamic programming for fractionated radiotherapy planning». Springer
Optimization and Its Applications. Springer Optimization and Its Applications 12: 47-70. ISBN 978-0-387-73298-5.
doi:10.1007/978-0-387-73299-2_3 (http://dx.doi.org/10.1007%2F978-0-387-73299-2_3).
43. M. Forouzanfar; H. R. Dajani; V. Z. Groza; M. Bolic; S. Rajan (July 2010). Comparison of Feed-Forward Neural
Network Training Algorithms for Oscillometric Blood Pressure Estimation (https://www.researchgate.net/profile/Mo
hamad_Forouzanfar/publication/224173336_Comparison_of_Feed-Forward_Neural_Network_training_algorithms
_for_oscillometric_blood_pressure_estimation/links/00b7d533829c3a7484000000.pdf?ev=pub_int_doc_dl&origin=
publication_detail&inViewer=true&msrp=TyT96%2BjWOHJo%2BVhkMF4IzwHPAImSd442n%2BAkEuXj9qBmQSZ
495CpxqlaOYon%2BSlEzWQElBGyJmbBCiiUOV8ImeEqPFXiIRivcrWsWmlPBYU%3D). Arad, Romania: IEEE.
44. de Rigo, D.; Castelletti, A.; Rizzoli, A. E.; Soncini-Sessa, R.; Weber, E. (January 2005). «A selective improvement
technique for fastening Neuro-Dynamic Programming in Water Resources Network Management» (http://www.nt.n
tnu.no/users/skoge/prost/proceedings/ifac2005/Papers/Paper4269.html). En Pavel Zítek. Proceedings of the 16th
IFAC World Congress – IFAC-PapersOnLine (Prague, Czech Republic: IFAC) 16. ISBN 978-3-902661-75-3.
doi:10.3182/20050703-6-CZ-1902.02172 (http://dx.doi.org/10.3182%2F20050703-6-CZ-1902.02172). Consultado el 30 de
diciembre de 2011.
45. Ferreira, C. (2006). «Designing Neural Networks Using Gene Expression Programming» (http://www.gene-expres
sion-programming.com/webpapers/Ferreira-ASCT2006.pdf). In A. Abraham, B. de Baets, M. Köppen, and B.
Nickolay, eds., Applied Soft Computing Technologies: The Challenge of Complexity, pages 517–536, Springer-
Verlag.
46. Da, Y.; Xiurun, G. (July 2005). «An improved PSO-based ANN with simulated annealing technique». En T.
Villmann. New Aspects in Neurocomputing: 11th European Symposium on Artificial Neural Networks (Elsevier).
doi:10.1016/j.neucom.2004.07.002 (http://dx.doi.org/10.1016%2Fj.neucom.2004.07.002).
47. Wu, J.; Chen, E. (May 2009). Wang, H., Shen, Y., Huang, T., Zeng, Z., ed. A Novel Nonparametric Regression
Ensemble for Rainfall Forecasting Using Particle Swarm Optimization Technique Coupled with Artificial Neural
Network. Springer. ISBN 978-3-642-01215-0. doi:10.1007/978-3-642-01513-7-6 (http://dx.doi.org/10.1007%2F978-3-642-01513-7-6).
48. Ting Qin, et al. "A learning algorithm of CMAC based on RLS." Neural Processing Letters 19.1 (2004): 49–61.
49. Ting Qin, et al. "Continuous CMAC-QRLS and its systolic array." Neural Processing Letters 22.1 (2005): 1–16.
50. Zissis, Dimitrios (October 2015). «A cloud based architecture capable of perceiving and predicting multiple vessel
behaviour» (http://www.sciencedirect.com/science/article/pii/S1568494615004329). Applied Soft Computing 35:
652-661. doi:10.1016/j.asoc.2015.07.002 (http://dx.doi.org/10.1016%2Fj.asoc.2015.07.002).
51. Sengupta, Nandini; Sahidullah, Md; Saha, Goutam (August 2016). «Lung sound classification using cepstral-
based statistical features» (http://www.sciencedirect.com/science/article/pii/S0010482516301263). Computers in
Biology and Medicine 75 (1): 118-129. doi:10.1016/j.compbiomed.2016.05.013 (http://dx.doi.org/10.1016%2Fj.compbiomed.2016.
05.013).
52. Schechner, Sam (15 de junio de 2017). «Facebook Boosts A.I. to Block Terrorist Propaganda» (https://www.wsj.co
m/articles/facebook-boosts-a-i-to-block-terrorist-propaganda-1497546000). Wall Street Journal (en inglés
estadounidense). ISSN 0099-9660 (https://www.worldcat.org/issn/0099-9660). Consultado el 16 de junio de 2017.
53. Crick, Francis (1989). «The recent excitement about neural networks» (http://europepmc.org/abstract/med/291134
7). Nature 337 (6203): 129-132. Bibcode:1989Natur.337..129C (http://adsabs.harvard.edu/abs/1989Natur.337..129C).
PMID 2911347 (https://www.ncbi.nlm.nih.gov/pubmed/2911347). doi:10.1038/337129a0 (http://dx.doi.org/10.1038%2F337129a0).
54. Adrian, Edward D. (1926). «The impulses produced by sensory nerve endings» (http://onlinelibrary.wiley.com/doi/1
0.1113/jphysiol.1926.sp002273/full). The Journal of Physiology 61 (1): 49-72. PMC 1514809 (https://www.ncbi.nlm.nih.go
v/pmc/articles/PMC1514809). PMID 16993776 (https://www.ncbi.nlm.nih.gov/pubmed/16993776). doi:10.1113/jphysiol.1926.sp002273 (h
ttp://dx.doi.org/10.1113%2Fjphysiol.1926.sp002273).
55. Dewdney, A. K. (1 de abril de 1997). Yes, we have no neutrons: an eye-opening tour through the twists and turns
of bad science (https://books.google.com/books?id=KcHaAAAAMAAJ&pg=PA82). Wiley. p. 82. ISBN 978-0-471-
10806-1.
Enlaces externos
Wikimedia Commons alberga una galería multimedia sobre Red neuronal artificial.
Tutorial de la Universidad Politécnica de Madrid (https://web.archive.org/web/20070629003454/http://www.gc.ssr.
upm.es/inves/neural/ann2/anntutorial.html) (español)
Introducción a las redes de neuronas artificiales (http://sabia.tic.udc.es/mgestal/cv/RNAtutorial/index.html)
(español)
Artículos sobre redes neuronales artificiales (https://web.archive.org/web/20071113143131/http://www.neurosecur
ity.com/articles.php) (inglés)
Sitio web sobre redes neuronales artificiales, ejemplos y aplicaciones (http://electronica.com.mx/neural) (español)
Introducción a las Redes Neuronales y sus Modelos (http://www.redes-neuronales.com.es/tutorial-redes-neuronal
es/tutorial-redes.htm) (español)
https://es.wikipedia.org/wiki/Red_neuronal_artificial 21/22
4/7/2019 Red neuronal artificial - Wikipedia, la enciclopedia libre
Obtenido de «https://es.wikipedia.org/w/index.php?title=Red_neuronal_artificial&oldid=115786168»
Esta página se editó por última vez el 7 may 2019 a las 18:45.
El texto está disponible bajo la Licencia Creative Commons Atribución Compartir Igual 3.0; pueden aplicarse
cláusulas adicionales. Al usar este sitio, usted acepta nuestros términos de uso y nuestra política de privacidad.
Wikipedia® es una marca registrada de la Fundación Wikimedia, Inc., una organización sin ánimo de lucro.
https://es.wikipedia.org/wiki/Red_neuronal_artificial 22/22