Vous êtes sur la page 1sur 8

46 INVESTIGACIN Y CIENCIA, agosto 2016

i n fo r m e es p ec i a l

ilustraciones de travis coburn

Las esperanzas que suscitan los vehculos


sin conductor y las nuevas tcnicas de aprendizaje
y razonamiento automatizado han hecho resurgir
la inteligencia artificial. Y tambin han avivado
el miedo a que algn da las mquinas
puedan volverse contra nosotros

Agosto 2016, InvestigacionyCiencia.es 47

informe especial
l a e da d d e o ro d e l a
inteligencia artificial

redes neuronales

APRENDIZAJE
PROFUNDO
Tras aos de decepciones,
la inteligencia artificial est
empezando a cumplir lo que
prometa en sus comienzos
gracias a esta potente tcnica
Yoshua Bengio
************************************

n la dcada de 1950, las computadoras suscitaron un


gran entusiasmo al demostrar teoremas matemticos
y derrotar a seres humanos en partidas de damas. En
los aos sesenta creci la esperanza de que los cientficos emulasen pronto el cerebro humano con ordenadores y programas; se crea que la inteligencia
artificial (IA) no tardara en igualar el rendimiento
humano en cualquier tarea. En 1967, el recientemente fallecido Marvin Minsky, del Instituto de Tecnologa de Massachusetts, vaticin que el reto de la IA se
superara en el plazo de una generacin.
Sin embargo, tal optimismo result prematuro. Aquellas expectativas no fueron colmadas ni por los programas que ayudaban
a los mdicos a efectuar mejores diagnsticos ni por las redes que tomaban como modelo el cerebro humano para reconocer el
contenido de una fotografa. Los algoritmos de esos primeros aos no eran lo suficientemente refinados, y necesitaban una cantidad de datos de la que no se dispona en la poca. Adems, la capacidad de computacin era demasiado limitada para que las
mquinas realizasen los ingentes clculos necesarios para aproximarse a la complejidad del pensamiento humano.

EN SNTESIS

La inteligencia artificial(IA) apareci


como disciplina seria en la dcada
de 1950. Entonces los investigadores
creyeron que podran emular la inteligencia humana en menos tiempo de
lo que durara su carrera.

Las esperanzasse desvanecieron cuando qued claro que los algoritmos y la


potencia de cmputo no bastaban para
culminar la tarea. Algunos consideraron que el intento era un acto de pura
arrogancia.

48 INVESTIGACIN Y CIENCIA, agosto 2016

En los ltimos aos,el desarrollo


de nuevas tcnicas computacionales
inspiradas en las redes de neuronas
del cerebro humano ha resucitado
la esperanza de materializar las promesas originales de la IA.

El aprendizaje profundo, una tcnica que se vale de redes neuronales


complejas, permite que una mquina
aprenda conceptos abstractos. En algunas tareas ya se aproxima a lo que
pueden lograr los seres humanos.

Agosto 2016, InvestigacionyCiencia.es 49

A principios del siglo xxi, el sueo de construir mquinas


con un nivel de inteligencia humano casi se haba desvanecido.
Hasta la expresin inteligencia artificial pareca haber sido
erradicada de las disciplinas serias. Para referirse a las truncadas
esperanzas del perodo comprendido entre los aos setenta y
mediados de los aos 2000, cientficos y escritores hablan de
una sucesin de inviernos de la IA.
Es sorprendente cmo pueden cambiar las cosas en diez
aos. Las perspectivas en IA han mejorado notablemente desde 2005, poca en que comenzaron a despuntar las tcnicas de
aprendizaje profundo: un enfoque para construir mquinas
inteligentes inspirado en la neurociencia y que, en los ltimos
aos, ha impulsado de manera singular la investigacin en IA.
Hoy, grandes empresas tecnolgicas estn invirtiendo miles de
millones en su desarrollo.
Aprendizaje profundo es una manera de referirse a la simulacin de redes de neuronas que aprenden gradualmente
a reconocer imgenes, a comprender el lenguaje o incluso a
tomar decisiones. Esta tcnica descansa en las redes neuronales artificiales, un elemento bsico de la investigacin actual
en IA. Dichas redes no imitan exactamente el funcionamiento
del cerebro. En su lugar, se basan en principios matemticos
generales que, a partir de ejemplos, les permiten aprender a
detectar personas u objetos en una fotografa o a traducir los
principales idiomas del mundo.
El aprendizaje profundo ha transformado la investigacin en
IA y reavivado las ambiciones perdidas en visin computarizada,
reconocimiento de voz, procesamiento del lenguaje natural y
robtica. En 2012 se lanzaron los primeros productos que entendan el habla quizs el lector est familiarizado con Google
Now y poco despus aparecieron aplicaciones que permitan
identificar el contenido de una imagen, una caracterstica hoy
ya incorpora Google Photos.
Todo aquel que se haya sentido frustrado con los engorrosos
mens telefnicos automatizados sabr apreciar las extraordinarias ventajas de poder utilizar un buen asistente personal en
su telfono inteligente. Y quienes recuerden la pobre eficacia
que mostraba el reconocimiento de objetos hace apenas unos
aos, cuando los algoritmos podan confundir un ser inanimado
con un animal, se maravillarn con los progresos logrados en
visin artificial. Hoy disponemos de ordenadores que, bajo ciertas condiciones, pueden discernir gatos, piedras o rostros en
una fotografa casi tan bien como un humano. De hecho, los
programas de IA se han convertido en algo imprescindible para
millones de usuarios de dispositivos mviles. En mi caso, rara
vez escribo mensajes de texto; a menudo me limito a hablarle
al telfono, que a veces incluso me responde.
Estos avances han abierto la puerta a la comercializacin de
una tecnologa que cada vez despierta ms entusiasmo. Las empresas compiten por los mejores profesionales, y alguien con un
doctorado en aprendizaje profundo es una rara avis muy demandada. Numerosos profesores universitarios con experiencia en el
campo segn algunos clculos, la mayora han abandonado el
mbito acadmico atrados por la industria, que ofrece excelentes
medios de investigacin y generosas retribuciones.
Solventar las dificultades que plantea el aprendizaje profundo ha conducido a xitos sensacionales. Hace poco, la victoria de
una red neuronal frente a Lee Sedol, uno de mejores jugadores
de go del mundo, mereci grandes titulares. Pero no todo se
centra en los juegos: un algoritmo reciente parece ser capaz
de diagnosticar un fallo cardaco por medio de imgenes de
resonancia magntica con tanta pericia como un cardilogo.

50 INVESTIGACIN Y CIENCIA, agosto 2016

Yoshua Bengioes catedrtico de ciencias de la

computacin de la Universidad de Montreal y uno


de los padres de la tcnica de aprendizaje profundo.

Inteligencia, conocimiento y aprendiza je

Por qu se top la IA con tantas barreras en las dcadas previas?


La razn reside en que la mayor parte del conocimiento que
poseemos acerca del mundo no se encuentra formalizado en
un lenguaje escrito mediante una secuencia de tareas explcitas,
algo imprescindible para cualquier programa informtico. Eso
impide programar directamente un ordenador para que ejecute
muchas de las acciones que los seres humanos realizamos con
facilidad, como captar el significado de una frase, reconocer
una imagen o conducir un coche. Los intentos para lograrlo
organizando conjuntos de hechos en pormenorizadas bases de
datos, con el objeto de dotar a los ordenadores de un facsmil
de la inteligencia han tenido escaso xito.
Es aqu donde interviene el aprendizaje profundo. Esta tcnica forma parte de una disciplina de IA ms amplia, el aprendizaje automtico (machine learning), el cual se basa en los
principios empleados para entrenar sistemas informticos con
la meta final de que las mquinas se instruyan a s mismas. Uno
de tales principios guarda relacin con lo que un ser humano
o un ordenador considera una buena decisin. En el caso de
los animales, los principios evolutivos dictan que la respuesta a
cada situacin debe llevar a comportamientos que maximicen las
opciones de supervivencia y de reproduccin. En las sociedades
humanas, puede ocurrir que una buena decisin haya de tener
presente qu interacciones sociales reportan un cierto estatus o
una sensacin de bienestar. Sin embargo, cuando se trata de una
mquina, como un coche sin conductor, la bondad de la decisin
depender de la exactitud con que el vehculo autnomo imite
el proceder de un conductor humano competente.
No tiene por qu resultar obvio cmo plasmar en un cdigo
informtico los conocimientos necesarios para tomar una buena
decisin en un determinado contexto. Un ratn, por ejemplo,
posee un conocimiento de su entorno y un sentido innato que le
permiten saber dnde olisquear y cmo mover las patas, hallar
comida o pareja y evitar los depredadores. Ningn programador
sera capaz de especificar un conjunto detallado de instrucciones para reproducir, paso a paso, semejante comportamiento.
Sin embargo, tales conocimientos se encuentran codificados de
alguna manera en el cerebro del roedor.
Antes de crear sistemas autodidactas, los cientficos computacionales deban aclarar una cuestin fundamental: cmo adquirimos conocimientos los seres humanos? Algunos son innatos,
pero la mayora proviene de la experiencia. Lo que sabemos por
intuicin no puede traducirse en una secuencia definida de pasos
apta para ser ejecutada por un ordenador, pero a menudo puede
aprenderse a partir de ejemplos y de la prctica. Desde los aos
cincuenta, los investigadores han estado buscando y procurando
depurar los principios generales que confieren a los animales y
a los seres humanos y, si vamos al caso, a las mquinas la
capacidad de adquirir conocimientos gracias a la experiencia. El
aprendizaje automtico aspira a establecer procedimientos, llamados algoritmos de aprendizaje, que permitan a una mquina
aprender de los ejemplos que se le presenten.
La ciencia del aprendizaje automtico es en gran medida
experimental, puesto que no existe un algoritmo universal de

a p r e n d i z a j e a u t o m t i c o

Redes inteligentes que cada vez lo son ms


Las conexiones entre neuronas colindantes dentro de la corteza cerebral han inspirado la creacin de algoritmos que tratan de imitar estos intrincados enlaces. Se puede ensear a una
red neuronal a reconocer un rostro entrenndola con un nmero
muy grande de imgenes. Una vez que ha aprendido a establecer la categora de cara (distinguindola, por ejemplo, de la de
mano) y a detectar rostros individuales, la red utiliza ese conocimiento para identificar caras que ha visto antes aunque la imagen sea ligeramente distinta de aquella con la que se entren.

Para realizar un reconocimiento facial, la red neuronal analiza primero los pxeles individuales de la imagen que se le presenta en la capa de entrada. A continuacin, en el estrato
siguiente, selecciona formas geomtricas distintivas de un rostro concreto. Al ascender en la jerarqua, una capa intermedia
detecta los ojos, la boca y otras facciones para que, en un nivel
superior, pueda discernirse un rostro completo compuesto por
esos elementos. En la capa de salida, la red hace una suposicin acerca de si la cara corresponde a Pepe, Cris o Lola.

Capas ocultas

Capa de entrada

Salida

Pepe

Aprendizaje
Una red neuronal que
reconoce rostros ha de
entrenarse con, tal vez,
millones de ejemplos
antes de ser capaz de
detectar un rostro individual entre una multitud o en un paisaje lleno
de otros elementos.

Cris
Lola

Reconocimiento
La entrada correspondiente a un rostro se analiza en cada capa de la red
antes de discernir su identidad.

punchstock (caras); jen christiansen (grfico)

Cada capa identica rasgos cada vez ms complejos

aprendizaje: no hay ninguno que posibilite que un ordenador


aprenda bien todas las tareas que se le asignen. Todo algoritmo
de adquisicin de conocimientos ha de ser ensayado en tareas de
aprendizaje con datos especficos de la situacin de que se trate,
ya sea reconocer una puesta de sol o traducir del ingls al urdu.
No hay modo de demostrar que, cualquiera que sea la situacin,
un algoritmo dado lo har siempre mejor que el resto.
Existe una descripcin matemtica formal de este principio:
el teorema de todo cuesta algo (no free lunch), el cual demuestra que no existe ningn algoritmo capaz de abordar todas
las situaciones de aprendizaje del mundo real. Sin embargo, el
comportamiento humano parece contradecir esta afirmacin:
se dira que poseemos facultades cognitivas bastante generales
que nos permiten dominar una multitud de actividades para las
que la evolucin no prepar a nuestros ancestros, como jugar
al ajedrez, construir puentes o investigar en IA.
Esa capacidad de aprendizaje sugiere que la inteligencia humana explota suposiciones generales sobre el mundo, las cuales
podran servir de inspiracin para crear mquinas dotadas de
algn tipo de inteligencia general. Por esta razn, los expertos

en redes neuronales artificiales han elegido el cerebro como


modelo aproximado para disear sistemas inteligentes.
Las unidades principales de computacin en el cerebro son
las neuronas, las cuales se comunican entre s a travs de los
pequeos huecos que hay entre ellas, las hendiduras sinpticas.
Para referirse a la propensin de una neurona a enviar una seal
a travs de ese espacio y a la amplitud de dicha seal se
emplea la expresin fuerza sinptica. Conforme una neurona
aprende, su fuerza sinptica aumenta y, por tanto, tambin es
ms probable que, una vez estimulada por un impulso elctrico,
transmita mensajes a sus vecinas.
La neurociencia espole la aparicin de redes artificiales que
imitaban las neuronas mediante programas informticos o sistemas fsicos. Las primeras investigaciones en esta rea de la IA,
conocida como conexionismo, partan del supuesto de que
las redes neuronales seran capaces de aprender tareas complejas a partir de la alteracin gradual sus conexiones mutuas,
de manera que las pautas de actividad neuronal captasen el
contenido de una entrada determinada, como una imagen o un
fragmento de dilogo. A medida que las redes recibieran ms

Agosto 2016, InvestigacionyCiencia.es 51

ejemplos, el aprendizaje proseguira mediante la modificacin


de las fuerzas sinpticas entre las neuronas, lo que derivara en
representaciones cada vez ms exactas de, digamos, las imgenes
de una puesta de sol.
Lecciones sobre puestas de sol

La redes neuronales modernas amplan el trabajo pionero del


conexionismo. Van cambiando gradualmente ciertos valores
numricos asociados a cada conexin sinptica, los cuales
representan su fuerza y, por tanto, la probabilidad de que la
neurona transmita una seal. Los algoritmos empleados en las
redes de aprendizaje profundo corrigen muy poco a poco estos
parmetros cada vez que se observa una imagen nueva, y los
aproximan constantemente a los que permiten realizar mejores
predicciones sobre el contenido de la imagen.
Para mejorar los resultados, los algoritmos de aprendizaje
actuales requieren una estrecha implicacin humana. La mayora se valen de mtodos de aprendizaje supervisado, en los
que cada ejemplo usado en el entrenamiento
se acompaa de una etiqueta, elaborada por
seres humanos, que indica lo que se pretende
ensear: una foto de un atardecer, digamos,
se asociar con la leyenda puesta de sol. En
este caso, el objetivo del algoritmo consiste en
tomar una fotografa como entrada y producir,
como salida, el nombre del objeto caracterstico de la imagen. El proceso matemtico que
transforma una entrada en una salida se llama
funcin, y los valores numricos (como las fuerzas sinpticas) que la generan corresponden a
una solucin de la tarea de aprendizaje.
Aprender de memoria las respuestas correctas sera fcil pero un tanto intil. Queremos ensear al algoritmo
qu es una puesta de sol, pero de tal modo que luego sea capaz de
reconocerla en cualquier imagen, aunque no la haya visto antes.
El objetivo principal de un algoritmo de aprendizaje automtico
consistira, en este caso, en ser capaz de reconocer cualquier puesta de sol; en otras palabras, en generalizar el aprendizaje ms all
de los casos concretos. De hecho, la calidad del entrenamiento de
una red se evala ponindola a prueba con colecciones de datos
no vistos con anterioridad. La dificultad de clasificar correctamente un nuevo ejemplo nace de las casi infinitas variaciones
posibles que siguen perteneciendo a una determinada categora,
como la etiquetada como puesta de sol.
Para conseguir esta generalizacin a partir de la observacin
de mltiples ejemplos, los algoritmos necesitan algo ms que los
ejemplos mismos. Tambin han de apoyarse en ciertas hiptesis
sobre la informacin introducida y en premisas acerca de en qu
puede consistir la solucin a un problema dado. Una hiptesis
tpica incorporada a un programa podra ser la que enunciase
que, si los datos de entrada de una funcin son similares, las
respuestas no podrn cambiar demasiado; es decir, que, en condiciones normales, alterar unos pocos pxeles en una fotografa
de un gato no transformar al felino en un perro.
Entre las redes neuronales que integran hiptesis acerca
de las imgenes estn las llamadas redes convolucionales.
A ellas se debe, en buena parte, el renovado inters por la IA.
Las redes neuronales convolucionales usadas en el aprendizaje
profundo constan de muchas capas de neuronas, organizadas
de manera que generen una respuesta menos sensible al objeto
principal cuando se altera la imagen; por ejemplo, si se cambia
ligeramente su posicin. Una red bien entrenada debe ser capaz

de identificar un mismo rostro visto desde ngulos diferentes


en fotografas distintas. El diseo de una red convolucional se
inspira en la estructura multicapa de la corteza visual, la regin
del cerebro que recibe estmulos desde los ojos. Los numerosos
estratos de neuronas virtuales que componen una red convolucional son los que la hacen profunda y los que le confieren,
por tanto, una mayor capacidad de aprender sobre el mundo.
capas Profundas

En la prctica, los avances que posibilitaron el aprendizaje profundo se debieron a innovaciones especficas surgidas hace unos
diez aos, cuando el inters en la IA y las redes neuronales haba
alcanzado su punto ms bajo en decenios. El Instituto Canadiense de Investigaciones Avanzadas (CIFAR), una organizacin
financiada por el Gobierno del pas y por donantes privados,
contribuy a reavivar la llama al patrocinar un proyecto dirigido
por Geoffrey Hinton, de la Universidad de Toronto, y en el que
participaban Yann LeCun, de la Universidad de Nueva York,

El retorno de las redes


neuronales tras el largo invierno
de la IA subraya la necesidad de
respaldar ideas que desafen el
orden tecnolgico establecido

52 INVESTIGACIN Y CIENCIA, agosto 2016

Andrew Ng, de Stanford, Bruno Olshausen, de la Universidad


de California en Berkeley, y el autor de estas lneas, entre otros
investigadores. Por entonces, la actitud hacia esta rea de investigacin era tan negativa que resultaba difcil publicar algo sobre
ella e incluso convencer a estudiantes de doctorado para que
trabajaran en el campo. Algunos, sin embargo, compartamos la
sensacin de que era importante seguir intentndolo.
El escepticismo de aquel entonces con respecto a las redes
neuronales naca, en parte, de que se pensaba que entrenarlas resultaba intil por lo difcil que era optimizar su comportamiento. La optimizacin es una rama de las matemticas que
trata de encontrar la configuracin adecuada de un conjunto de
parmetros para lograr un objetivo. En este caso, los parmetros
son los pesos sinpticos que representan la intensidad con que
una seal se transmite de una neurona a otra.
El objetivo consiste en realizar predicciones con el mnimo
nmero de errores. Cuando la relacin entre los parmetros y
un objetivo es simple o, en trminos ms tcnicos, cuando
el objetivo es una funcin convexa de los parmetros, estos
se pueden ajustar progresivamente. El proceso se repite hasta
que los parmetros convergen a los valores que producen la
mejor eleccin posible, conocida como mnimo global, la cual
corresponde al error medio ms bajo alcanzable.
Por norma general, sin embargo, el entrenamiento de una red
neuronal no es tan sencillo y requiere lo que se denomina una
optimizacin no convexa. Estos problemas presentan grandes
dificultades, por lo que numerosos investigadores crean que
el obstculo era insalvable. El algoritmo de aprendizaje puede
converger a un mnimo local (una solucin que no es la mejor
de todas) y quedarse atascado en l. Una vez all, ser incapaz

de disminuir el error de la prediccin mediante un ligero ajuste


de los parmetros
Hasta el ao pasado no cay el mito de que entrenar a una
red neuronal resultaba difcil a causa de los mnimos locales.
En nuestras investigaciones, descubrimos que este problema se
reduca en gran medida si la red neuronal era lo suficientemente
grande. En realidad, la mayora de esos mnimos corresponden
a haber adquirido un conocimiento de un nivel que casi iguala
el valor ptimo del mnimo global.
Aunque los problemas tericos de optimizacin podan resolverse as en teora, a menudo se haba fracasado en la construccin de grandes redes con ms de dos o tres capas. Desde 2005,
varios estudios financiados por el CIFAR han permitido superar
esas barreras. En 2006 conseguimos entrenar redes neuronales
ms profundas aplicando una tcnica que proceda capa a capa.
Ms tarde, en 2011, encontramos un mtodo mejor para entrenar
redes an ms profundas (con ms niveles de neuronas virtuales), basado en modificar los clculos efectuados por cada una de
estas unidades de procesamiento para que se parecieran ms a la
manera de proceder de las neuronas biolgicas. Tambin descubrimos que, de manera similar a lo que ocurre en el cerebro, la
introduccin de ruido aleatorio en las seales transmitidas entre
las neuronas durante el entrenamiento aumentaba su capacidad
de aprender a reconocer una imagen o un sonido.
Dos factores clave contribuyeron al xito del aprendizaje profundo. Por un lado, la velocidad de cmputo se decuplic de golpe
gracias a unidades de procesamiento grfico diseadas inicialmente para los videojuegos, lo que permiti entrenar a redes de
gran tamao en tiempos razonables. Por otro, los algoritmos se
beneficiaron de la disponibilidad de enormes conjuntos de datos
etiquetados, para los cuales era posible encontrar la respuesta
correcta (gato, por ejemplo, al inspeccionar una fotografa en
la que un gato es solo uno de los componentes).
Otra razn del xito del aprendizaje profundo radica en su
facultad para aprender a ejecutar una secuencia de clculos
que construyen o analizan, paso a paso, una imagen, un sonido o cualquier otro tipo de dato. La profundidad de la red
corresponde al nmero de pasos. Para muchas de las tareas de
reconocimiento visual o auditivo en las que sobresale la IA, se
requieren las numerosas capas de las redes profundas. De hecho,
en varios estudios experimentales y tericos recientes, hemos
demostrado que algunas de estas operaciones matemticas no
podran llevarse a cabo de manera eficiente si las redes no tuviesen la suficiente profundidad.
Cada capa de una red neuronal profunda transforma la entrada que recibe y genera una salida que se enva a la capa
siguiente. La red representa conceptos ms abstractos en los
estratos ms profundos, los ms alejados de la entrada sensorial
inicial. Los experimentos muestran que las neuronas artificiales
de los niveles ms profundos de la red tienden a corresponderse
con conceptos semnticos ms abstractos. Considere un objeto
visual, como un escritorio. El reconocimiento de la imagen del
escritorio podra surgir del procesamiento de las neuronas en
un estrato profundo, aun cuando la palabra escritorio no
formara parte de las etiquetas de categora usadas en el entrenamiento de la red. Y esto podra ser solo un paso intermedio
hacia la creacin, en un nivel superior, de un concepto an ms
abstracto, como el de escena de oficina.

el reconocimiento de patrones en imgenes estticas. Sin embargo, otra clase de red neuronal est dejando tambin su impronta,
especialmente por sus aplicaciones a sucesos que se extienden
en el tiempo. Las redes neuronales recurrentes han demostrado
su capacidad para efectuar correctamente secuencias de clculos
relacionados con datos de voz o de vdeo, entre otros. Dichos
datos se componen de una serie de unidades ya sean fonemas
o palabras completas que se suceden en el tiempo. El procedimiento por el cual las redes recurrentes procesan sus entradas
guarda cierta semejanza con la forma de trabajar del cerebro.
Las seales que circulan entre las neuronas varan constantemente a medida que se analizan los estmulos percibidos por
los sentidos. Este estado neuronal interno se modifica segn
la informacin ms reciente suministrada al cerebro desde el
entorno, antes de emitir una serie de rdenes que resultan en
unos movimientos corporales dirigidos a conseguir una meta
concreta.
Las redes recurrentes pueden predecir cul ser la siguiente
palabra de una frase hablada o escrita, lo que tambin permite
generar nuevas secuencias de palabras, una a una. Tambin
pueden afrontar tareas ms complejas. Tras leer todas las
palabras de una frase, la red puede deducir el significado de la
oracin completa. Una red recurrente distinta puede valerse
entonces del procesamiento semntico de la primera para traducir la frase a otro idioma.
La investigacin en redes neuronales recurrentes vivi su
propio perodo de abandono a finales del siglo xx y principios
del xxi. Mi trabajo terico indicaba que podran tropezar con
dificultades a la hora de aprender a recuperar datos del pasado
distante (los primeros elementos de la secuencia que se estuviese
procesando), como cuando intentamos recitar las primeras frases de un libro despus de haber llegado al final. Sin embargo,
diversos avances han paliado algunos de estos problemas al
dotar a estas redes de la capacidad de aprender a almacenar
informacin para que persista durante un perodo prolongado. Las redes neuronales pueden usar la memoria temporal de
un ordenador para procesar mltiples fragmentos dispersos
de informacin, como las ideas contenidas en diferentes frases
esparcidas a lo largo de un documento.
El retorno de las redes neuronales profundas tras el largo
invierno de la IA no solo supone un triunfo tecnolgico, sino que
tambin nos proporciona una leccin sobre la sociologa de la
ciencia. En particular, subraya la necesidad de respaldar ideas
que desafan el orden tecnolgico establecido y la de alentar una
cartera de investigaciones variada que apueste por disciplinas
que hayan perdido popularidad temporalmente.

Ms all del reconocimiento de patrones

Tcnicas de aprendizaje automatizado.Y. S. Abu-Mostafa en IyC, abril de 2013.


Mquinas capaces de aprender.Nicola Jones en MyC n.o 70, 2015.

PARA SABER MS

ImageNet classification with deep convolutional neural networks.Alex


Krizhevsky et al. Presentado en 26th Annual Conference on Neural Information
Processing Systems (NIPS 2012), Stateline, Nevada (EE.UU.), 3-8 de diciembre
de 2012.
Representation learning: A review and new perspectives.Y. Bengio et al. en
IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 35, n.o 8,
pgs. 1798-1828, agosto de 2013.
Deep learning.Yann LeCun et al. en Nature, vol. 521, pgs. 436-444, mayo de 2015.
en nuestro archivo

Hasta hace poco, las redes neuronales artificiales se distinguan


en gran medida por su capacidad para llevar a cabo tareas como

Agosto 2016, InvestigacionyCiencia.es 53

Vous aimerez peut-être aussi