Académique Documents
Professionnel Documents
Culture Documents
Aprendizaje adaptativo.
La capacidad de aprendizaje adaptativo es una de las características más
atractivas de las redes neuronales. Esto es, aprenden a llevar a cabo ciertas
tareas mediante un entrenamiento con ejemplos ilustrativos. Como las redes
neuronales pueden aprender a diferenciar patrones mediante ejemplos y
entrenamiento, no es necesario que elaboremos modelos a priori ni necesitamos
especificar funciones de distribución de probabilidad. Las redes neuronales son
sistemas dinámicos autoadaptativos. Son adaptables debido a la capacidad de
autoajustarse de los elementos procesales (neuronas) que componen el sistema.
Son dinámicos pues son capaces de estar constantemente cambiando para
adaptarse a las nuevas condiciones. En el proceso de aprendizaje, los enlaces
ponderados de las neuronas, se ajustan de manera que se obtengan unos
resultados específicos. Una red neuronal no necesita un algoritmo para resolver
un problema, ya que ella puede generar su propia distribución de los pesos de los
enlaces mediante el aprendizaje. También existen redes que continúan
aprendiendo a lo largo de su vida después de completado el período inicial de
entrenamiento La función del diseñador es únicamente la obtención de la
arquitectura apropiada. No es problema del diseñador el cómo la red aprenderá a
discriminar; sin embargo, si es necesario que desarrolle un buen algoritmo de
aprendizaje que proporcionará la capacidad de discriminar de la red mediante un
entrenamiento con patrones.
Autoorganización.
Las redes neuronales usan su capacidad de aprendizaje adaptativo para
autoorganizarse la información que reciben durante el aprendizaje y/o la
operación. Mientras que el aprendizaje es la modificación de cada elemento
procesal, la autoorganización consiste en la modificación de la red neuronal
completa para llevar a cabo un objetivo específico. Cuando las redes neuronales
se usan para reconocer ciertas clases de patrones, ellas se autoorganizan la
información usada. Por ejemplo, la red llamada back-propagation se creará su
propia representación característica mediante la cual puede reconocer ciertos
patrones. Esta autoorganización provoca la generalización: facultad de las redes
neuronales de responder apropiadamente cuando se les presenta datos o
situaciones a los que no habían sido expuestas anteriormente. El sistema puede
generalizar la entrada para obtener una respuesta. Esta característica es muy
importante cuando se tienen que solucionar problemas en los cuales la
información de entrada es poco clara; además, permite que el sistema de una
solución incluso cuando la información de entrada está especificada de forma
incompleta.
Tolerancia a fallos.
Las redes neuronales son los primeros métodos computacionales con la
capacidad inherente de tolerancia a fallos. Comparados con los sistemas
computacionales tradicionales, los cuáles pierden su funcionalidad en cuanto
sufren un pequeño error de memoria, en las redes neuronales, si se produce un
fallo en un pequeño número de neuronas, aunque el comportamiento del sistema
se ve influenciado, sin embargo, no sufre una caída repentina. Hay dos aspectos
distintos respecto a la tolerancia a fallos: primero, las redes pueden aprender a
reconocer patrones con ruido, distorsionados o incompletos, esta es una tolerancia
a fallos respecto a los datos. Segundo, ellas pueden seguir realizando su función
(con cierta degradación) aunque se destruya parte de la red. La razón por la que
las redes neuronales son tolerantes a los fallos es el que tienen su información
distribuida en las conexiones entre neuronas, existiendo un cierto grado de
redundancia en este tipo de almacenamiento. La mayoría de los ordenadores
algorítmicos y sistemas de recuperación de datos, almacenan cada pieza de
información en un espacio único, localizado y direccionable. Las redes neuronales
almacenan información no localizada. Por tanto, la mayoría de las interconexiones
entre los nodos de la red tendrán unos valores en función de los estímulos
recibidos y se generará un patrón de salida que represente la información
almacenada.
Operación en tiempo real.
Una de las mayores prioridades de la mayoría de las áreas de aplicación es la
necesidad de realizar grandes procesos con datos de forma muy rápida. Las redes
neuronales se adaptan bien a esto debido a su implementación paralela. Para que
la mayoría de las redes puedan operan en un entorno de tiempo real, la necesidad
de cambio en los pesos de las conexiones o entrenamiento es mínima. Por tanto,
de todos los métodos posibles, las redes neuronales son la mejor alternativa para
reconocimiento y clasificación de patrones en tiempo real.
Fácil inserción dentro de la tecnología existente.
Una red individual puede ser entrenada para desarrollar una única y bien definida
tarea (tareas complejas, que hagan múltiples selecciones de patrones, requerirán
sistemas de redes interconectadas). Debido a que una red puede ser rápidamente
entrenada, testeada, verificada y trasladada a una implementación hardware de
bajo coste, es fácil insertar redes neuronales para aplicaciones específicas dentro
de sistemas existentes. De esta manera, las redes neuronales se pueden utilizar
para mejorar sistemas de forma incremental, y cada paso puede ser evaluado
antes de acometer un desarrollo más amplio.
REDES NEURONALES E INTELIGENCIA ARTIFICIAL
Dentro de lo que se entiende por Inteligencia Artificial (I.A.), una de las ramas más
prometedoras es la que corresponde a las denominadas redes de autoproceso,
entendiendo como tales aquellas formadas por nodos en los que hay elementos
procesadores de información de cuyas interacciones locales depende el
comportamiento del conjunto del sistema.
Como indica la figura, dentro del campo de la inteligencia artificial, existen dos
grandes ramas de las redes de autoproceso:
a) Procesamiento numérico: Reciben directamente la señal de entrada desde el
exterior y operan sobre ella. Esta rama se dedica a los sistemas constituidos por
nodos hardware interconectados entre sí formando una red. También se les suele
llamar sistemas conectivistas o conexionistas. Si la conexión entre los nodos se
realiza de forma global bajo unas reglas de composición, estamos ante los
llamados Sistemas Distribuidos, mientras que si la conexión se realiza agrupando
en subredes, se denominan Sistemas Asociativos o "Redes de Redes". Dentro de
los sistemas distribuidos, si realizamos agrupaciones locales de los nodos para
representar conceptos, estaríamos ante las denominadas Redes Subsimbólicas;
mientras que si lo que realiza es una distribución en la que cada nodo funciona
corporativamente, se denomina Red Neuronal o Neurocomputador (cada nodo
está constituido por una neurona).
b) Procesamiento simbólico: estas redes están constituidas por "conceptos"
(NODOS de la red) y por "reglas sintácticas" (lazos de INTERCONEXION); ambas
forman las denominadas bases de conocimiento. La simulación de estas redes es
casi exclusivamente software. Como se vio en la panorámica histórica de la
evolución de las redes neuronales, durante toda la década de los 70, hasta el
resurgimiento con los trabajos de Hopfield, decayó el Figura 1.2 Situación de las
redes neuronales en el campo de la Inteligencia Artificial [López 89]. estudio de
las redes neuronales y las investigaciones se orientaron al campo de la I.A.,
gracias a lo cual, se ha desarrollado una extensa teoría y unas aplicaciones que
tienen una gran importancia actualmente. Por otro lado, esto no quiere decir que
las teorías de redes neuronales y de I.A. estén separadas; de hecho, ya se ha
visto cómo se pueden situar e interconectar la teoría de las redes neuronales
dentro del campo de la I.A. Sin embargo, existen unas diferencias de las redes
neuronales con respecto a lo que se entiende como inteligencia artificial clásica
muy relevantes y que destacamos a continuación: * Representación del
Conocimiento: En I.A. se utilizan métodos de representación del conocimiento
(Reglas de Producción, marcos, esquemas, reglas semánticas, etc.) generalmente
localizados: átomos de conocimiento, concepto asociado a una regla, etc. Esto
hace que la gestión de las bases de conocimiento sea problemática: añadir una
regla o suprimir un dato puede tener consecuencias imprevisibles sobre los demás
datos. Actualmente se piensa que los conocimientos se representan de forma
distribuida en el cerebro: la "memoria" de un hecho corresponderá a la activación
de una familia específica de neuronas. De esto se pueden deducir algunas
consecuencias: a) La red puede crear su propia organización de la información. b)
Como se dispone de un número finito de neuronas, varios hechos se memorizan
por la activación de clases de neuronas no disjuntas. c) Mejor tolerancia a fallos, la
pérdida de neuronas no implica que se deje de recordar, por tanto, debe existir
información redundante.
* Mecanismos de Inferencia:
Los mecanismos de inferencia (razonamiento) utilizados en I.A. están basados en
la lógica (lenguaje PROLOG, por ejemplo). Sin embargo, el cerebro humano no
realiza un razonamiento necesariamente lógico; utiliza la imprecisión y la
contradicción parcial. El modo de funcionamiento del cerebro es la evolución
dinámica de las actividades neuronales.
* Aprendizaje:
El aprendizaje en I.A. consiste simplemente en añadir nuevos átomos de
conocimiento (nuevos hechos, reglas, etc.). En el cerebro, el aprendizaje de un
hecho parecido a otro del que ya tenemos conocimiento, se hace por refuerzo de
las conexiones entre neuronas y esta actividad conjunta es necesaria para
memorizarlo. Se ha demostrado que si un sujeto no está expuesto a ciertos
estímulos al comienzo de su vida, no podrá detectar más estos estímulos debido a
la degeneración de las conexiones necesarias.
* Paralelismo:
Es una característica innata de los sistemas conexionistas. Aunque un ordenador
realiza cálculos mucho más deprisa que un ser humano, no es capaz de
desarrollar procesos que éste realiza de forma sencilla (comprensión de una frase,
analizar una imagen, reconocer un rostro, movimiento en un espacio determinado,
etc.). Esto es debido a que el cerebro humano, para hacerlo, pone en marcha
simultáneamente a millones de neuronas. Para terminar de situar la teoría de
redes neuronales dentro del mundo de la "computación" en general, y frente a la
I.A. en particular, en la tabla se resume y sintetiza parte de las ideas vistas hasta
ahora acerca de las redes neuronales y las diferencias existentes respecto a la
computación "convencional" (máquinas tipo Von Neumann) y a la computación
"simbólica" (I.A.). Se muestran las diferencias en función de la teorías en las que
se basan; en los campos para las que son y no son apropiadas, el tipo de memoria
que utilizan, cómo se construyen y qué tipo de soporte utilizan.
Medicina
Analizadores del habla para la ayuda de audición de sordos profundos.
Diagnóstico y tratamiento a partir de síntomas y/o de datos analíticos
(Electrocardiograma, encefalograma, análisis saguíneo, etc.).
Monitorización en cirugía.
Predicción de reacciones adversas a los medicamentos.
Lectores de rayos X.
Entendimiento de la causa de los ataques epilépticos.
Militares
Clasificación de las señales de radar.
Creación de armas inteligentes.
Optimización del uso de recursos escasos.
Reconocimiento y seguimiento en el tiro al blanco.