Vous êtes sur la page 1sur 14

R

edes neuronales artificiales. Como son y como funcionan


Gerardo Barrera Cardiel
Instituto de Investigaciones. Metalrgicas, UMSNH

Resumen
En este trabajo se hace un anlisis de los principios bsicos y tcnicas ms utilizadas en el campo de las redes neuronales artificiales, de la extraccin de caractersticas y del entrenamiento de las mismas para las operaciones de clasificacin. La tcnica de redes neuronales artificiales puede simular en un momento dado el comportamiento de un experto humano en deteccin, clasificacin y evaluacin, ya que es una emulacin del cerebro humano en la interpretacin de los datos. Esta tcnica permite modelar procesos no lineales complejos con una gran exactitud y se emplea actualmente en: sistemas de control (el rea ms aplicada) y reconocimiento de patrones (imagen, audio, proceso de seal, etc.) entre otras aplicaciones.

1. Introduccin
EL cerebro humano es uno de los rganos ms complejos conocidos por el ser humano, se puede decir que es un dispositivo de clculo casi perfecto. El cerebro no slo puede resolver problemas, recordar, organizar, etc, adems y muy importante, aprende. El cerebro humano contiene aproximadamente 12 billones de clulas nerviosas o neuronas [1]. Cada neurona tiene de 5.600 a 60.000 conexiones dendrticas provenientes de otras neuronas, figura 1. Estas conexiones transportan los impulsos enviados desde otras neuronas y estn conectadas a la membrana de la neurona. Cada neurona tiene una salida denominada axn. El contacto de cada axn con una dendrita se realiza a travs de la sinapsis. Tanto el axn como las dendritas transmiten la seal en una nica direccin. Cada neurona recibe de 10,000 a 100,000 sinpsis y el axn realiza una cantidad de conexiones similar.

Ciencia Nicolaita No. 35

181

Agosto de 2003

Redes neuronales artificiales ...

Figura 1. Componentes de una neurona y sus conexiones sinpticas [1]

Las neuronas son elctricamente activas e interactan entre ellas mediante un flujo de corrientes elctricas locales. Estas corrientes se deben a diferencias de potencial entre las membranas celulares de las neuronas. Un impulso nervioso es un cambio de voltaje que ocurre en una zona localizada de la membrana celular. El impulso se transmite a travs del axn hasta llegar a la sinapsis, produciendo la liberacin de una sustancia qumica denominada neurotransmisor que se esparce por el fluido existente en el espacio sinptico. Cuando este fluido alcanza el otro extremo transmite la seal a la dendrita. Los impulsos recibidos desde la sinapsis se suman o restan a la magnitud de las variaciones del potencial de la membrana. Si las contribuciones totales alcanzan un valor determinado (alrededor de 10 milivoltios) se disparan uno o ms impulsos que se propagarn a lo largo del axn. El efecto de los neurotransmisores sobre la neurona receptora puede ser excitatorio o inhibitorio, y es variable (la intensidad del efecto depende de numerosos factores que no sera oportuno describir aqu), de manera que podemos hablar de la fuerza o efectividad de una sinpsis. Las seales excitatorias e inhibitorias recibidas por una neurona se combinan, y en funcin de la estimulacin total recibida, la neurona toma un cierto nivel de activacin, que se traduce en la generacin de breves impulsos nerviosos con una determinada frecuencia de disparo, y su propagacin a lo largo del axn hacia las neuronas con las cuales sinapta. De esta manera la informacin se transmite de unas neuronas a otras y va siendo procesada a travs de las conexiones sinpticas y las propias neuronas. El aprendizaje de las redes neuronales se produce mediante la variacin de la efectividad de las sinpsis, de esta manera cambia la influencia que unas neuronas ejercen sobre otras, de aqu se deduce que la arquitectura, el tipo y la efectividad de las conexiones en un momento dado, representan en cierto modo la memoria o estado de conocimiento de la red.

2. Redes Neuronales Artificiales (RNA)


Las neuronas artificiales [2] se modelan mediante unidades de proceso (neuronas). Cada unidad de proceso se compone de una red de conexiones de entrada, una funcin de
Agosto de 2003 182 Ciencia Nicolaita No. 35

Redes neuronales artificiales ...

Figura 2. Unidad de proceso tpica.

red (de propagacin), encargada de computar la entrada total combinada de todas las conexiones, un ncleo central de proceso, encargado de aplicar la funcin de activacin, y la salida, por donde se transmite el valor de activacin a otras unidades, figura 2. La funcin de red es tpicamente una sumatoria ponderada, mientras que la funcin de activacin suele ser alguna funcin de umbral, como por ejemplo la funcin sigmoide. Funcin de propagacin o de red: Calcula el valor de base o entrada total a la unidad, generalmente como simple suma ponderada de todas las entradas recibidas, es decir, de las entradas multiplicadas por el peso o valor de las conexiones. Equivale a la combinacin de las seales excitatorias e inhibitorias de las neuronas biolgicas. Funcin de activacin: Es quizs la caracterstica principal o definitoria de las neuronas, la que mejor define el comportamiento de la misma. Se usan diferentes tipos de funciones, desde simples funciones simples de umbral a funciones no lineales. Se encarga de calcular el nivel o estado de activacin de la neurona en funcin de la entrada total. Conexiones ponderadas: hacen el papel de las conexiones sinpticas, el peso de la conexin equivale a la fuerza o efectividad de la sinpsis. Las existencia de conexiones determina si es posible que una unidad influya sobre otra, el valor de los pesos y el signo de los mismos definen el tipo (excitatorio/inhibitorio) y la intensidad de la influencia. Salida: calcula la salida de la neurona en funcin de la activacin de la misma, aunque normalmente no se aplica ms que la funcin identidad, y se toma como salida el valor de activacin. El valor de salida cumplira la funcin de la tasa de disparo en las neuronas biolgicas. En la tabla I se hace una analoga entre las redes neuronas biolgicas y las redes neuronales artificiales.

Ciencia Nicolaita No. 35

183

Agosto de 2003

Redes neuronales artificiales ... Tabla I Comparacin entre las neuronas biolgicas reales y las unidades de proceso artificiales[3]. Redes Neuronales Biolgicas Neuronas Conexiones sinpticas Efectividad de las sinpsis Efecto excitatorio o inhibitorio de una conexin Efecto combinado de las sinpsis Activacin -> tasa de disparo Redes Neuronales Artificiales Unidades de proceso Conexiones ponderadas Peso de las conexiones Signo del peso de una conexin Funcin de propagacin o de red Funcin de activacin -> Salida

3. Estructura de una red


Existe una gran variedad de tipos de estructura de red, cada una de las cuales muestran distintas caractersticas de cmputo. La principal diferencia est entre las redes de alimentacin progresiva (feed-forward) o en cascada y las redes recurrentes (feed-back), que hasta ahora son las que presentan mejor exactitud y robustez (definida como la capacidad de una red para generalizar) [4]. En las redes en cascada la informacin fluye unidireccionalmente de una capa a otra (desde la capa de entrada a las capas ocultas y de stas a la capa de salida), y adems, no se admiten conexiones intra-capa y no hay ciclos. En una red recurrente, las conexiones pueden formar topologas arbitrarias, como se observa en la figura 3. La informacin puede volver a lugares por los que ya haba pasado, formando bucles, y se admiten las conexiones intra-capa (laterales), incluso de una unidad consigo misma.

Figura 3. Modelos de redes, de alimentacin progresiva y recurrente. Agosto de 2003 184 Ciencia Nicolaita No. 35

Redes neuronales artificiales ...

Figura 4. Red de prealimentacin con dos niveles y una capa escondida

Por lo general las redes estn configuradas en capas o niveles (una capa se define como un conjunto de neuronas conectadas en paralelo o nodos). En la red de prealimentacin de capas, cada una de las unidades est conectada solamente a las unidades del nivel siguiente; no existen conexiones entre las unidades que estn en el mismo nivel, conexiones con niveles anteriores, ni conexiones que salten de nivel. En la figura 4 se muestra un ejemplo de una red sencilla de prealimentacin con niveles [5]. Las redes neuronales artificiales (RNA) pueden ser muy exactas, incrementando el nmero de capas ocultas y el nmero de nodos en esas capas, pero las variaciones que se presentarn en los datos subsecuentes (los datos a clasificar) pueden producir gran desviacin de la salida deseada; hay entonces, un compromiso entre el nmero de capas y neuronas con el grado de exactitud obtenible con los datos de entrenamiento. La mayor justificacin del uso de las RNA es su habilidad para ver y aprender relaciones en conjuntos de datos complejos que no pueden ser fcilmente percibidos por humanos. Una red neuronal artificial realiza su funcin como un resultado del entrenamiento el cual es un proceso repetitivo, presentando un conjunto de datos (patrones) de entrenamiento a la red y ajustando los pesos hasta que cada conjunto de datos de entrada produce la salida deseada, de acuerdo a una regla de aprendizaje. Por lo tanto, al proceso de ajuste de los pesos hasta alcanzar un nivel de exactitud especfica se le conoce como entrenamiento. Se realiza despus del entrenamiento una fase de prueba a la red, en la cual patrones de prueba desconocidos se presentan para establecer qu tanto ha aprendido. Cuando la informacin o datos numricos que se estn usando en el proceso de entrenamiento son muy disparejos, en cuanto a magnitud se refiere, es necesario usar algn tipo de acondicionamiento de dicha informacin para de esta manera evitar ciertas influencias que pudieran conducirnos a errores involuntarios al usar la red entrenada. Dos son los tipos de operaciones que se usan: normalizacin y la competicin.

Ciencia Nicolaita No. 35

185

Agosto de 2003

Redes neuronales artificiales ...

Normalizacin
Toma todos los valores del vector que corresponde a la salida de toda un nivel y los escala de tal manera que todos tienen un valor fijo, estos valores oscilan entre 0.0 y 1.0[6]. Estas conexiones permiten a los elementos procesadores (EPs) sensar individualmente todo un nivel de salida y ajustar sus propios valores de acuerdo a estos. El resultado de esta normalizacin es que la actividad de los niveles permanece aproximadamente constante.

Competicin
Se refiere a la interaccin que tiene lugar entre EPs de un mismo nivel. De la misma manera que la normalizacin donde todos los EPs ajustan su salida para crear un nivel fijo de actividad, en el procesos de competicin solamente uno o ms EPs ganan en el proceso y producen una salida[6]. Una forma comn de competicin es cuando un EP con la ms alta actividad es la nica unidad en ese nivel que puede accionar o disparar y producir una salida.

4. Caractersticas del clculo neuronal


I. Aprendizaje de una red
El aprendizaje de una red se puede producir de tres formas: a. Aprendizaje supervisado: Requiere propagar cierta informacin hacia atrs y requiere de un instructor que proporcione la salida deseada: consiste en introducir una serie de patrones de entrada a la red y a su vez mostrar la salida que se quiere tener [7]. La red ms conocida y empleada de este tipo es la Perceptron Multicapas (Multilayer Perceptron) con regla de retropropagacin. El aprendizaje supervisado requiere de tiempos grandes de aprendizaje pero puede ser ms exacto. El aprendizaje consiste en la modificacin de los pesos de las conexiones en el sentido de reducir la discrepancia entre la salida obtenida y la deseada, se usa fundamentalmente en los asociadores de patrones o memorias hetero-asociativas. b. Aprendizaje no supervisado: En este tipo de aprendizaje no se requiere presentar patrones de salida deseados. Sin embargo, el algoritmo y la regla de modificacin de las conexiones producen vectores de salida consistentes, esto es, la presentacin de un patrn aprendido o parecido a el, produce siempre la misma salida. Se considera que el proceso de aprendizaje es capaz de extraer ciertas propiedades estadsticas de los ejemplos de aprendizaje y agruparlos en categoras o clases de patrones similares. No sabemos a priori que salida corresponder a cada tipo o grupo de patrones de entrada, ni que atributos usar para clasificarlos, por eso son muy tiles como generadores de categoras (agrupamiento) [7]. En general, los mtodos de aprendizaje no supervisado invocan a alguna nocin de la calidad de la representacin. Un ejemplo de estas redes son los mapas de caractersticas autoorganizados Kohonen [7]. El mtodo sin supervisin es rpido, aunque relativamente inexacto. c. Aprendizaje reforzado: La idea es similar a la del aprendizaje supervisado, slo que aqu la informacin dada por el maestro es mnima, se limita a indicar si la respuesta de la red es correcta o incorrecta. En este sentido se asimila a la nocin tomada de la psicologa
Agosto de 2003 186 Ciencia Nicolaita No. 35

Redes neuronales artificiales ...

conductual de condicionamiento por refuerzo, que en resumen defiende que se aprenden (en el sentido de que tienen ms probabilidad de repetirse) las conductas reforzadas positivamente y viceversa, las conductas castigadas o reforzadas negativamente reducen la posibilidad de aparecer [7]. El supervisor se limita a indicar si la salida ofrecida por la red es correcta o incorrecta, pero no indica que respuesta debe dar.

II. Memoria distribuida


Una caracterstica muy importante de los sistemas neuronales es la forma en que guarda la informacin, la memoria neuronal es distribuida[3]. Los pesos de las conexiones son las unidades de memoria de un sistema neuronal. Los valores de los pesos representan el estado actual del conocimiento del sistema. La naturaleza misma de la memoria neuronal permite una respuesta razonable, an en el caso de que llegue informacin incompleta o ruidosa. A esta propiedad se le conoce como generalizacin. La calidad y aplicabilidad de esta generalizacin depender en la aplicacin en particular y en el grado de sofisticacin del sistema. Sistemas no lineales y de varias capas (en particular en sistemas de propagacin reversible o regresiva) aprenden de sus particularidades y de sus capas escondidas, combinado estas para generar salidas.

III. Tolerancia a las fallas o errores


Tolerante a las fallas se refiere al hecho de que en la mayora de los sistemas neuronales, si alguno de los EPs es daado, destruido, deshabilitado o sus conexiones alteradas ligeramente; entonces el comportamiento del sistema, como un todo, es ligeramente degradado. El funcionamiento en general del sistema se ve alterado pero no de una forma abrupta. El sistema de clculo neuronal es tolerante a las fallas debido a que la informacin no esta contenida en un solo lugar, sino que esta distribuida en todo el sistema [3]. Esta particularidad de resistencia a las fallas lo hace muy atractivo en sistemas donde fallas en los equipos de control pueden ser un desastre, como por ejemplo plantas nucleares, sistemas de guas de misiles, operacin de sondas espaciales, etc.

IV. Reconocimiento de patrones


Los sistemas de clculo neuronal son muy adecuados en muchas operaciones de reconocimiento de patrones, mucho ms que cuando se trata de sistemas expertos o de la estadstica tradicional. Los sistemas neuronales poseen la capacidad, as como la habilidad para aprender y construir estructuras especficas a un problema en particular, de tal forma que son muy tiles en el reconocimiento de patrones [8].

V. Capacidad de sntesis
Ciertos sistemas neuronales tienen la habilidad de aprender mapeado continuo complejo de una o ms salidas [3]. Esta habilidad de sintetizar funciones complejas continuas es anloga a la que tienen algunos sistemas biolgicos de aprender, por ejemplo, movimientos coordinados. En este tipo de operaciones de coordinacin seria algo comparado, por ejemplo, aprender a golpear una pelota de bisbol con un bat o aprender a tirar Chilenas o tiros de castigo con efecto en el Ftbol.
Ciencia Nicolaita No. 35 187 Agosto de 2003

Redes neuronales artificiales ...

5. Aplicaciones de las redes neuronales artificiales


El clculo neuronal esta mucho ms cerca a lo que es la percepcin humana y el reconocimiento, que al clculo tradicional en computadora. Aun en situaciones en las que el sistema es muy ruidoso o incompleto el clculo neuronal ofrece resultados ms o menos buenos o razonables. A continuacin se listan algunas reas en las que se esta en la actualidad utilizando este tipo de clculo.

5.1 Procesamiento del lenguaje


Dentro de lo que es el rea del lenguaje hablado o escrito se han estado haciendo avances considerables e inclusive ya se tienen algunas aplicaciones de ello en sistemas para personas ciegas o deshabilitadas. Dos son los campos en las que ms se estn utilizando los sistemas neuronales, dentro de esta rea del lenguaje: 5.1.1 Conversin de texto a lenguaje hablado. Terrance Sejnowsky [9,10] esta aplicando esta tcnica en la Universidad de Princenton para convertir smbolos de una pgina de texto en lenguaje hablado, en esta tcnica se usa el mismo mecanismo que se utiliza cuando se ensea a leer a un nio. As mismo se esta usando este mecanismo para ensear a un computador a transcribir secuencias o cadenas de DNA para determinar su cdigo en protenas y ver de que tipo es. 5.1.2 Procesamiento del lenguaje natural. Cientficos del rea del conocimiento cognoscitivo de la Universidad de Stanford y Carnegie Mellon han integrado un sistema neuronal para procesar lenguaje natural. Aqu lo que han hecho es, por ejemplo, ensear a un sistema a conjugar verbos en Ingles en tiempo pasado. Por medio de las reglas de estructura del Ingles y por medio de un sistema de enseanza como el que se da a los nios. En el inclusive se dan errores como el que se puede cometer como cuando se conjuga, por ejemplo, bring como bringed hasta verbos y reglas ms sofisticadas. De sta manera el sistema neuronal es capaz de generar nuevas formas de verbos sin informacin de ninguna especie. haciendo uso de su mejor intento o mejor aproximacin cuando se le presenta un verbo nuevo o un verbo desconocido.

5.2 Compresin de imgenes


Los Drs. G.W. Cottrell [11] y D. Sipser de la Universidad de California conjuntamente con el Dr. P.Munro [12] de la Universidad de Pittsburgh han estado usando el clculo neuronal para comprimir imgenes con diferentes niveles o tonos de gris que demandan grandes cantidades de memoria de la computadora. Por ejemplo una imagen tpica en blanco y negro de 256 x 256 pixeles requerir de aproximadamente de 65 Kbytes de memoria. esto se vuelve muy critico cuando dichas imgenes tienen que ser transmitidas, como por ejemplo, por linea telefnica. Compresin de imgenes se refiere a la compresin de los datos de la imagen en una representacin diferente que requiera de mucho menos memoria, pero, que pueda ser reconstruida como la original, ver el ejemplo de la figura 5.

Agosto de 2003

188

Ciencia Nicolaita No. 35

Redes neuronales artificiales ...

Figura 5. Imagen reconstruida, sta difiere de la original por un margen de error pequeo.

Esta tcnica permite relaciones de compresin de 8:1, guardando siempre una calidad de imagen muy buena. Esto quiere decir que una imagen que normalmente usa 64 KBytes de memoria con esta tcnica solamente requerir de 8 KBytes.

5.3 Reconocimiento de caracteres


Ya se haba mencionado antes que uno de los grandes atributos de los sistemas neuronales es su capacidad de reconocimiento de patrones [8]. Esto ha abierto las puertas a una gran variedad de aplicaciones en el rea de la clasificacin e interpretacin de smbolos, por ejemplo en la actualidad se esta haciendo mucha investigacin en los siguientes campos: - Escritura manual - Patrones avanzados (neocognitron) El neocognitron simula la forma en que llega un estimulo visual en el cortex del cerebro humano. Aqu no importa ni la orientacin ni el grado de distorsin del objeto o carcter que se este visualizando.

5.4 Problemas combinatorios


El clculo neuronal ofrece una posibilidad muy promisoria en problemas que tienen que ver con la asignacin de recursos o con diseo de rutas ptimas, como por ejemplo, la ruta ms corta que puede llevar a cabo un camin repartidor de bienes de consumo a travs de varias ciudades en un rea geogrfica determinada [13]. Este tipo de problemas tienen que lidiar con el problema de que a medida que se incrementa la informacin de entrada el tiempo de clculo se incrementa en forma exponencial. Estos problemas se conocen como No-completos, donde NP significa No-Polinomio.
Ciencia Nicolaita No. 35 189 Agosto de 2003

Redes neuronales artificiales ...

Los Drs. J. Hopfield del C.I.T. y D. Tank de la Bell C.R.L. [8] han diseado un sistema en el que representan las distancias entre ciudades poniendo o ponderando las conexiones entre los EPs. Cuando los EPs llegan a un estado estable, entonces asumen que han encontrado o quizs alcanzado la ms cercana o la ruta ms corta. Los estados estables corresponden a un mnimo de una funcin de energa, la cual es definida para cada estado del sistema.

5.5 Reconocimiento de patrones de imgenes


En este campo se esta haciendo investigacin en varias reas, siendo algunas de ella las siguientes: 5.5.1 Clasificacin de objetos. Aqu se estn usando para hacer reconocimiento de patrones de seales de sonar. Los Drs. Gorman y Sejnowsky han enseado a un sistema a identificar entre dos tipos de objetos; un cilindro metlico y rocas, por medio de una seal de sonar. El mejor modelo alcanzado por computacin neuronal es ligeramente menos preciso que un operador, perfectamente adiestrado, de sonar. 5.5.2 Inspeccin Industrial. El Dr. C. Mead [14] ha obtenido resultados muy buenos en el diseo de un sistema que hace reconocimiento visual, en tiempo real por medio de un procesador de vdeo. la imagen real de vdeo es interpretada por medio de una transformada de Fourier de dos dimensiones. La tcnica usada por medio del sistema Propagacin reversible. Esto puede ser usado, por ejemplo, en una fbrica para llevar a cabo operaciones de clasificacin, inspeccin de lugares de alto riesgo en plantas nucleares, inspeccin de nivel, etc. 5.6 Procesamiento de seales. Algunas de las aplicaciones ms comunes del clculo neuronal se est dando en tres reas, principalmente, siendo stas: Prediccin, Modelado de sistemas, Filtrado de seales. Por lo que toca a sta ultima aplicacin se estn usando mucho los clculos neuronales para ser usados como filtros de seales de datos EKG. Otra de las aplicaciones que se estn dando y que cada vez toman ms significancia est en el rea industrial, ms especficamente en el diseo de sistemas de control automtico. Esta tcnica es muy til en situaciones en que los sistemas a controlar son multivariables y en los que las tcnicas tradicionales del control no pueden ofrecer una buena alternativa o simplemente es imposible de definir un modelo dado lo complejo del sistema. Una aplicacin en particular se esta dando en sta institucin y ms concretamente en el proyecto sobre la instrumentacin y el control de columnas de flotacin. Aqu lo que se esta haciendo es entrenar a un sistema neuronal a que identifique las seales provenientes de una serie de sensores de conductividad para la identificacin del nivel entre la zona de espuma y la zona de coleccin de la columna. Para ello se hacen mediciones de las lecturas
Agosto de 2003 190 Ciencia Nicolaita No. 35

Redes neuronales artificiales ...

Figura 6. Configuracin de una red tipo Back Propagation

de los sensores, bajo ciertas condiciones de operacin y visualmente y directamente sobre la columna se mide la interfase. Con esta informacin, con la mayor cantidad de experimentos posibles, se entrena un sistema, por ejemplo usando el modelo de Back Propagation. De esta manera se obtienen los coeficientes del modelo que servirn para la identificacin de la interfase en tiempo real, figura 6.

5.7 Modelado financiero y econmico


Estos sistemas neuronales son extremadamente tiles para hacer pronsticos financieros, operaciones deficitarias, rendimiento de las cosechas, etc. [13]. Muchos de los administradores modernos estn usando estas tcnicas para pronosticar sus volmenes de ventas. Los sistemas neuronales son uno de los mtodos de pronsticos econmicos ms seguros y eficientes que cualquier otro conocido en la actualidad.

5.8 Servo controladores


Uno de los problemas ms difciles en la bsqueda de servomecanismos, como los utilizados en los robots, es encontrar los mtodos computacionales que puedan definir todas las variaciones de un sistema dado. Como uno de los errores ms comunes en el desarrollo de robots es considerar las variaciones que puedan darse por desalineamiento de los ejes de un brazo, por ejemplo, o una disminucin en la longitud de los miembros, etc. y expresar esto en trminos matemticos. Resolver esto muchas veces se sale de toda posibilidad tcnica y econmica. Es aqu donde los sistemas neuronales han sido entrenados para reproducir o predecir los errores en las posiciones finales de, por ejemplo, el brazo de un robot. Este error se combina con la posicin deseada para proveer de una correccin de posicin adaptada y mejorar la precisin.

Ciencia Nicolaita No. 35

191

Agosto de 2003

Redes neuronales artificiales ...

5.9 Sntesis funcional


Con la tcnica neuronal es posible entrenar un sistema para reconocer y calcular trayectorias de, por ejemplo, misiles balsticos, caones, etc. Por ejemplo si deseamos que un can, por arriba (H) del punto de impacto (P), es disparado con una cierta velocidad (V), apuntando con un cierto ngulo (alfa) y a una cierta distancia (L) de dicho punto, y deseamos que se tenga la mayor probabilidad de dar con xito en el blanco o zona de impacto, que valores tendrn que tener dichas variables para que esto sea posible?, figura 7. El problema es relativamente difcil de resolver ya que haciendo la aproximacin por medio de un polinomio es tarea harto tediosa, pero por medio del clculo neuronal se puede resolver el problema.

Figura 7. Problema de balstica.

6. Conclusiones
Hemos visto que en un sistema neuronal, como est organizado y como podemos utilizar todo el potencial de esta herramienta que intenta, de una manera aun primitiva hasta ahora, de imitar el comportamiento del cerebro humano en un proceso de enseanza-aprendizaje. Tal vez no estn muy lejanos los das en que sea posible imitar, si no de una manera perfecta, si de una forma muy aproximada al cerebro humano y entonces poder llevar a cabo muchas tareas que al hombre lo tienen en un estado de imposibilidad fsica (ciegos, mudos, parapljicos, etc.) y las pueda dar una forma de vida ms digna al ensear a prototipos, prtesis, sensores, etc. a llevar acabo funciones propias del ser humano como: ver , or, caminar, hacer movimientos naturales con prtesis mecnicas, etc. Por otro lado podr de la misma manera llevar a cabo tareas, hasta ahora hechas solo por el hombre, y que o no son del todo seguras o que denigran de alguna manera la condicin humana de quien las lleva a cabo. Por ejemplo en los procesos de operaciones de clasificacin repetitivas, exposicin a temperaturas o condiciones climatolgicas extremas como
Agosto de 2003 192 Ciencia Nicolaita No. 35

Redes neuronales artificiales ...

el trabajo en las minas, en la exploracin de recursos en desiertos o zonas rticas, trabajos en plantas pirometalrgicas, qumicas, etc. En estos lugares los seres humanos podran ser sustituidos por servo-mecanismos o robots inteligentes, previamente sometidos a un proceso de enseanza - aprendizaje por maestros expertos. Otra posible aplicacin se dara en las aulas, es decir, en el rea de la pedagoga, ya que se podran tener sistemas expertos en diferentes reas del conocimiento humano y adaptarse a las caractersticas y necesidades de cualquier usuario en particular. de esta manera cada quien podra tener prcticamente una instruccin personalizada y avanzar de acorde a sus posibilidades y aptitudes.

7. Bibliografa
1. 2. 3. 4. 5. 6. 7. 8. 9. Encyclopaedia Britannica, Macropaedia Knowledge in Depth, 15Th Edition, Vols. 15, 16, 1980. Robert Hecht-Nielsen, Neurocomputing, Addison Wesley, Reprinted with corrections,1991. Hertz, J., Krogh, A. & Palmer, R.G. (1991). Introduction to the Theory of Neural Computation. Addison - Wesley. K. KrishnaKumar, Robustness Of Neural Networks. Dept. of Aerospace Engineering, The University of Alabama, Tuscaloosa, Al. 35487-0280. David M. Skapura, Building Neuronal Networks, Addsison Wesley, R.w.C. 1996 DataEngine V.I., User Manual, Function Reference, Tutorials, Basics, Management Intellingenter Technologien GmbH, Aachen, Germany, 1999. Timothy Masters, Practical Neuronal Network Recipes in C++, Academic Press, 1993. B.D. Ripley, Pattern Recognition and neuronal Networks, Cambridge University Press, 1996. Hinton, G.E., & Sejnowski, T.J. Optimal Perceptual Inference, Proceedings IEEE, 1983.

10. Hinton, G.E y Sejnowski, T.J. Learning and relearning in Boltzman machines. En Rumerlhart & McClelland (1986) 11. Cotrell,G.W. & Metcalfe, J., EMPATH: face emotion and gender recognition using holons, NIPS3, 1987. 12. Neural Ware, Inc. Neuronal Computing Networks, Manuals, 1990. 13. NeuroShell 2, Ward Systems Group, Inc., Manual, 1996. 14. C. Mead, Analog VLSI and Neural Systems, Addison-Wesley, Reading, MA, 1989.

Ciencia Nicolaita No. 35

193

Agosto de 2003

Redes neuronales artificiales ...

Agosto de 2003

194

Ciencia Nicolaita No. 35

Vous aimerez peut-être aussi