Académique Documents
Professionnel Documents
Culture Documents
Resumen
En este trabajo se hace un anlisis de los principios bsicos y tcnicas ms utilizadas en el campo de las redes neuronales artificiales, de la extraccin de caractersticas y del entrenamiento de las mismas para las operaciones de clasificacin. La tcnica de redes neuronales artificiales puede simular en un momento dado el comportamiento de un experto humano en deteccin, clasificacin y evaluacin, ya que es una emulacin del cerebro humano en la interpretacin de los datos. Esta tcnica permite modelar procesos no lineales complejos con una gran exactitud y se emplea actualmente en: sistemas de control (el rea ms aplicada) y reconocimiento de patrones (imagen, audio, proceso de seal, etc.) entre otras aplicaciones.
1. Introduccin
EL cerebro humano es uno de los rganos ms complejos conocidos por el ser humano, se puede decir que es un dispositivo de clculo casi perfecto. El cerebro no slo puede resolver problemas, recordar, organizar, etc, adems y muy importante, aprende. El cerebro humano contiene aproximadamente 12 billones de clulas nerviosas o neuronas [1]. Cada neurona tiene de 5.600 a 60.000 conexiones dendrticas provenientes de otras neuronas, figura 1. Estas conexiones transportan los impulsos enviados desde otras neuronas y estn conectadas a la membrana de la neurona. Cada neurona tiene una salida denominada axn. El contacto de cada axn con una dendrita se realiza a travs de la sinapsis. Tanto el axn como las dendritas transmiten la seal en una nica direccin. Cada neurona recibe de 10,000 a 100,000 sinpsis y el axn realiza una cantidad de conexiones similar.
181
Agosto de 2003
Las neuronas son elctricamente activas e interactan entre ellas mediante un flujo de corrientes elctricas locales. Estas corrientes se deben a diferencias de potencial entre las membranas celulares de las neuronas. Un impulso nervioso es un cambio de voltaje que ocurre en una zona localizada de la membrana celular. El impulso se transmite a travs del axn hasta llegar a la sinapsis, produciendo la liberacin de una sustancia qumica denominada neurotransmisor que se esparce por el fluido existente en el espacio sinptico. Cuando este fluido alcanza el otro extremo transmite la seal a la dendrita. Los impulsos recibidos desde la sinapsis se suman o restan a la magnitud de las variaciones del potencial de la membrana. Si las contribuciones totales alcanzan un valor determinado (alrededor de 10 milivoltios) se disparan uno o ms impulsos que se propagarn a lo largo del axn. El efecto de los neurotransmisores sobre la neurona receptora puede ser excitatorio o inhibitorio, y es variable (la intensidad del efecto depende de numerosos factores que no sera oportuno describir aqu), de manera que podemos hablar de la fuerza o efectividad de una sinpsis. Las seales excitatorias e inhibitorias recibidas por una neurona se combinan, y en funcin de la estimulacin total recibida, la neurona toma un cierto nivel de activacin, que se traduce en la generacin de breves impulsos nerviosos con una determinada frecuencia de disparo, y su propagacin a lo largo del axn hacia las neuronas con las cuales sinapta. De esta manera la informacin se transmite de unas neuronas a otras y va siendo procesada a travs de las conexiones sinpticas y las propias neuronas. El aprendizaje de las redes neuronales se produce mediante la variacin de la efectividad de las sinpsis, de esta manera cambia la influencia que unas neuronas ejercen sobre otras, de aqu se deduce que la arquitectura, el tipo y la efectividad de las conexiones en un momento dado, representan en cierto modo la memoria o estado de conocimiento de la red.
red (de propagacin), encargada de computar la entrada total combinada de todas las conexiones, un ncleo central de proceso, encargado de aplicar la funcin de activacin, y la salida, por donde se transmite el valor de activacin a otras unidades, figura 2. La funcin de red es tpicamente una sumatoria ponderada, mientras que la funcin de activacin suele ser alguna funcin de umbral, como por ejemplo la funcin sigmoide. Funcin de propagacin o de red: Calcula el valor de base o entrada total a la unidad, generalmente como simple suma ponderada de todas las entradas recibidas, es decir, de las entradas multiplicadas por el peso o valor de las conexiones. Equivale a la combinacin de las seales excitatorias e inhibitorias de las neuronas biolgicas. Funcin de activacin: Es quizs la caracterstica principal o definitoria de las neuronas, la que mejor define el comportamiento de la misma. Se usan diferentes tipos de funciones, desde simples funciones simples de umbral a funciones no lineales. Se encarga de calcular el nivel o estado de activacin de la neurona en funcin de la entrada total. Conexiones ponderadas: hacen el papel de las conexiones sinpticas, el peso de la conexin equivale a la fuerza o efectividad de la sinpsis. Las existencia de conexiones determina si es posible que una unidad influya sobre otra, el valor de los pesos y el signo de los mismos definen el tipo (excitatorio/inhibitorio) y la intensidad de la influencia. Salida: calcula la salida de la neurona en funcin de la activacin de la misma, aunque normalmente no se aplica ms que la funcin identidad, y se toma como salida el valor de activacin. El valor de salida cumplira la funcin de la tasa de disparo en las neuronas biolgicas. En la tabla I se hace una analoga entre las redes neuronas biolgicas y las redes neuronales artificiales.
183
Agosto de 2003
Redes neuronales artificiales ... Tabla I Comparacin entre las neuronas biolgicas reales y las unidades de proceso artificiales[3]. Redes Neuronales Biolgicas Neuronas Conexiones sinpticas Efectividad de las sinpsis Efecto excitatorio o inhibitorio de una conexin Efecto combinado de las sinpsis Activacin -> tasa de disparo Redes Neuronales Artificiales Unidades de proceso Conexiones ponderadas Peso de las conexiones Signo del peso de una conexin Funcin de propagacin o de red Funcin de activacin -> Salida
Figura 3. Modelos de redes, de alimentacin progresiva y recurrente. Agosto de 2003 184 Ciencia Nicolaita No. 35
Por lo general las redes estn configuradas en capas o niveles (una capa se define como un conjunto de neuronas conectadas en paralelo o nodos). En la red de prealimentacin de capas, cada una de las unidades est conectada solamente a las unidades del nivel siguiente; no existen conexiones entre las unidades que estn en el mismo nivel, conexiones con niveles anteriores, ni conexiones que salten de nivel. En la figura 4 se muestra un ejemplo de una red sencilla de prealimentacin con niveles [5]. Las redes neuronales artificiales (RNA) pueden ser muy exactas, incrementando el nmero de capas ocultas y el nmero de nodos en esas capas, pero las variaciones que se presentarn en los datos subsecuentes (los datos a clasificar) pueden producir gran desviacin de la salida deseada; hay entonces, un compromiso entre el nmero de capas y neuronas con el grado de exactitud obtenible con los datos de entrenamiento. La mayor justificacin del uso de las RNA es su habilidad para ver y aprender relaciones en conjuntos de datos complejos que no pueden ser fcilmente percibidos por humanos. Una red neuronal artificial realiza su funcin como un resultado del entrenamiento el cual es un proceso repetitivo, presentando un conjunto de datos (patrones) de entrenamiento a la red y ajustando los pesos hasta que cada conjunto de datos de entrada produce la salida deseada, de acuerdo a una regla de aprendizaje. Por lo tanto, al proceso de ajuste de los pesos hasta alcanzar un nivel de exactitud especfica se le conoce como entrenamiento. Se realiza despus del entrenamiento una fase de prueba a la red, en la cual patrones de prueba desconocidos se presentan para establecer qu tanto ha aprendido. Cuando la informacin o datos numricos que se estn usando en el proceso de entrenamiento son muy disparejos, en cuanto a magnitud se refiere, es necesario usar algn tipo de acondicionamiento de dicha informacin para de esta manera evitar ciertas influencias que pudieran conducirnos a errores involuntarios al usar la red entrenada. Dos son los tipos de operaciones que se usan: normalizacin y la competicin.
185
Agosto de 2003
Normalizacin
Toma todos los valores del vector que corresponde a la salida de toda un nivel y los escala de tal manera que todos tienen un valor fijo, estos valores oscilan entre 0.0 y 1.0[6]. Estas conexiones permiten a los elementos procesadores (EPs) sensar individualmente todo un nivel de salida y ajustar sus propios valores de acuerdo a estos. El resultado de esta normalizacin es que la actividad de los niveles permanece aproximadamente constante.
Competicin
Se refiere a la interaccin que tiene lugar entre EPs de un mismo nivel. De la misma manera que la normalizacin donde todos los EPs ajustan su salida para crear un nivel fijo de actividad, en el procesos de competicin solamente uno o ms EPs ganan en el proceso y producen una salida[6]. Una forma comn de competicin es cuando un EP con la ms alta actividad es la nica unidad en ese nivel que puede accionar o disparar y producir una salida.
conductual de condicionamiento por refuerzo, que en resumen defiende que se aprenden (en el sentido de que tienen ms probabilidad de repetirse) las conductas reforzadas positivamente y viceversa, las conductas castigadas o reforzadas negativamente reducen la posibilidad de aparecer [7]. El supervisor se limita a indicar si la salida ofrecida por la red es correcta o incorrecta, pero no indica que respuesta debe dar.
V. Capacidad de sntesis
Ciertos sistemas neuronales tienen la habilidad de aprender mapeado continuo complejo de una o ms salidas [3]. Esta habilidad de sintetizar funciones complejas continuas es anloga a la que tienen algunos sistemas biolgicos de aprender, por ejemplo, movimientos coordinados. En este tipo de operaciones de coordinacin seria algo comparado, por ejemplo, aprender a golpear una pelota de bisbol con un bat o aprender a tirar Chilenas o tiros de castigo con efecto en el Ftbol.
Ciencia Nicolaita No. 35 187 Agosto de 2003
Agosto de 2003
188
Figura 5. Imagen reconstruida, sta difiere de la original por un margen de error pequeo.
Esta tcnica permite relaciones de compresin de 8:1, guardando siempre una calidad de imagen muy buena. Esto quiere decir que una imagen que normalmente usa 64 KBytes de memoria con esta tcnica solamente requerir de 8 KBytes.
Los Drs. J. Hopfield del C.I.T. y D. Tank de la Bell C.R.L. [8] han diseado un sistema en el que representan las distancias entre ciudades poniendo o ponderando las conexiones entre los EPs. Cuando los EPs llegan a un estado estable, entonces asumen que han encontrado o quizs alcanzado la ms cercana o la ruta ms corta. Los estados estables corresponden a un mnimo de una funcin de energa, la cual es definida para cada estado del sistema.
de los sensores, bajo ciertas condiciones de operacin y visualmente y directamente sobre la columna se mide la interfase. Con esta informacin, con la mayor cantidad de experimentos posibles, se entrena un sistema, por ejemplo usando el modelo de Back Propagation. De esta manera se obtienen los coeficientes del modelo que servirn para la identificacin de la interfase en tiempo real, figura 6.
191
Agosto de 2003
6. Conclusiones
Hemos visto que en un sistema neuronal, como est organizado y como podemos utilizar todo el potencial de esta herramienta que intenta, de una manera aun primitiva hasta ahora, de imitar el comportamiento del cerebro humano en un proceso de enseanza-aprendizaje. Tal vez no estn muy lejanos los das en que sea posible imitar, si no de una manera perfecta, si de una forma muy aproximada al cerebro humano y entonces poder llevar a cabo muchas tareas que al hombre lo tienen en un estado de imposibilidad fsica (ciegos, mudos, parapljicos, etc.) y las pueda dar una forma de vida ms digna al ensear a prototipos, prtesis, sensores, etc. a llevar acabo funciones propias del ser humano como: ver , or, caminar, hacer movimientos naturales con prtesis mecnicas, etc. Por otro lado podr de la misma manera llevar a cabo tareas, hasta ahora hechas solo por el hombre, y que o no son del todo seguras o que denigran de alguna manera la condicin humana de quien las lleva a cabo. Por ejemplo en los procesos de operaciones de clasificacin repetitivas, exposicin a temperaturas o condiciones climatolgicas extremas como
Agosto de 2003 192 Ciencia Nicolaita No. 35
el trabajo en las minas, en la exploracin de recursos en desiertos o zonas rticas, trabajos en plantas pirometalrgicas, qumicas, etc. En estos lugares los seres humanos podran ser sustituidos por servo-mecanismos o robots inteligentes, previamente sometidos a un proceso de enseanza - aprendizaje por maestros expertos. Otra posible aplicacin se dara en las aulas, es decir, en el rea de la pedagoga, ya que se podran tener sistemas expertos en diferentes reas del conocimiento humano y adaptarse a las caractersticas y necesidades de cualquier usuario en particular. de esta manera cada quien podra tener prcticamente una instruccin personalizada y avanzar de acorde a sus posibilidades y aptitudes.
7. Bibliografa
1. 2. 3. 4. 5. 6. 7. 8. 9. Encyclopaedia Britannica, Macropaedia Knowledge in Depth, 15Th Edition, Vols. 15, 16, 1980. Robert Hecht-Nielsen, Neurocomputing, Addison Wesley, Reprinted with corrections,1991. Hertz, J., Krogh, A. & Palmer, R.G. (1991). Introduction to the Theory of Neural Computation. Addison - Wesley. K. KrishnaKumar, Robustness Of Neural Networks. Dept. of Aerospace Engineering, The University of Alabama, Tuscaloosa, Al. 35487-0280. David M. Skapura, Building Neuronal Networks, Addsison Wesley, R.w.C. 1996 DataEngine V.I., User Manual, Function Reference, Tutorials, Basics, Management Intellingenter Technologien GmbH, Aachen, Germany, 1999. Timothy Masters, Practical Neuronal Network Recipes in C++, Academic Press, 1993. B.D. Ripley, Pattern Recognition and neuronal Networks, Cambridge University Press, 1996. Hinton, G.E., & Sejnowski, T.J. Optimal Perceptual Inference, Proceedings IEEE, 1983.
10. Hinton, G.E y Sejnowski, T.J. Learning and relearning in Boltzman machines. En Rumerlhart & McClelland (1986) 11. Cotrell,G.W. & Metcalfe, J., EMPATH: face emotion and gender recognition using holons, NIPS3, 1987. 12. Neural Ware, Inc. Neuronal Computing Networks, Manuals, 1990. 13. NeuroShell 2, Ward Systems Group, Inc., Manual, 1996. 14. C. Mead, Analog VLSI and Neural Systems, Addison-Wesley, Reading, MA, 1989.
193
Agosto de 2003
Agosto de 2003
194