Vous êtes sur la page 1sur 6

UNIVERSIDAD AUTNOMA JUAN MISAEL SARACHO

REDES NEURONALES ARTIFICIALES PARA EL RECONOCIMIENTO DE CARACTERES


Andrea Cortez Herrera Universidad Autnoma Juan Misael Saracho Tarija - Bolivia
andrea_24688@hotmail.com

Resumen
El presente trabajo se enfoca a la comparacin de la eficiencia de diferentes redes neuronales para el reconocimiento de caracteres individuales del alfabeto espaol. El reconocimiento de caracteres en base a redes neuronales engloba un conjunto de procedimientos mtodos y algoritmos, los cuales constan de dos partes, una fase de entrenamiento durante la cual la red neuronal artificial aprende y una segunda etapa que permite reconocer de forma automtica caracteres. En el presente trabajo se implementaran diferentes redes neuronales artificiales, se realizar el entrenamiento con todos los caracteres del alfabeto espaol y se realizar la comparacin determinando los errores de aproximacin.

comportarse a las computadoras de modo inteligente.

1.2 El modelo biolgico.


La teora y modelado de redes neuronales artificiales ser inspirada en la estructura y funcionamiento de los sistemas nerviosos, donde la neurona es el elemento fundamental. Existen neuronas de diferentes formas, tamaos y longitudes. Estos atributos son importantes para determinar la funcin y utilidad de la neurona.

1.3 Red Neuronal Artificial.


Una red neuronal artificial (RNA) es sistema compuesto de muchos elementos procesadores simples, neuronas, conectadas en paralelo, cuya funcin es determinada por la estructura de la red, la fuerza es determinada en las conexiones de los nodos.

Palabras clave
Inteligencia Artificial, Red Neuronal Artificial, Backpropagation, Adaline, Perceptron y Kohonen

1.3.1 Estructura de una red artificial.


En este apartado se aborda la estructura ms comn de las redes neuronales artificiales en las a dos perspectivas: Niveles de neuronas: la distribucin de las neuronas en la red se la realiza formando capaz o niveles, y cada capa Pgina 1

1 Marco Terico 1.1 Inteligencia Artificial.


La inteligencia artificial es el desarrollo de mtodos y algoritmos que permitan ANDREA CORTEZ HERRERA

UNIVERSIDAD AUTNOMA JUAN MISAEL SARACHO


tiene un nmero determinado de neuronas cada una, se pueden presentar tres capas diferentes: De entrada: estas capas reciben la informacin desde el exterior. De salida: estas envan la informacin hacia el exterior. Ocultas: son capas que solo para procesar informacin y comunicar las otras capas. Formas de conexin entre capas: las neuronas artificiales se conectan unas de las otras usando sinapsis, pueden conectarse de tres formas diferentes: Unin todos con todos: Este tipo de unin es muy comn lo utilizan los algoritmos como Hopfield, Backpropagation y Perceptron. Unin lineal: Consiste en unir cada neurona con otra neurona de la otra capa. Predeterminado: Este tipo de conexiones aparece en redes que tienen la propiedad de agregar o eliminar neuronas de sus capas y de eliminar tambin conexiones. Fase de operacin: Se refiere a la fase de entrenamiento la cual consiste en proporcionar estmulos de entrada y salida para que una red se ajuste a los pesos de conexin con las dems neuronas y as se logre minimizar el error. Se necesita un patrn: Las redes neuronales artificiales no son capaces de reconocer nada que no tenga algn tipo de patrn.

1.3.3 Aprendizaje.
Aprendizaje supervisado.

1.3.2 Caractersticas de las redes neuronales artificiales.


Pesos: Estos pesos ayudan a ajustar el valor de la fuerza de conexin entre las neuronas. Aprendizaje: Puede ser aprendizaje supervisado y no supervisado, estos conceptos se los tratar ms adelante.

En este tipo de aprendizaje se muestran cierto tipo de patrones a la red y una salida deseada para estos patrones as se logre minimizar al mximo el error aplicando una frmula matemtica, la cual ajusta los pesos para dar la salida real lo ms parecida posible a la salida deseada. Las aplicaciones ms importantes para este tipo de aprendizaje es Asociaciones de patrones, esto es asocia a dos patrones y permite recuperar la informacin a pesar de errores en la capa de entrada. Modeladores funcionales, las redes neuronales artificiales permiten, gracias a su capacidad de ajustar el error dar los valores ms cercanos a una funcin de la que solo sabemos algunos puntos. Aprendizaje no supervisado.

Este tipo de aprendizaje no necesita que le mostremos los patrones objetivos para salida, ya que el algoritmo y la regla de modificacin de las conexiones producen patrones de salida consistentes. Cuando Pgina 2

ANDREA CORTEZ HERRERA

UNIVERSIDAD AUTNOMA JUAN MISAEL SARACHO


la red procesa patrones con bastante grado de similitud, de la misma salida ambos patrones, esto es, clasifica los patrones parecidos. Normalmente se usa el error cuadrtico medio para determinar la similitud, aunque hay otras opciones. Debido a esta nueva forma de evaluar el error, estas redes pueden procesar informacin analgica, tanto de entrada como de salida, utilizando una funcin de activacin lineal o sigmoidal.

1.6 Red Backpropagation 1.4 Red Perceptron


Este fue el primer modelo neuronal artificial desarrollado por Rosenblantt en 1958. Despert un gran inters en los aos 60, debido a su capacidad para aprender a reconocer patrones sencillos: un Perceptron, formado por varias neuronas lineales para recibir las entradas a la red y una salida, es capaz de decidir cundo una entrada presentada a la red pertenece a una de las dos clases que es capaz de reconocer. En 1986, Runelhart, Hilton y Williams, basndose en los trabajos de otros investigadores formalizaron un mtodo para que una red neuronal aprendiera la asociacin que existe entre los patrones de entrada a la misma y las clases correspondientes, utilizando ms niveles de neuronas que los que utiliz Rossenblatt para desarrollar el Perceptron. Este mtodo, conocido en general como Backpropagation (propagacin del error hacia atrs), esta basado en la generalizacin de la regla delta y, a pesar de sus propias limitaciones, ha ampliado de forma considerable el rango de aplicaciones de las redes neuronales. El algoritmo de propagacin hacia atrs, o retropropagacin, es una regla de aprendizaje que se puede aplicar en modelos con ms de dos capas de clulas. Una caracterstica importante de este modelo es la representacin interna del conocimiento que es capaz de organizar en la capa intermedia de las clulas para conseguir cualquier correspondencia entre la entrada y la salida de la red.

1.5 Red Adaline


La red ADALINE (ADAptive LINear Element) fue desarrollada por Bernie Windrow en la universidad de Stanford poco despus que Rosenblantt desarrollar el Perceptron. La arquitectura Adaline es esencialmente las mismas que del Perceptron. Ambas estructuras usan neuronas con funciones de transferencia de escaln. La red Adaline esta limitada a una nica neurona de salida. La diferencia fundamental respecto al Perceptron se refiere al mecanismo de aprendizaje. Adaline utilizan la denominada regla Delta de Hidrow-Hoff o regla de error mnimo cuadrado medio (LMS), basada en la bsqueda del mnimo de una expresin del error entre la salida deseada y la salida lineal obtenida antes de aplicarle la funcin de activacin escaln. ANDREA CORTEZ HERRERA

1.7 Modelo de Kohonen


Existen varias evidencias que demuestran que en el cerebro hay neuronas que se organizan en muchas zonas, de forma que las informaciones captadas del entorno a travs de los Pgina 3

UNIVERSIDAD AUTNOMA JUAN MISAEL SARACHO


rganos sensoriales se representan internamente en forma de mapas bidimensionales. T. Kohonen present en 1982 un sistema con un comportamiento semejante. Se trataba de un modelo de red neuronal con capacidad para formas mapas de caractersticas de manera similar a como ocurre en el cerebro. El objetivo de Kohonen era demostrar que un estmulo externo (informacin de entrada) por s solo, suponiendo una estructura propia y una descripcin funcional del comportamiento de la red, era suficiente para forzar la formacin de los mapas. Este modelo tiene dos variantes, denominadas LVQ (Learning Vector Quantization) y TPM (TopologyPreserving Map) o SOM (SelfOrganizing Map). Ambas se basan en el principio de formacin de mapas topolgicos para establecer caractersticas comunes entre las informaciones (vectores) de entrada a la red, aunque en las dimensiones de stos, siendo de una sola dimensin en el caso de LVQ, y bidimensional, e incluso tridimensional, en la red TPM. de conocimiento de clculo diferencial, pueden ser asimilados y desarrollados en cualquier lenguaje de programacin. Por otro lado, las estructuras de las redes neuronales artificiales se han definido por medio de notacin sencilla y comprensible, cada nuevo desarrollo permite cierta flexibilidad en cuanto a la forma de la red y esto garantiza su fcil adaptacin a aplicaciones particulares. Las redes neuronales artificiales son una teora relativamente nueva que junto a otras tcnicas de inteligencia artificial ha generado soluciones muy confiables a problemas de ingeniera, los cuales a pesar de poder solucionados por mtodos tradicionales, encuentran en las redes neuronales artificiales una alternativa fcil de implementar y altamente segura.

3 REFERENCIAS, FIGURAS Y TABLAS

2 CONCLUSIONES
La teora de redes neuronales artificiales, presenta grandes ventajas con respectos a otros modelos tpicos de solucin de problemas de ingeniera, una de ellas es su inspiracin en modelos biolgicos del funcionamiento del cerebro, lo que facilita su estudio debido a las analogas que pueden introducirse para su anlisis. Los modelos matemticos en que han sido desarrollados los algoritmos para todos los tipos de redes son modelos sencillos, que aunque exigen cierto grado ANDREA CORTEZ HERRERA Pgina 4

UNIVERSIDAD AUTNOMA JUAN MISAEL SARACHO

ANDREA CORTEZ HERRERA

Pgina 5

UNIVERSIDAD AUTNOMA JUAN MISAEL SARACHO


http://mygnet.net/codigos/java/analisisnumeri cos/perceptron_en_java.915[consulta 12-05] http://www.programatium.com/codigo/java/ind ex.htm[consulta 02-07] http://www.lawebdelprogramador.com/codigo/ Java/index1.html[consulta 23-05] http://www.redesneuronales.com.es/tutorialre desneuronales/elperceptronsimple.htm[consulta 12-05] http://comunidad.dragonjar.org/f201/reconoci miento-de-caracteres-redes-neuronales 6215/ [consulta 16-07]

4 NUMERO DE PGINAS, CABECERAS Y NOTAS AL PIE.


Jos Ramn Hilera Gonzales, Vctor Jos Martnez Hernando. Redes Neuronales: fundamentos, modelos y aplicaciones. James A. Freeman, David M. Skapura. Redes neuronales: Algoritmos, Aplicaciones y tcnicas de programacin. Documentos Electrnicos ttp://es.wikipedia.org/wiki/Red_neuronal_artifi cial [consulta 02-07] http://electronica.com.mx/neural/[consulta 0207] http://www.gc.ssr.upm.es/inves/neural/ann2/a nntutorial.html[consulta 13-07] http://humano.ya.com/davidsamper/docs/Tra bajo_RNAs_2.pdf[consulta 23-06] http://es.scribd.com/doc/55135187/APICACI ON-DE-RECONOCIMIENTODECARACTERES[consulta 12-05] http://personales.unican.es/gutierjm/docs/tut_ RedesNeuro.pdf[consulta 12-05]

ANDREA CORTEZ HERRERA

Pgina 6

Vous aimerez peut-être aussi