Vous êtes sur la page 1sur 56

UNIVERSIDAD DE ATACAMA

DEPARTAMENTO DE INDUSTRIA Y NEGOCIOS


COPIAP

REDES NEURONALES ARTIFICIALES


Profesor:
Alexander Brger F.
Integrantes:
Armando Corts Araya
Luis Piones Luna
David Valenzuela Rojas
Victor Vega Pastn

AUTOMATIZACIN DE SISTEMAS PRODUCTIVOS


UDA - 2005
REDES NEURONALES
INTRODUCCIN
Un ordenador convencional es una mquina que ejecuta una serie de
instrucciones
de
forma
secuencial,
siendo
capaz
de
realizar
complicadas operaciones lgicas y aritmticas de una forma muy rpida,
mucho ms que el cerebro humano.

Pese a ello, existen tareas, como el reconocimiento de patrones, que ni los


grandes supercomputadores son capaces de resolver de un modo eficiente,
mientras que el cerebro lo viene haciendo desde hace millones de aos con
suma facilidad y eficiencia.
Por esta razn, algunos cientficos han vuelto la vista hacia el cerebro tratando
de estudiarlo desde el punto de vista de la computacin. La estructura del
cerebro es radicalmente diferente a la del ordenador convencional. No est
compuesto por un nico microprocesador altamente complejo y eficiente, sino
por miles de millones de ellos, las neuronas, que realizan de modo impreciso y
relativamente lento un tipo de clculo muy simple.
En este proceso del pensamiento cientfico surgieron los sistemas neuronales
artificiales, con la idea de tomar las caractersticas esenciales de la estructura
neuronal del cerebro para crear sistemas que lo mimetizaran en parte,
mediante sistemas electrnicos. Estos sistemas estn compuestos por multitud
de pequeos procesadores simples, a los que se denomina neuronas
artificiales.
Aunque existen ordenadores neuronales, con cientos de pequeos
microprocesadores que trabajan en paralelo, lo cierto es que mediante software
se puede emular el comportamiento de estas redes neuronales en un
ordenador convencional y existen multitud de programas de redes neuronales
que funcionan incluso en un ordenador personal. Muchos de ellos los podemos
encontrar gratis en Internet.
Las redes neuronales operan sobre la base de reconocimiento de patrones, y
que pueden adquirir, almacenar y utilizar conocimiento experimental, obtenido a
partir de ejemplos. Esta forma de adquirir el conocimiento es una de sus
caractersticas ms destacables: no se programa de forma directa, como en los
sistemas expertos, sino que se adquiere a partir de ejemplos, por ajuste de
parmetros de las neuronas mediante un algoritmo de aprendizaje.
En cuanto al modo interno de trabajo las redes neuronales son modelos
matemticos multivariantes que utilizan procedimientos iterativos, en general
para minimizar funciones de error. O sea, que no es cuestin de magia sino de
matemticas.
Las redes neuronales se asemejan a los sistemas expertos en cuanto al
objetivo de representar el conocimiento pero son radicalmente opuestos en
cmo aspiran a conseguirlo. Como vemos, los sistemas expertos se acercaran
ms al razonamiento deductivo -obtener reglas- y las redes neuronales al
inductivo -aprendizaje mediante ejemplos-. La gestin empresarial utiliza
frecuentemente ambos esquemas de razonamiento, por lo que ambas tcnicas
tienen cabida. Adems, ambos modelos son perfectamente compatibles, de
forma que se pueden integrar en un nico sistema.

Las Redes Neuronales: Tipos

En primer lugar hay que distinguir entre modelos neuronales -la forma- y
algoritmos neuronales -cmo aprenden-.

Los modelos neuronales


Los modelos neuronales son similares o incluso en muchos casos idnticos a
otros modelos matemticos bien conocidos. Se suelen representar mediante
grafos, llamados en este contexto neuronas artificiales. Cada neurona realiza
una funcin matemtica. Las neuronas se agrupan en capas, constituyendo
una red neuronal. Una determinada red neuronal est confeccionada y
entrenada para llevar a cabo una labor especfica. Finalmente, una o varias
redes, ms los interfaces con el entorno, conforman el sistema global.
Varios modelos
Los modelos neuronales se diferencian en la funcin que incorpora la neurona,
su organizacin y forma de las conexiones. Sarle (1994) compara los modelos
neuronales con los modelos estadsticos ms convencionales, encontrando que
la mayora de los modelos neuronales tienen un equivalente tradicional, y que
frecuentemente los cientficos del campo de las redes neuronales reinventan
modelos ya existentes.
Las Redes Neuronales: Algoritmos
Qu hacen los algortimos?
Los modelos neuronales utilizan varios algoritmos de estimacin, aprendizaje o
entrenamiento para encontrar los valores de los parmetros del modelo, que en
la jerga de las redes neuronales se denominan pesos sinpticos.
Cmo es el aprendizaje?
El entrenamiento se realiza mediante patrones-ejemplo, siendo dos los tipos de
aprendizaje: supervisado y no supervisado.
a) El aprendizaje supervisado
Se asemeja al mtodo de enseanza tradicional con un profesor que indica y
corrige los errores del alumno hasta que ste aprende la leccin. Si la red
utiliza un tipo de aprendizaje supervisado debemos proporcionarle parejas de

patrones entrada-salida y la red neuronal aprende a asociarlos. En terminologa


estadstica equivale a los modelos en los que hay vectores de variables
independientes y dependientes: tcnicas de regresin, anlisis discriminante,
anlisis lgit, modelos de series temporales, etc.
b) El aprendizaje no supervisado
No hay un profesor que corrija los errores al alumno; recuerda ms al
autoaprendizaje. El alumno dispone del material de estudio pero nadie lo
controla. Si el entrenamiento es no supervisado, nicamente debemos
suministrar a la red los datos de entrada para que extraiga los rasgos
caractersticos esenciales. En terminologa estadstica equivale a los modelos
en los que slo hay vectores de variables independientes y buscan el
agrupamiento de los patrones de entrada: anlisis de conglomerados o cluster,
escalas multidimensionales, etc.
Las Redes Neuronales: Procedimiento de Trabajo
Cmo se trabaja con las redes neuronales?
La figura siguiente describe el procedimiento para operar con redes
neuronales. Originalmente la red neuronal no dispone de ningn tipo de
conocimiento til almacenado. Para que la red neuronal ejecute una tarea es
preciso entrenarla, en terminologa estadstica diramos que es
necesario estimar los parmetros.
Es un procedimiento estadstico
En realidad todo el procedimiento que vemos en la figura es estadstico:
primero se selecciona un conjunto de datos, o patrones de aprendizaje en jerga
neuronal. Despus se desarrolla la arquitectura neuronal, nmero de neuronas,
tipo de red. Por decirlo con otras palabras, se selecciona el modelo y el nmero
de variables dependiente e independientes. Se procede a la fase de
aprendizaje o estimacin del modelo y a continuacin se validan los resultados.

Las redes neuronales: aplicaciones prcticas


Si bien el primer estudio terico sobre redes neuronales data de 1943 y fue
efectuado por Mc Culloch y Pitts, su aplicacin prctica es reciente en el tiempo
y se inicia a principios de los noventa. En la actualidad, las aplicaciones
prcticas de las redes neuronales son numerosas.
A qu aplicarlas?
Se aplican a tareas en las que un ser humano se desenvuelve bien, pero en las
que un sistema algortmico tradicional lo hace de un modo ineficaz. No deben
aplicarse en aquellos casos en los que la solucin algortmica es eficiente, es
decir, problemas de clculo aritmtico o lgico que los ordenadores
tradicionales resuelven muy bien. Tampoco podrn aplicarse en los casos en
los que no se pueda disponer de un conjunto suficiente de patrones-ejemplo.
Tres tipos de problemas
En general, las redes neuronales tratan de resolver de forma eficiente
problemas que pueden encuadrarse dentro de tres amplios grupos:
optimizacin, reconocimiento y generalizacin. Estos tres tipos engloban un
elevado nmero de situaciones, lo que hace que el campo de aplicacin de las

redes neuronales en la gestin empresarial sea muy amplio. Los libros de


Refenes (1995) y Deboeck y Kohonen (1998) recogen una amplia coleccin de
trabajos aplicados en contabilidad y finanzas.
a) Optimizacin
En los problemas de optimizacin se trata de determinar una solucin que sea
ptima. En la gestin empresarial, son decisiones de optimizacin encontrar los
niveles adecuados de tesorera, de existencias, de produccin, construir de
carteras ptimas, etc.
b) Reconocimiento
En los problemas de reconocimiento se entrena una red neuronal con inputs
como sonidos, nmeros, letras y se procede a la fase de test presentando esos
mismos patrones con ruido. Este es uno de los campos ms fructferos en el
desarrollo de redes neuronales y casi todos los modelos de red neuronal han
sido aplicados con mayor o menor xito.
c) Generalizacin
En los problemas de generalizacin la red neuronal se entrena con unos inputs
y el test se realiza con otros casos diferentes. Problemas tpicos de
generalizacin son los de clasificaciny prediccin. Son problemas de
generalizacin tratar de predecir la quiebra de las empresas a partir de su
informacin contable o la concesin de prstamos, la calificacin de
obligaciones, la prediccin en los mercados de valores, etc.
i) Clasificacin
En los problemas de clasificacin se trata de asignar a cada caso su clase
correspondiente, a partir de un conjunto de ejemplos.
ii) Prediccin
La prediccin ha sido una de las aplicaciones que ms pronto despertaron el
inters de los estudiosos de las redes neuronales. El anlisis tcnico pretende
predecir las cotizaciones a partir de la evolucin histrica de precios y
volmenes de negociacin. El anlisis fundamental trata de valorar los factores
econmicos ms importantes del entorno y contempla la evolucin econmicofinanciera de las empresas.

ASPECTOS GENERALES

La Neurona:
En 1849, Emil Heinrich Du Bois-Reymond, se basaba en la teora de que
el sistema
nervioso posea
una naturaleza elctrica.
Detectaba
las
imperceptibles descargas elctricas provocadas al contraer los msculos del
brazo. Utiliz un galvanmetro, un primitivo medidor de tensiones, y cuyo
electrodo, constitua de los hilos del aparato con trozos de papel secante
impregnado de solucin salina.
Se dio cuenta de que la piel actuaba como un aislante de las seales
elctricas, entonces, no vacil en abrirse una herida y logr captar seales
elctricas unas treinta veces ms intensas.
A finales del siglo IX se logr una mayor claridad sobre el
trabajo del cerebro debido a los trabajos de Ramn y Cajal en Espaa y
Sherrington en Inglaterra. El primero trabaj en laanatoma de las neuronas y el
segundo en los puntos de conexin de las mismas o sinpsis.
El tejido nervioso es el ms diferenciado del organismo y est constituido
por clulas nerviosas, fibras nerviosas y la neuroglia, que est formada por
varias clases de clulas. La clulanerviosa se denomina neurona, que es la
unidad funcional del sistema nervioso. Hay neuronas bipolares, con dos

prolongaciones de fibras y multipolares, con numerosas prolongaciones.


Pueden ser neuronas sensoriales, motoras y de asociacin.
Se estima que en cada milmetro del cerebro hay cerca de 50.000 neuronas.

El tamao y la forma de las neuronas es variable, pero con las mismas


subdivisiones que muestra la figura 1. El cuerpo de la neurona o Soma
contiene el ncleo. Se encarga de todas las actividades metablicas de
la neurona y recibe la informacin de otras neuronas vecinas a travs de las
conexiones sinpticas.
Las dendritas son las conexiones de entrada de la neurona. Por su parte el
axn es la "salida" de la neurona y se utiliza para enviar impulsos o seales a
otras clulas nerviosas. Cuando el axn esta cerca de sus clulas destino se
divide en muchas ramificaciones que forman sinpsis con el soma o axones de
otras clulas. Esta unin puede ser "inhibidora" o "excitadora" segn el
transmisor que las libere. Cada neurona recibe de 10.000 a 100.000 sinpsis y
el axn realiza una cantidad de conexiones similar.
La transmisin de una seal de una clula a otra por medio de la sinpsis es
un proceso qumico. En l se liberan substancias transmisoras en el lado del
emisor de la unin. El efecto es elevar o disminuir el potencial elctrico dentro
del cuerpo de la clula receptora. Si su potencial alcanza el umbral se enva un
pulso o potencial de accin por el axn. Se dice, entonces, que la clula se
dispar. Este pulso alcanza otras neuronas a travs de la distribuciones de los
axones.
La Red Neuronal:
El sistema de neuronas biolgico esta compuesto por neuronas de entrada
(censores) conectados a una compleja red de neuronas "calculadoras"
(neuronas ocultas), las cuales, a su vez, estn conectadas a las neuronas de
salidas que controlan, por ejemplo, los msculos. Los censores pueden ser
seales de los odos, ojos, etc. las respuestas de las neuronas de salida
activan
los
msculos
correspondientes.
En
el cerebro hay
una
gigantesca red de neuronas "calculadoras" u ocultas que realizan
la computacin necesaria. De esta manera similar, una redneuronal artificial
debe ser compuesta por censores del tipo mecnico o elctrico.

Redes Neuronales Artificiales:


Los intentos por imitar el funcionamiento del cerebro han seguido
la evolucin del estado de la tecnologa. Por ejemplo, al finalizar el siglo 19 se

le compar con la operacin de la bomba hidrulica; durante la dcada de 1920


a 1930 se intento utilizar la teora de la conmutacin telefnica como punto de
partida de un sistema de conocimiento similar al del cerebro. Entre 1940 y 1950
los cientficos comenzaron a pensar seriamente en
las redes
neuronales utilizando como concepto la nocin de que las neuronas del cerebro
funcionan como interruptores digitales (on - off) de manera tambin similar al
recin desarrollado computador digital. As nace la idea de revolucin
ciberntica" que maneja la analoga entre el cerebro y el computadordigital.
1943 Teora de las Redes Neuronales Artificiales:
Walter Pitts junto a Bertran Russell y Warren McCulloch intentaron explicar el
funcionamiento del cerebro humano, por medio de una red de clulas
conectadas entre s, para experimentar ejecutando operaciones lgicas.
Partiendo del menor suceso psquico (estimado por ellos): el impulso todo /
nada, generado por una clula nerviosa.
El bucle "sentidos - cerebro - msculos", mediante la retroalimentacin
producira una reaccin positiva si los msculos reducen la diferencia entre una
condicin percibida por los sentidosy un estado fsico impuesto por el cerebro.
Tambin definieron la memoria como un conjunto de ondas que reverberan en
un circuito cerrado de neuronas.
1949 Conductividad de la sinpsis en las Redes Neuronales:
Seis aos despus de que McCulloch y Pitts mostraran sus Redes Neuronales,
el fisilogo Donald O. Hebb (de la McGill University) expuso que estas
(las redes neuronales) podan aprender. Su propuesta tenia que ver con la
conductividad de la sinpsis, es decir, con las conexiones entre neuronas.
Hebb expuso que la repetida activacin de una neurona por otra a travs de
una sinpsis determinada, aumenta su conductividad, y la hacia ms propensa
a ser activada sucesivamente, induciendo a la formacin de un circuito de
neuronas estrechamente conectadas entre s.
1951 Primera Red Neuronal:
El extraordinario estudiante de Harvard, Marvin Minsky conoci al cientfico
Burrhus Frederic Skinner, con el que trabaj algn tiempo ayudndole en
el diseo y creacin de mquinas para sus experimentos. Minsky se inspir
en Skinner para gestar su primera idea "oficial" sobre inteligencia artificial, su
Red Neuronal. Por aquel entonces entabl amistad con otro brillante
estudiante, Dean Edmonds, el cual estaba interesado en el estudio de una
nueva ciencia llamada Electrnica.
Durante el verano de 1951, Minsky y Edmonds montaron la primera mquina
de redes neuronales, compuesta bsicamente de 300 tubos de vaco y un

piloto automtico de un bombardero B-24. Llamaron a su creacin "Sharc", se


trataba nada menos que de una red de 40 neuronas artificiales que imitaban el
cerebro de una rata. Cada neurona hacia el papel de una posicin del laberinto
y cuando se activaba daba a entender que la "rata" sabia en que punto del
laberinto estaba. Las neuronas que estaban conectadas alrededor de la
activada, hacan la funcin de alternativas que seguir por el cerebro, la
activacin de la siguiente neurona, es decir, la eleccin entre "derecha" o
"izquierda" en este caso estara dada por la fuerzade sus conexiones con la
neurona activada. Por ejemplo, la "rata" completaba bien el recorrido eligiendo
a partir de la quinta neurona la opcin "izquierda" (que correspondera a la
sexta), es entonces cuando las conexiones entre la quinta y sexta se hacen
ms fuertes (dicha conexin era realizada por el piloto automtico), haciendo
desde este momento ms propensa esta decisin en un futuro. Pero las
tcnicas Skinnerianas (que eran las que se haban puesto en funcionamiento
en esta red neuronal) no podran llevar muy lejos a este nuevo engendro, la
razn pasa porque esto, en s, no es inteligencia, pues la red neuronal nunca
llegara a trazar un plan.
Despus de su Red Neuronal, Minsky escribi su tesis doctoral acerca de esta,
en ella describa "cerebros mucho mayores", exponiendo que si se realizaba
este proyecto a gran escala, con miles o millones de neuronas ms y con
diferentes censores y tipos de retroalimentacin la mquina podra ser capaz
de razonar, mas el sabia que la realizacin de esta Red Neuronal era imposible
y decidi buscar otra forma de crear inteligencia
En los 70, comenz una carrera hacia el diseo de prtesis mecanizadas
capaces de obedecer a contracciones musculares, y que aun no ha terminado.
Las Herramientas.
Con electrodos de cloruro de plata y amplificadores electrnicos muy sensibles,
pueden registrarse los dbiles impulsos musculares.
Las seales que se captan se denominan "seales electromiogrficas o EMG".
Otro sistema deriva de otro fenmeno bio-elctrico, la diferencia de potencial
entre la retina y la crnea. La retina posee la mxima actividad metablica del
ojo, presentando, as, una tensin (elctrica) ligeramente negativa con respecto
a la crnea. Mediante circuitos electrnicos, puede detectarse las minsculas
variaciones de tensin de esta dbil batera elctrica, cuando
la persona cambia la orientacin de sus ojos. Tales impulsos fueron llamados
"seales electrooculogrficas o EOG.
En otras tcnicas de medicin ocular se utilizan, rayos infrarrojos o cmaras
de video, pero son sistemas ms costosos que el de electrodos.

Por ltimo la utilizacin de tcnicas por electroencefalograma o EEG, los


electrodos se colocan en el cuero cabelludo, captndose las dbiles seales de
los potenciales elctricos que emite el cerebro.
Los Procesos:
Hemos visto que hasta ahora, se utiliza, principalmente como sensor para
captar las seales, al electrodo, que en todos los casos capta diferencias de
potencial.
Para que esta informacin recibida tenga algn sentido, debemos tener
adems un sistema que amplifique esta seal recibida, y as poder estudiarla.
El paso siguiente es un sistema que analice y traduzca dichos datos en una
informacin til. De ello se encarga el hardware y software creado
especficamente para tal fin.
Por ltimo un sistema efector, es decir un sistema que realice una accin a
partir de la interpretacin de los datos obtenidos.
El caso EMG (electromiogrfico): se ha diseado un equipo que sirve de
interfaz entre el ordenador y las seales elctricas del cuerpo.
Comienza con la amplificacin de las seales EMG, en un factor de 10.000.
Otros circuitos lo convierten en un formato digital. Luego de un extenso
procesamiento de dichas seales digitalizadas, el ordenador puede determinar
cuando y en que medida se contraen las fibras musculares prximas a los
electrodos, de esta manera, la actividad muscular puede dirigir la operacin de
un ordenador personal.

Lgica difusa o Lgica fuzzy, en informtica, forma de lgica utilizada en


algunos sistemas expertos y en otras aplicaciones de inteligencia artificial, en la
que las variables pueden tener varios niveles de verdad o falsedad
representados por rangos de valores entre el 1 (verdadero) y el 0 (falso). Con
la lgica fuzzy, el resultado de una operacin se puede expresar como
una probabilidad y no necesariamente como una certeza. Por ejemplo, adems
de los valores verdadero o falso, un resultado puede adoptar valores tales
como probablemente verdadero, posiblemente verdadero, posiblemente falso y
probablemente falso.
El caso EOG (electrooculogrficas): es similar al anterior, comienza por
amplificar y digitalizar las tensiones recogidas por 4 electrodos, 2 para
movimientos verticales y 2 para las horizontales. Seguidamente, el sistema
aplica lgica borrosa para discriminar entre el movimiento real del ojo y la
deriva del electrodo.
El caso EEG (electroencefalogrfico): los neurlogos creen que el origen de
las tensiones EEG est en las clulas piramidales de la corteza cerebral.
Cada clula constituye un diminuto dipolo elctrico, cuya polaridad depende de
que la entrada de la red a la clula sea una inhibicin o excitacin. Los
electrodos son altamente sensibles, de modo que, puede colocarse los
electrodos sobre la piel y por encima del rea que se desea estudiar.

Se ha intentado aislar ciertas seales que el sujeto


pueda controlar a su voluntad. Por desgracia, las seales captadas se resisten
al control. Lo que se hace, es medir continuamente una diversidad de seales
EEG y eliminar por filtrado las partes indeseadas. Las diferentes ondas, se
caracterizan por la frecuencia de sus emisiones, hay cinco tipos: ALFA, se
crean por acciones sencillas; BETA, se las asocia a un estado de alerta;
TETHA, se originan por tensin emocional, como la frustracin; MU, al parecer
asociadas con la corteza motora (disminuyen con el movimiento o la intencin
de moverse).

Casi todas las tentativas de controlar un ordenador por mediciones continuas


de EEG se basan en la obtencin de ondas ALFA o MU, ya que es posible
aprender a cambiar la amplitud de estos dos ritmos mediante un esfuerzo
mental apropiado por ejemplo un recuerdo.
Las ondas MU pueden controlarse su amplitud mediante representaciones de
la sonrisa, la masticacin, la deglucin y otras actividades motoras.
El equipo investigador ha preparado un sistema para la deteccin rfagas de
actividad en ondas ALFA, que pueden provocarse deliberadamente distrayendo
la atencin.
Un segundo tipo de aparato medidor de ondas cerebrales, por medio de un
sistema llamado de potencial evocado o EP. La seal EP se produce en
respuesta a ciertos estmulos, tales como un fuerte ruido o un destello de luz -.
Las Redes Neuronales Artificiales:
Sistema Experto
Un mtodo ms
avanzado
para
representar el
conocimiento,
es
el sistema experto. Tpicamente est compuesto por varias clases
de informacin almacenada: Las reglas If - Then le dicen al sistema como se
debe reaccionar ante los estados del "mundo". Una regla del sistema experto
puede ser if Y es un hombre, Then Y es mortal. Los hechos describen el

estado del "mundo". Por ejemplo: Juan es mortal. Por ltimo, una mquina de
inferencia relaciona los hechos conocidos con las reglas If - Then y genera una
conclusin. En el ejemplo: Juan es mortal. Esta nueva conclusin se aade a la
coleccin de hechos que se almacena en los medios pticos o magnticos
del computador digital. De esta forma, un sistema experto sintetiza
nuevo conocimiento a partir de su "entendimiento" del mundo que le rodea. De
esta forma, un sistema experto es un mtodo de representacin y
procesamiento del conocimiento, mucho ms rico y poderoso que un
simple programa de computador. Sin embargo, con respecto a la manera en
que opera el cerebro humano, las limitaciones son mltiples.
Los problemasplanteados en trminos difusos o ambiguos, por ejemplo, son
muy complejos de analizar o "conocer" con sistemas de procesamiento
simblico, como los sistemas expertos o programasde computador.
Mtodo de transmisin de la informacin en el cerebro:
Antes conviene saber que en los primeros tiempos de la informtica a los
ordenadores se los llamaba calculadoras de cifras electrnicas o simplemente
calculadoras digitales. Lossistemas digitales trabajan con cifras en cdigo
binario
que
se
transmiten
en
formas
de
impulsos
(bits).
Los sistemas analgicos procesan seales continuamente cambiantes,
comomsica o palabra hablada.
Por suerte para nuestro propsito de imitar con un ordenador el cerebro este
tambin codifica la informacin en impulsos digitales. En los humanos las
sensaciones se generan digitalmente y se transmiten as a travs del sistema
nervioso. Con otras palabras cuando la luz se hace ms intensa, el sonido mas
alto o la presin mas fuerte, entonces no es que fluya mas corriente a travs de
los nervios, sino que la frecuencia de los impulsos digitales aumenta.
En principio los ordenadores trabajan de manera semejante. As una sensacin
mas fuerte corresponde en un equipo informtico a una cifra ms alta (o en una
palabra mas larga). Sin embargo en un ordenador los datos se transmiten
siempre a un mismo ritmo; la frecuencia base es inalterable. Por eso las cifras
mas altas tardan mas tiempo en ser transmitidas. Como por lo general el
ordenador o trabajan en tiempo real, esto no tiene mayor importancia, pero
cuando se trata de un procesador en tiempo real, como son los empleados
en procesoindustrial, hace falta de ampliar l numero de canales de transmisin
para que en el mismo espacio de tiempo pueda fluir mayor cantidad de datos.

Compuertas lgicas

Sabemos que los elementos bsicos de un ordenador son las compuertas


lgicas, en el cerebro tambin existen aunque no son idnticas a las de un
ordenador
En un ordenador las compuertas And, Or etc. tiene una funcin perfectamente
determinada e inalterable. En el cerebro tambin hay elementos de conexin
parecidos, las llamadas sinapsis, donde confluyen en gran numero las fibras
nerviosas.
Funcionamiento de las sinapsis
Cientos de datos fluyen por los nervios hasta cada sinapsis, donde son
procesados. Una vez analizada y tratada la informacin esta sale ya
transformada por los canales nerviosos.
En los seres vivos no pueden permitirse el lujo de la especializacin ya que si
algo se rompe otro elemento debe hacerse cargo de la funcin. Por eso cada
sinapsis es simultneamente una compuerta Ad, Or, Not etc.
Una sinapsis suma las tensiones de los impulsos entrantes. Cuando se
sobrepasa un determinado nivel de tensin; el llamado umbral de indicacin;
esta se enciende, esto es deja libre el camino para que pasen los impulsos. Si
el umbral de indicacin de tensin es demasiado bajo, la sinapsis acta como
una puerta lgica del tipo Or, pues en tal caso pocos impulsos bastan para que
tenga lugar la conexin. En cambio cuando el umbral de indicacin es alto, la
sinapsis acta como una puerta And, ya que en ese caso hace falta que lleguen
la totalidad de los impulsos para que el camino quede libre. Tambin existen
conducciones nerviosas que tienen la particularidad de bloquear el paso
apenas llegan los impulsos. Entonces la sinapsis hace la funcin de una
compuerta inversora. Esto demuestra la flexible del sistema nervioso.

Diferencias entre el cerebro y un ordenador


La diferencia ms importante y decisiva el cmo se
el almacenamiento de informacin en el cerebro y en el ordenador.

produce

Ordenador: Los datos se guardan en posiciones de memoria que son celdillas


aisladas entre s. As cuando se quiere acceder a una posicin de memoria se
obtiene el dato de esta celdilla. Sin que las posiciones de memoria aldeanas s
de por aludidas.
Cerebro: La gestin es totalmente diferente. Cuando buscamos una
informacin no hace falta que sepamos donde se encuentra almacenada y en
realidad no lo podemos saber ya que nadie sabe donde guarda hasta hoy en
ida el cerebro los datos.

Pero tampoco es necesario ya que basta con que pensemos en el contenido o


significado de la informacin para que un mecanismo, cuyo funcionamiento
nadie conoce, nos proporcione automticamente no solo la informacin
deseada sino que tambin las informaciones vecinas, es decir, datos que de
una u otra manera hacen referencia a lo buscado.
Los expertos han concebido una serie de tecnicismos para que lo
incomprensible resulte algo ms comprensible. As a nuestro sistema para
almacenar informacin se lo llama memoriaasociativa. Esta expresin quiere
dar a entender que los humanos no memorizan los datos diseccionndolos en
celdillas, sino por asociacin de ideas; esto es, interrelacionando contenidos,
significados, modelos.
En todo el mundo pero sobre todo en Estados Unidos y Japn, cientficos
expertos tratan de dar con la clave de la memoria asociativa. Si se consiguiera
construir un chip de memoriasegn el modelo humano, la ciencia dara un paso
gigante en la fascinante carrera hacia la inteligencia artificial. Y adems el
bagaje del saber humano quedara automticamente enriquecido.

Un superordenador llamado cerebro


El hombre necesita un sistema de proceso de datos de mltiple propsito
capaz de tratar gran cantidad de informacin muy distinta y en muy poco
tiempo y con el mayor sentido practico(pero no necesariamente con exactitud),
para inmediatamente poder actuar en consecuencia. Los ordenadores,
en cambio, son altamente especializados con capacidad para procesar con
exactitud informacin muy concreta(en principio solo nmeros) siguiendo unas
instrucciones dadas.
El cerebro humano posee mas de diez millones de neuronas las cuales ya
estn presentes en el momento del nacimiento conforme pasa el tiempo se
vuelven inactivas, aunque pueden morir masivamente.
Nuestro rgano de pensamiento consume 20 Patios / hora de
energa bioqumica, lo que corresponde a una cucharada de azcar por hora.
Los ordenadores domsticos consumen una cantidad semejante. Las
necesidades de oxigeno y alimento es enorme en comparacin con el resto
del cuerpo humano: casi una quinta parte de toda la sangre fluye por el cerebro
para aprovisionar de oxigeno y nutrieres. La capacidad total de memoria es
difcil de cuantificar, pero se calcula que ronda entre 1012 y 1014 bits.
La densidad de informacin de datos de un cerebro todava no se ha podido
superar artificialmente y en lo que se refiere a velocidad de transmisin de
datos, a pesar de la lentitud con que transmite cada impulso aislado, tampoco

esta en desventaja, gracias a su sistema de proceso en paralelo: la informacin


recogida por un ojo representa 106 bits por segundo.
Segn todos los indicios el cerebro dispone de dos mecanismos
de almacenamiento de datos: la memoria intermedia acepta de cinco a diez
unidades de informacin, aunque solo las mantiene durante agudos
minutos. La memoria definitiva guarda las informaciones para toda la vida, lo
que no significa que nos podamos acordar siempre de todo. La
memoria inmediata trabaja como una espacie de cinta continua: la informacin
circula rotativamente en forma de impulsos elctricos por los registros. El
sistema es comparable a la memoria dinmica de un ordenador, en la que la
informacin tiene que ser refrescada continuamente para que no se pierda.
En cambio, la memoria definitiva parece asemejare mas bien a las
conocidas memoriasde celdillas de los ordenadores. Se cree que esta memoria
funciona gracias a formaciones qumicas de las protenas presentes en el
cerebro humano.
Diferencias entre el cerebro y una computadora

Cerebro

Sistema de datos de mltiple


propsito capaz de tratar gran
cantidad de informacin en poco
tiempo pero no necesariamente con
exactitud.

Computadora

Sistemas altamente especializados


con capacidad para procesar
informacin muy concreta,
siguiendo unas instrucciones dadas.

La frecuencia de los impulsos nerviosos


puede variar.

La frecuencia de transmisin es
inalterable y esta dada por el reloj
interno de la maquina.

Las llamadas sinapsis cumple en el


cerebro la funcin simultnea de varias
compuertas (and, or, not etc.)

Las compuertas lgicas tienen una


funcin perfectamente determinada e
inalterable.

La memoria es del tipo asociativo y no se La informacin se guarda en


sabe dnde quedara almacenada.
posiciones de memoria de acceso
directo por su direccin.
Los impulsos fluyen a 30 metros por En el interior de una computadora los
segundo.
impulsos fluyen a la velocidad de laluz.

Similitudes entre el cerebro y una computadora

Ambos codifican la informacin en impulsos digitales.


Tanto el cerebro como la computadora tienen compuertas
lgicas.
Existen distintos tipos de memoria.
Los dos tienen aproximadamente el mismo consumo de
energa.

Control de Ordenadores por Seales Neuronales


La bsqueda de controlar el ordenador mediante impulsos bio-elctricos, es
una idea que ha dejado de ser parte de las novelas de ciencia-ficcin, para
integrarse a las filas de temas de estudio e investigacin serios.
Hoy en da, estamos un paso ms cerca de lograr tales sueos, puesto que
la tecnologa y la teora cientfica, al respecto, son cada vez ms cercanos.

MARCO TERICO

Las redes neuronales como su nombre lo indica pretenden imitar a


pequesima escala la forma de funcionamiento de las neuronas que forman el
cerebro humano. Todo el desarrollo de las redes neuronales tiene mucho que
ver con la neurofisiologa, no en vano se trata de imitar a una neurona humana
con la mayor exactitud posible. Entre los pioneros en el modelado de neuronas
se encuentra Warren McCulloch y Walter Pitts. Estos dos investigadores

propusieron un modelo matemtico de neurona. En este modelo cada neurona


estaba dotada de un conjunto de entradas y salidas. Cada entrada est
afectada por un peso. La activacin de la neurona se calcula mediante la suma
de los productos de cada entrada y la salida es una funcin de esta activacin.
La principal clave de este sistema se encuentra en los pesos de las diferentes
entradas. Como se ha visto, las entradas son modificadas por el peso y las
salidas son funcin de estas modificaciones. Esto nos lleva a concluir que los
pesos influyen de forma decisiva en la salida y por lo tanto pueden ser
utilizados para controlar la salida que se desea.
En realidad cuando se tienen interconectadas muchas de estas neuronas
artificiales lo que se hace inicialmente es entrenar el sistema. El entrenamiento
consiste en aplicar unas entradas determinadas a la red y observar la salida
que produce. Si la salida que produce no se adecua a la que se esperaba, se
ajustan los pesos de cada neurona para interactivamente ir obteniendo las
respuestas adecuadas del sistema. A la red se le somete a varios ejemplos
representativos , de forma que mediante la modificacin de los pesos de cada
neurona , la red va "aprendiendo".

LA NEURONA BIOLGICA

A finales del siglo XIX se logr una mayor claridad sobre el trabajo del cerebro
debido a los trabajos de Ramn y Cajal en Espaa y Sherrington en Inglaterra.
El primero trabaj en la anatoma de las neuronas y el segundo en los puntos
de conexin de las mismas o sinapsis. Se estima que en cada milmetro del
cerebro hay cerca de 50.000 neuronas, conteniendo en total ms de cien mil
millones de neuronas y sinapsis en el sistema nervioso humano. La estructura
de una neurona se muestra en la figura 1.

Figura1. La Neurona
El tamao y la forma de las neuronas es variable, pero con las mismas
subdivisiones que muestra la figura. Subdividindose as en tres partes:
1.el cuerpo de la neurona,
2.ramas de extensin llamadas dendritas para recibir las entradas, y
3.un axn que lleva la salida de la neurona a las dendritas de otras neuronas.
El cuerpo de la neurona o Soma contiene el ncleo. Se encarga de todas las
actividades metablicas de la neurona y recibe la informacin de otras
neuronas vecinas a travs de las conexiones sinpticas (algunas neuronas se
comunican solo con las cercanas, mientras que otras se conectan con miles).
Las dendritas, parten del soma y tienen ramificaciones. Se encargan de la
recepcin de seales de las otras clulas a travs de conexiones
llamadas sinpticas. Si pensamos, desde ahora, en trminos electrnicos
podemos decir que las dendritas son las conexiones de entrada de la neurona.
Por su parte el axn es la "salida" de la neurona y se utiliza para enviar
impulsos o seales a otras clulas nerviosas. Cuando el axn est cerca de
sus clulas destino se divide en muchas ramificaciones que forman sinapsis
con el soma o axones de otras clulas. Esta unin puede ser "inhibidora" o
"excitadora" segn el transmisor que las libere. Cada neurona recibe de 10.000
a 100.000 sinapsis y el axn realiza una cantidad de conexiones similar.
La transmisin de una seal de una clula a otra por medio de la sinapsis es
un proceso qumico. En el se liberan substancias transmisoras en el lado del
emisor de la unin. El efecto es elevar o disminuir el potencial elctrico dentro
del cuerpo de la clula receptora.

Si su potencial alcanza el umbral se enva un pulso o potencial de accin por el


axn. Se dice, entonces, que la clula se dispar. Este pulso alcanza otras
neuronas a travs de la distribuciones de los axones.
Una neurona se puede comparar con una caja negra compuesta por varias
entradas y una salida. La relacin de activacin entre la salida y la entrada, o
en trminos circuitales o de teora de control, la funcin de transferencia se
encuentra en la figura 2.

Figura 2. Funcin de Transferencia de una neurona


La variable f es la frecuencia de activacin o emisin de potenciales y u es la
intensidad del estmulo del soma.

LA NEURONA ARTIFICIAL.
Un circuito elctrico que realice la suma ponderada de las diferentes seales
que recibe de otras unidades iguales y produzca en la salida un uno o
un cero segn el resultado de la suma con relacin al umbral o nivel de
disparo, conforma una buena representacin de lo que es una neurona
artificial. La funcin de transferencia para la activacin o disparo de la neurona
puede ser de umbral lgico (figura 4) o de limitacin dura (figura 4b) o de
funcin sigmoidal (tipo s) (figura 4c). W representa el peso o ponderacin de la
conexin a travs de una entrada.

Figura 4. Funciones de transferencia o activacin de una neurona artificial


En particular, la funcin sigmoidal se define as:

La neurona artificial es un dispositivo elctrico que responde a seales


elctricas. La respuesta la produce el circuito activo o funcin de transferencia
que forma parte del cuerpo de la neurona. Las "dendritas" llevan las seales
elctricas al cuerpo de la misma. Estas seales provienen de sensores o son
salidas de neuronas vecinas. Las seales por las dendritas pueden ser voltajes
positivos o negativos; los voltajes positivos contribuyen a la excitacin del
cuerpo y los voltajes negativos contribuyen a inhibir la respuesta de la neurona
(figura 5).

Figura 5. Excitacin, inhibicin, disparo

REDES NEURONALES
La Red Neuronal Biolgica
El sistema de neuronas biolgico est compuesto por neuronas de entrada
(sensores) conectados a una compleja red de neuronas "calculadoras"

(neuronas ocultas), las cuales, a su vez, estn conectadas a las neuronas de


salidas que controlan, por ejemplo, los msculos. La figura 6 muestra un
esquema conceptual.

Figura 6. Estructura neuronal

Los sensores pueden ser seales de los odos, ojos, etc. Las respuestas de las
neuronas de salida activan los msculos correspondientes. En el cerebro hay
una gigantesca red de neuronas "calculadoras" u ocultas que realizan la
computacin necesaria. De esta manera similar, una red neuronal artificial debe
ser compuesta por sensores del tipo mecnico o elctrico.

Redes neuronales artificiales (Artificial Neural Networks (ANN))

Supervisado.- mediante este tipo se introduce a la red una serie de patrones


de entrada y salida . La red es capaz de ajustar los pesos con el fin de
memorizar la salida deseada
No supervisado.- aqu la red responde clasificando los patrones de entrada en
funcin de las caractersticas mas adecuadas de cada uno
Autosupervisado.- en este tipo la propia red corrige los errores en la
interpretacin a travs de una realimentacin.

El entrenamiento de la red es muy importante ya que servir para que


posteriormente la respuesta del sistema sea la adecuada. Si nos fijamos un
poco eso tiene mucho que ver con el aprendizaje humano. Cuando a un nio
se le ordena coger un vaso , empieza moviendo el brazo de forma cuasialeatoria hasta que choca con el vaso y lo presiona con sus dedos. La prxima
vez que se le ordene al nio, ste alcanzar el vaso con mayor soltura y
precisin . Este mismo modelo se ha ensayado en redes neuronales de
caractersticas similares a las del nio. Una vez que el brazo mecnico choca
con la pieza y memoriza la secuencia , en posteriores ocasiones al brazo le
cuesta menos realizar la misma operacin se dice entonces que el sistema
adquiri experiencia.
En conclusin las redes neuronales se orientan a desarrollar mquinas o
sistemas inteligentes capaces de simular, desarrollar y optimizar muchas de las
funciones de un ser humano as como tambin la investigacin cientfica ya que
pueden hacer cosas que el hombre por sus limitaciones fsicas no puede
realizar.

CLASIFICACIN DE LAS REDES NEURONALES ARTIFICIALES


(RNA)

Teniendo en cuenta estas ocho componentes bsicas de toda red neuronal, los
distintos modelos de red neuronal pueden clasificarse de acuerdo con cuatro
criterios bsicos (Hilera y Martnez, 1995): (1) la naturaleza de las seales de
entrada y salida, (2) la topologa de la red, (3) el mecanismo de
aprendizaje que utilizan y (4) el tipo de asociacin de las seales de entrada y
salida y la forma de representar estas seales. Las distintas posibilidades de
presentarse estos aspectos junto con las distintas funciones de activacin y
transferencia nos permiten la clasificacin de los distintos modelos.
De Acuerdo Con Su Naturaleza
De acuerdo con la naturaleza de las seales de entrada y de salida podemos
clasificar las redes neuronales en analgicas, discretas (generalmente,
binarias) e hbridas:
Las redes analgicas procesan datos de entrada de naturaleza analgica,
valores reales continuos, habitualmente acotados y usualmente en el compacto
[-1,1] o en el [0,1], para dar respuestas tambin continuas. Las redes
analgicas suelen presentar funciones de activacin continuas, habitualmente
lineales o sigmoides. Entre estas redes neuronales destacan las redes de

Backpropagation , la red continua de Hopfield, la de Contrapropagacin, la


Memoria Lineal Asociativa, la Brain-State-in-Box, y los modelos de Kohonen
(mapas auto-organizados (S.O.M.)y Learning Vector Quantizer, (L.V.Q.) .
Las redes discretas (binarias) procesan datos de naturaleza discreta,
habitualmente {0,1}, para acabar emitiendo una respuesta discreta. Entre las
redes binarias destacan la Maquina de Boltzman, la Mquina de Cauchy, la red
discreta de Hopfield, el Cognitrn y el Neogognitrn.
Las redes hbridas, procesan entradas analgicas para dar respuestas
binarias, entre ellas destacan el Perceptrn, la red Adaline y la Madaline.

De Acuerdo Con Su Topologa


Por lo que hace a la topologa de la red, las redes pueden clasificarse de
acuerdo con el nmero de capas o niveles de neuronas, el nmero de
neuronas por capa y el grado y tipo de conectividad entre las mismas. La
primera distincin a establecer es entre las redes Monocapa y las Multicapa.
Las redes Monocapa slo cuentan con una capa de neuronas, que
intercambian seales con el exterior y que constituyen a un tiempo la entrada y
salida del sistema. En las redes Monocapa (red de Hopfield o red Brain-Statein-Box, mquina de Boltzman, mquina de Cauchy), se establecen conexiones
laterales entre las neuronas, pudiendo existir, tambin conexiones
autorrecurrentes (la salida de una neurona se conecta con su propia entrada),
como en el caso del modelo Brain-State-in Box.
Las redes Multicapa disponen niveles o capas, con al menos una capa de
entrada y otra de salida, y, eventualmente una o varias capas intermedias
(ocultas).
Normalmente todas las neuronas de una capa reciben seales de otra capa
anterior y envan seales a la capa posterior (en el sentido Entrada - Salida). A
estas conexiones se las conoce como conexiones hacia delante o feedforward.
Si una red slo dispone de conexiones de este tipo se la conoce como red
feedforward. Sin embargo, puede haber redes en las que algunas de sus
neuronas presenten conexiones con neuronas de capas anteriores, conexiones
hacia atrs o feedback. En tal caso hablaremos de una red feedback o
interactiva. Entre las primeras destacan los distintos modelos de Kohonen,
aunque presentan conexiones laterales y autorrecurrrentes, el Perceptrn
(multicapa) o M.L.P., las redes Adaline y Madaline, la Memoria Lineal
Adaptativa y las Backpropagation. de conjuntos de neuronas jerarquizadas en
distintos

Entre las segundas debemos mencionar el Cognitrn y el Neocognitrn, junto


con los modelos de Resonancia y las mquinas multicapa de Boltzman y
Cauchy.

Las redes neuronales se clasifican segn su arquitectura:

</FON

capa de entrada

ARQUITECTURA RBF

Capa de salida

Capa oculta

Entrada de patrones

ARQUITECTURA KOHONEN

Entradas
ARQUITECTURA HOPFIELD

ARQUITECTURA FEEDFORWARD

Frecuentemente se habla en la arquitectura de lo que son las capas ocultas, las


definiremos como las capas intermedias entre al capa de salida y la capa de
entrada; recuerde que el toolbox de matlab trabaja solo con capas ocultas.

NEURONA ARTIFICIAL
La neurona artificial se caracteriza por tratar de asimilar ciertas caractersticas
y propiedades de la neurona biolgica.
Continuacin se muestra un diagrama de una neurona artificial

SYe
d

La regla de aprendizaje esta dada por :

Donde

Pesos
Error
Rata de aprendizaje
Entradas

Salida deseada
Funcion de activacion

Valor ponderado de las entradas por los pesos

El Perceptrn fu propuesto por Rosenblatt en 1959 en su obra "Principles of


Neurodynamics"[3]. Los Perceptrones son redes de propagacin hacia
adelante basados en unidades binarias. En una forma sencilla, el Perceptrn
consta de una capa de entrada de n elementos, dichas entradas, se
propagarn a una capa de m unidades actuadoras y de estas a una sola unidad
de salida. El objetivo de esta operacin es aprender a dar una transformacin
dada usando muestras de aprendizaje, con entrada x y su correspondiente
salida y. En la definicin original la actividad de las unidades actuadoras puede
ser cualquier funcin f de la capa de entrada, pero el procedimiento de
aprendizaje slo ajusta las conexiones de la unidad de salida. La razn para
esto es que no hay una frmula para encontrar el ajuste de conexiones entre la
capa de entrada y la funcin f. La unidad de salida de un Perceptrn es un
elemento lineal o elemento de umbral, el cual se adecua a la siguiente regla:
Perceptrn con dos entradas, cada entrada es multiplicada por el peso W
correspondiente, y los resultados son sumados, siendo evaluados contra el
valor de umbral, si el resultado es mayor al mismo, el perceptrn se activa.

La funcin se puede expresar:

a = x1w1 + x2w2 +... + xnwn


b = umbral
y = F(a)
Si a >= b, y =1
Si a < b, y =0

El perceptrn es capaz tan slo de resolver funciones definidas por un


hiperplano que corte un espacio de dimensin N. Un ejemplo de una funcin
que no puede ser resuelta es el operador lgico XOR.
El vector de pesos [w1 w2... wn] es perpendicular al hiperplano.
El hiperplano divide en dos zonas un plano de 2 dimensiones, note que el
vector de pesos (w1=1 y w2=1, con b=0.5) es perpendicular al hiperplano.
El entrenamiento de un perceptrn es por medio de la regla de aprendizaje
delta:
Para cada peso W se realiza un ajuste dW segn la regla:
dW = LR ( T - Y ) X
Donde LR es la razn de aprendizaje, T el valor deseado, Y el valor obtenido,
y X la entrada aplicada al perceptrn.
Rosemblatt prob un teorema sobre el aprendizaje del perceptrn y dado esto,
en los 60s los Perceptrones crearon un gran inters en la comunidad cientfica
sobre las Redes Neuronales.
La euforia inicial se convirti en desilusin cuando Minsky y Paper publicaron
su libro "Perceptrons: An Introduction to Computational Geometry"[4] en 1969,
en el cual ellos mostraban las deficiencias de los modelos del Perceptrn, con
lo cual frenaron el desarrollo de las Redes Neuronales. Por un tiempo slo
algunos investigadores continuaron trabajando, los ms notables fueron Teuvo
Kohonen, Stephen Grossberg, James Anderson y Kunihiko Fukushima.

Adaline
El "Elemento Lineal Adaptable", tambin llamado Adaline (primeramente
conocido como Neurona Lineal Adaptable), fue sugerido por Widrow y
Hoff en su obra "Adaptive switching circuits"[5]. En una simple
implementacin fsica, la cual es Ejemplo de aplicacin a una compuerta
logica OR

1. inicialmente la neurona toma los siguientes pesos

Y tomando una funcin de activacin en escaln de un solo polo {0 1}


a. iniciamos calculando el valor ponderado de la suma de las entradas por
los pesos en la iteracin 1 (k=1)

b. Luego se compara el valor con la funcin de activacin

c. Calculando el error
tenemos que

= -1

d. Los nuevos pesos quedan

1. a. Se inicia una nueva iteracin (k =2), hallamos de nuevo S

b. La comparacin con la funcin de activacin

c. El error es
tenemos que

=0

d. El nuevo calculo de los pesos no se ve alterado por e = 0

2. a. Se inicia una nueva iteracin (k = 3)

b. La comparacin con la funcin de activacin

c. El error es
tenemos que

=0

d. El nuevo calculo de los pesos no se ve alterado por e = 0

4. a. Iteracion con k = 4

b. La comparacion con la funcion de activacion

c. El error es
tenemos que

=0

d. El nuevo calculo de los pesos no se ve alterado por e = 0

Despus de llegar hasta la novena iteracin (k =0) y ver que el e =0


decimos que la neurona aprendi despus de haber pasado un ciclo o
sea dwi/dt = 0

BACKPROPAGATION (Retropropagacin)

Analoga Entre Redes Neuronales Artificiales Con Las


Redes Neuronales Biolgicas

Las neuronas se modelan mediante unidades de proceso. Se componen de


un ncleo encargada de los clculos, una red o vector de conexiones de
entrada, y una salida.

Ilustracin: Unidad de proceso tpica

Funcin de propagacin o de red: Calcula el valor de base o entrada


total a la unidad, generalmente como simple suma ponderada de todas las
entradas recibidas, es decir, de las entradas multiplicadas por el peso o
valor de las conexiones. Equivale a la combinacin de las seales
excitatorias e inhibitorias de las neuronas biolgicas.

Funcin de activacin: Es quizs la caracterstica principal o definitoria


de las neuronas, la que mejor define el comportamiento de la misma. Se
usan diferentes tipos de funciones, desde simples funciones simples de
umbral a funciones no lineales. Se encarga de calcular el nivel o estado de
activacin de la neurona en funcin de la entrada total.

Conexiones ponderadas: hacen el papel de las conexiones sinpticas, el


peso de la conexin equivale a la fuerza o efectividad de la sinpsis. Las
existencia de conexiones determina si es posible que una unidad influya
sobre otra, el valor de los pesos y el signo de los mismos definen el tipo
(excitatorio/inhibitorio) y la intensidad de la influencia.

Salida: calcula la salida de la neurona en funcin de la activacin de la


misma, aunque normalmente no se aplica ms que la funcin identidad, y
se toma como salida el valor de activacin. El valor de salida cumplira la

funcin de la tasa de disparo en las neuronas biolgicas. De momento


consideramos el caso ms simple, aunque en el apartado de sistemas
neurofuzzy veremos un caso en que se utiliza una funcin de salida
diferente a la identidad.

Tabla: Comparacin entre las neuronas biolgicas reales y las


unidades de proceso artificiales
Redes Neuronales Biolgicas

Redes Neuronales Artificiales

Neuronas

Unidades de proceso

Conexiones sinpticas

Conexiones ponderadas

Efectividad de las sinpsis

Peso de las conexiones

Efecto excitatorio o inhibitorio de una Signo del peso de una conexin


conexin
Efecto combinado de las sinpsis

Funcin de propagacin o de red

Activacin -> tasa de disparo

Funcin de activacin -> Salida

Estructura y formas de interconexin


Para disear una red debemos establecer como estarn conectadas unas
unidades con otras y determinar adecuadamente los pesos de las conexiones.
Lo ms usual es disponer las unidades en forma de capas, pudindose hablar
de redes de una, de dos o de ms de dos capas (redes multicapa) [1]. Aunque
inicialmente se desarrollaron redes de una sola capa, lo ms usual es disponer
tres o ms capas: la primera capa acta como buffer de entrada, almacenando
la informacin bruta suministrada a la red o realizando un sencillo pre-proceso
de la misma, la llamamos capa de entrada; otra capa acta como interfaz o
buffer de salida, almacenando la respuesta de la red para que pueda ser leda,
la llamamos capa de salida; y las capas intermedias, principales encargadas
de extraer, procesar y memorizar la informacin, las denominamos capas
ocultas.

Ilustracin: Modelo de red en cascada de 3 capas


Adems del nmero de capas de una red, en funcin de como se interconectan
unas capas con otras, podemos hablar de redes recurrentes (feed-back) y
redes no recurrentes o redes en cascada (feed-forward). En las redes en
cascada la informacin fluye unidireccionalmente de una capa a otra (desde la
capa de entrada a las capas ocultas y de stas a la capa de salida), y adems,
no se admiten conexiones intracapa. En las redes recurrentes la informacin
puede volver a lugares por los que ya haba pasado, formando bucles, y se
admiten las conexiones intracapa (laterales), incluso de una unidad consigo
misma.

Las conexiones entre una capa y otra pueden ser totales, es decir, que cada
unidad se conecta con todas las unidades de la capa siguiente, o parciales, en
las cuales una unidad se conecta con slo algunas de las capas de la unidad
siguiente, generalmente siguiendo algn patrn aleatorio o pseudo-aleatorio
(por ejemplo, mediante algoritmos genticos).
Desde una aproximacin temporal se puede distinguir adems entre
conexiones sin retardo y conexiones con retardo. Esto permite modelar
aspectos dinmicos, por ejemplo en modelos psicofisiolgicos de memoria.

La funcin de propagacin (de red o de base)


Como ya hemos comentado, se encarga de calcular la entrada total de la
neurona como combinacin de todas las entradas. La funcin ms utilizada con
diferencia es la funcin lineal de base (LBF), que consiste en el sumatorio
ponderado de todas las entradas.

Funcin lineal (LBF)


Consiste en el sumatorio de las entradas ponderadas. Se trata de una funcin
de tipo hiperplano, esto es, de primer orden.
Dado una unidad j, y n unidades conectadas a sta, si llamamos X al vector de
entradas (que coincide con las salidas de las unidades de la capa anterior)
y Wj al vector de pesos de las conexiones correspondientes, esta funcin
quedara as:

Al representar los pesos utilizamos dos subndices para indicar que conectan
dos unidades, i y j, dnde j se refiere la unidad actual.

Funcin radial (RBF)


Funcin de tipo hiperesfrico, de segundo orden, no lineal. El valor de red
representa la distancia a un determinado patrn de refencia.

La funcin de activacin
Se suele distinguir entre funciones lineales, en las que la salida es
proporcional a la entrada; funciones de umbral, en las cuales la salida es un
valor discreto (tpicamente binario 0/1) que depende de si la estimulacin total
supera o no un determinado valor de umbral; y funciones no lineales, no
proporcionales a la entrada.
Casi todos los avances recientes en conexionismo se atribuyen a arquitecturas
multicapa que utilizan funciones de activacin no lineales como una funcin de
umbral, una funcin sigmoidal una funcin gausiana. El problema de trabajar
con modelos no lineales radica en que son difciles de describir en trminos
lgicos o matemticos convencionales.

Funcin de umbral
En un principio se pens que las neuronas usaban una funcin de umbral, es
decir, que permanecan inactivas y se activaban slo si la estimulacin total
superaba cierto valor lmite; despus se comprob que las neuronas emitan
impulsos de actividad elctrica con una frecuencia variable , dependiendo de la
intensidad de la estimulacin recibida, y que tenan cierta actividad hasta en
reposo, con estimulacin nula. Estos descubrimientos llevaron al uso de
funciones no lineales con esas caractersticas, como la funcin sigmoidal, con
un perfil parecido al escaln de una funcin de umbral, pero continua.

Funcin de activacin sigmoidal o logstica


Es probablemente la funcin de activacin ms empleada en la actualidad.

Se trata de una funcin continua no lineal con bastante plausibilidad


fisiolgica. La funcin sigmoidal posee un rango comprendido entre 0 y 1. Esto,
aplicado a las unidades de proceso de una red neuronal artificial significa que,
sea cual sea la entrada, la salida estar comprendida entre 0 y 1.
Esta funcin depende del parmetro , que usualmente toma el valor 1.

Ilustracin: Funcin sigmoidal con = 1


La salida de una unidad vale 0.5 cuando la entrada es nula, esto significa que
la unidad tiene cierta actividad an en ausencia de estimulacin. Al aumentar la
estimulacin la unidad aumenta su activacin, y la disminuye si la estimulacin
es inhibitoria, de forma parecida a como se comportan las neuronas reales.
Presenta las siguientes caractersticas deseables.
1. Acomodacin de seales muy intensas sin producir saturacin.
2. Admite seales dbiles sin excesiva atenuacin
3. Fcilmente derivable
La principal limitacin de esta funcin es que no sirve para expresar
polaridades, da siempre valores positivos. Una funcin alternativa con
cualidades parecidas pero con un rango entre -1 y 1 es la funcin tangente
hiperblica. Desde un punto de vista fisiolgico, el signo negativo se puede
interpretar como una disminucin de la tasa de disparo de una neurona por
debajo de la tasa de disparo en reposo.

Funcin gausiana

Redes sncronas vs asncronas


Un ltimo aspecto no comentado, referido a la manera en que las unidades
computan su activacin en relacin al tiempo es que, si en cada ciclo de

aprendizaje se calcula la activacin de todas las unidades de una capa,


hablamos de redes sncronas, en caso contrario se habla de redes
asncronas o probabilsticas, en las cuales cada unidad de proceso tiene una
cierta posibilidad de computar su activacin en cada ciclo de aprendizaje. Las
redes asncronas ofrecen la ventaja de ser menos propensas a caer en
mnimos locales (ver el problema de los mnimos locales en la Error! No se
encuentra el origen de la referencia. de las redes de retropropagacin).

Mtodos Deterministas vs Estadsticos


Esta distincin tiene bastante relacin con la anterior, ya que las redes
sncronas suelen emplear reglas de aprendizaje deterministas, y los mtodos
estadsticos en cambio, se aplican en las redes asncronas. Algunos autores
hablan de mtodos de aprendizaje deterministas haciendo referencia al modo
en que computan, paso a paso, las modificiaciones en los pesos de las
conexiones. Los mtodos estadsticos hacen cambios pseudoaleatorios en las
conexiones y retienen los cambios slo si mejoran la respuesta del sistema,
pueden resultar tiles en cuanto permiten alcanzar soluciones globalmente
ptimas, a diferencia de las soluciones localmente ptimas tpicas de los
mtodos deterministas. Ms adelante veremos un procedimiento estadstico
conocido como equilibrio termodinmico simulado.

Aplicaciones de las redes neuronales artificiales


Las RNA han sido aplicadas a un numero en aumento de problemas en la vida
real y de considerable complejidad, donde su mayor ventaja es en la solucin
de problemas que son bastante complejos para la tecnologa actual, tratndose
de problemas que no tienen una solucin algortmica o cuya solucin
algortmica es demasiado compleja para ser encontrada.
En general, debido a que son parecidas a las del cerebro humano, las RNA son
bien nombradas ya que son buenas para resolver problemas que el humano
puede resolver pero las computadoras no. Estos problemas incluyen el
reconocimiento de patrones y la prediccin del tiempo. De cualquier forma, el
humano tiene capacidad para el reconocimiento de patrones, pero la capacidad
de las redes neuronales no se ve afectada por la fatiga, condiciones de trabajo,
estado emocional, y compensaciones.
Desde el punto de vista de las aplicaciones prcticas de las RNA, su principal
ventaja frente a otras tcnicas reside en el procesado paralelo, adaptativo y no
lineal. Se han desarrollado aplicaciones de RNA para fines tan variados como

visin artificial, procesado de seales e imgenes, reconocimiento del habla y


de caracteres, sistemas expertos, anlisis de imgenes mdicas, control
remoto, control de robots, inspeccin industrial y exploracin cientfica.
Podramos clasificar todas estas aplicaciones en varios dominios o tipos de
aplicaciones, indicando adems el tipo de redes ms utilizados para cada
tarea:

Asociacin y clasificacin: heteroasociadores y redes competitivas


Regeneracin / reconstruccin de patrones: redes de satisfaccin de
demanda

Regresin y generalizacin: heteroasociadores

Optimizacin: heteroasociadores

La mayora de las aplicaciones comentadas aqu se han desarrollado mediante


asociadores de patrones y algoritmo de retropropagacin. Otras, como el
problema del viajante de comercio, el control adaptativo y la compresin de
imgenes, mediante redes de satisfaccin de demanda (redes de Hopfield), y
en algunas tareas de clasificacin se han usado redes competitivas.

Procesamiento de lenguaje natural


Conversin de texto escrito a lenguaje hablado

NETtalk (Sejnowski T. & Rosemberg.): toma como entradas textos escritos y


como salidas deseadas los cdigos elegidos para representar los fonemas
correspondientes. Mediante la ayuda de un sintetizador (DECtalk) se
transforman los cdigos en fonemas. Durante el proceso de aprendizaje se
observ como iba mejorando su habilidad desde un nivel de beb hasta el nivel
de un nio de 6 aos, aprendiendo a hacer distinciones difciles como
pronunciar una c suave o fuerte segn el contexto. Si bien esto se haba
conseguido antes, la novedad ms importante reside en que mediante la red
neuronal no es necesario definir y programar un montn de complejas reglas,
pues la red extrae automticamente el conocimiento necesario.
Aprendizaje de gramticas
(Rumelhart,D. & McClelland, J.) Estudiaron la forma en que construimos las
reglas sobre el lenguaje, y trataron de ensear a una red neuronal el pasado de
los verbos ingleses. El sistema fue mejorando y al final era capaz de
generalizar y conjugar verbos desconocidos.

Compresin de imgenes
(Cottrell, G.W. y otros) Han conseguido codificar imgenes con una relacin de
compresin de hasta 8:1 sin tener que idear ninguna regla y alta fidelidad en la
reconstruccin.

Reconocimiento de caracteres
Reconocimiento de escritura manual

Nestor, Inc => leen lo escrito mediante una tarjeta digitalizadora. Tras aprender,
son capaces de reconocer escrituras que nunca haban visto antes. Se ha
empleado por ejemplo para reconocer kanji (escritura japonesa), eliminando la
gran dificultad que presenta este lenguaje para introducirlo en el computador.
El Neocognitrn (Kunihiko Fukishima): simula la forma en que la informacin
visual avanza en la corteza cerebral. Consigue un reconocimiento muy
avanzado de patrones con gran capacidad de abstraccin y generalizacin,
que lo hacen capaz de reconocer patrones con distinta orientacin y altos
niveles de distorsin.

Problemas de combinatoria
Las redes neuronales artificiales estn ofreciendo ciertas esperanzas en el
rea de problemas algortmicamente tan complejos como los NP-completos; pe
el problema del viajante de comercio (Hopfield, J. & Tank, D.)

Reconocimiento de patrones en imgenes


Clasificacin de objetivos:

En este campo se han desarrollado numerosas aplicaciones como la


clasificacin de imgenes de sonar y radar, la deteccin de clulas cancerosas,
lesiones neurolgicas y cardacas, prospecciones geolgicas, etc.. Son muy
tiles para procesar imgenes de las que no se sabe bien cuales son las
caractersticas esenciales o diferenciales, ya que las redes no necesitan
disponer de reglas explcitas previas para realizar la clasificacin, sino que
extraen el conocimiento necesario.
Visin artificial en robots industriales

Pe para inspeccin de etiquetas, clasificacin de componentes, etc. Supera a


otros sistemas de visin , adems minimiza los requerimientos de operadores
y facilita el mantenimiento.

Proceso de seales
Prediccin

Se han obtenido mejores resultados a la hora de predecir series caticas


usando retropropagacin (Lapedes & Farber) que mediante mtodos lineales y
polinomiales.
Pe., la serie x(t+1)=4*x(t)*(1-x(t)) El entrenamiento de la red consiste en usar
como entradas varias muestras equi-espaciadas de la serie: x(t), x(t-d), x(t-2d)
x(t-nd) y como salida la salida cierto tiempo despus x(t +p)
Modelado de sistemas

Permite modelar funciones de transferencia (Lapedes & Farmer).


Pe., la funcin x(t) (dx/dt)2
Podemos usar como entradas x(t) y x(t-0.001) y como salida dx/dt. Entrenamos
a la red con muestras de una seal de banda limitada (pe una suma de 20
sinusoides), y despus se puede usar para formas de onda arbitrarias.

Filtro de ruido

Las redes neuronales artificiales son mejores preservando la estructura


profunda y el detalle que los filtros tradicionales cuando eliminan el ruido. La
primera aplicacin profesional de las redes neuronales consisti en un filtro
para eliminar ruido en las lneas telefnicas (Widrow, 1959)

Aplicaciones Relacionadas a la Medicina:


Como con toda investigacin cientfica, posee en primer lugar dos
orientaciones, la militar y la mdica.
En medicina los primeros en beneficiarse son los minusvlidos con deficiencias
o carencias motrices, quienes adems aportan al desarrollo de estas
tecnologas, por ser sujetos de prueba. Tanto las tecnologas que usan EMG,
como EOG han logrado ampliar las expectativas de estos pacientes, por ej.
Con EMG se observ que los impulsos elctricos procedentes de fibras
musculares activas, pueden manejar equipos electrnicos, con las seales
generadas por los msculos. Con EOG una nia con una grave lesin espinal
prob que poda mover el cursor de la pantalla de computadora a partir de
impulsos generados por sus ojos.
En otro sentido con el EOG permite que un cirujano cambie, moviendo los ojos,
el campo visual de una cmara de fibra ptica, y as poder tener las manos
ocupadas con instrumentos quirrgicos.
En el campo de las ondas cerebrales han experimentado con esta tecnologa
conectndola con un sintetizador musical.
Erich E. Sutter desarroll un sistema que permite a los discapacitados
seleccionar palabras o frases de un men formado por cuadros que destellan
en la pantalla de un ordenador. Sosteniendo durante uno o dos segundos la
mirada fija en el cuadro apropiado, una persona conectada por electrodos
craneales puede transmitir su eleccin por ordenador, constituyendo un
claro ejemplo del potencial evocado del cerebro (EP).
En el rea militar estn experimentando en pilotos de avin con seales EP,
siendo una herramienta til en el momento de tener manos y pies ocupados.

El Futuro:
Hasta ahora el control de un entorno electrnico o incluso uno
electromecnico, (ej. Manejar una silla de ruedas), ha sido utilizando un solo
tipo de seal, sea que provenga de un msculo, del ojo o de ondas cerebrales.

Tambin somos nosotros quienes debemos entrenarnos para controlar


nuestros impulsos y luego poder mover o ejecutar la accin deseada
Quiz el futuro se encuentre en sistemas que sean capaces de traducir muchos
y diferentes tipos de seales, y as poder "leer" lo que nosotros deseamos
hacer, dejando al sistema y no a nosotros, el trabajo de entrenarse.
En cuanto a las aplicaciones quiz se logren versiones comerciales para
manejar entornos informticos, y as a travs de los ordenadores controlar,
medios de transporte, electrodomsticos, equipos mdicos y militares, el
campo de aplicacin es enorme...

Los Implantes Que Salvan Vidas:


Los futurrologos norteamericanos dicen que dentro de un siglo la medicina
ser capaz no slo de reemplazar cualquier parte daada del cuerpo, sino que
podr sustituir, por medio de un chip implantado en el cerebro ciertos dficit de
la inteligencia para que todos los individuos estn a la altura del progreso
tcnico y cientfico del conjunto.
La electrnica ayuda ala medicina, se ha aliado con ella y ha inventado
implantes que podrn parar el mal de Parkinson o la epilepsia, as como
rganos artificiales que mejoran el modo de vida. Tambin permitir una
administracin precisa de los medicamentos, colocando minibombas en alguna
parte del cuerpo que proporcionarn las dosis adecuadas para cada paciente,
evitando los efectos secundarios.
El desarrollo de nuevos materiales permitir la aparicin de nuevos rganos
artificiales,
como
por
ejemplo
falsos
msculos
realizados
con materiales retrctiles u rganos hbridos compuestos, a la vez, por clulas
vivas y chips electrnicos.

Retina Artificial :
El ojo es una especie de burbuja vaca cuya pared interna, la retina, est
dotada de fotorreceptores que captan las imgenes y las transforman en
seales elctricas en direccin al nervio ptico. Si los oftalmlogos perciben,
mediante test, algunas respuestas elctricas, esto significa que el sistema
ocular funciona a pesar de las dificultades de visin de los pacientes. La
finalidad es captar los objetos exteriores con ayuda de una minicmara
con control de imagen y, despus, transplantar esta imagen elctrica sobre el
fondo de la retina. El chip electrnico que captara toda esa informacin sera
implantado en el interior del ojo y conectado con la retina con la ayuda de mil
electrodos. Los problemas de miniaturizacin pueden solventarse, pero los ms
complicados son los relacionados con la fragilidad de la retina. Los intentos
realizados en este sentido son los menos avanzados.

Los crtex, situados en la parte posterior de cada hemisferio cerebral, son los
responsables de eleborar la informacin que le proporciona el nervio ptico..
El Instituto de Organos Artificiales de Long Island, junto con la Universidad de
Estern de Canad han logrado implantar en el crtex de algunos pacientes una
diminuta reja de tefln provista de sesenta y cuatro electrodos de platino
conectados a una cmara de video y a un microordenador, que transforma en
seales numricas los impulsos analgicos de la cmara. As, lo que informa la
cmara se traduce en impulsos elctricos que son directamente transmitidos al
cerebro del paciente ciego.

Odo Artificial :
Cada sonido es una vibracin mecnica que pasa por el tmpano, y en el odo
interno se convierte en seales elctricas que son enviadas al nervio auditivo.
Esta transformacin elctrica es crucial, ya que el 93 porciento de las sorderas
estn ligadas a la destruccin del rgano de Corti, que es justamente el
transformador de nuestro odo.
Desde los aos cincuenta se sabe que un electrodo implantado en el odo
permite a la persona entender los sonidos, pero la gran dificultad estribaba en
transcribir con precisin todos los sonidos del mundo exterior. Segn la zona
estimulada, el nervio auditivo entiende un sonido agudo, grave o medio. La
solucin se dio con un dispositivo miniaturizado que convierte los sonidos
captados por un micrfono en impulsos elctricos, los cuales son enviados por
cables subcutneos a una antena adosada a la piel, cerca de la oreja. Otra
antena casi microscpica, disimulada en la piel del paciente, acta como
receptor de seales. La ltima fase del proceso se completa al activarse un
manojo de electrodos ( de 4 a 16 ) fijados previamente a la cclea, haciendo
una especie de puente sobre la va sensorial daada.
La tcnica, que es muy segura, tiene sus limitaciones, ya que los impulsos
elctricos slo pueden ser entendidos y decodificados por una persona que
alguna vez haya odo. Un sordo total de nacimiento sera incapaz de
"organizar" y entender lo que escucha.
El implante coclear es una microcomputadora que, situada en la parte ms
profunda del odo, reemplaza parcialmente al rgano.

Motricidad Asistida :

El profesor Israel Gideon Inbar, decano de la Facultad


de Ingeniera Elctrica, est investigando con xito la Inteligencia
Artificial de la locomocin. Consigui, fijando sensores en la pierna
de una voluntaria, fabricar seales nerviosas que pueden ser

vueltas a emitir por una computadoraactivando los msculos


atrofiados.

La "computadora mdica para caminar" de Inbar podra


monitorear la pierna constantemente y en consecuencia
proporcionar una informacin ininterrumpida al msculo por medio
de miles de seales elctricas estimulantes. De esta manera ,
ciertos pacientes inmovilizados podran movilizarse.

Los enfermos parapljicos y tetrapljicos podran beneficiarse


con las investigaciones que se estn realizando para que,
ayudados por bastones, vuelvan a caminar. Los que padecen esta
enfermedad estn afectados por una lesin en la mdula espinal.

Una de las soluciones, la ms prometedora, es reactivar los


msculos situados cerca de la lesin con una corriente elctrica. El
problema es que este mtodo requiere poner los electrodos en
cada utilizacin. La respuesta es implantar, en el interior del cuerpo,
una cajita electrnica capaz de enviar a los msculos la corriente
de estimulacin, ya sea por electrodos situados alrededor de los
nervios o de los fascculos (haz de nervios que tienen el mismo
origen y destino) representantes de una parte del tronco, o
mediante electrodos situados en los msculos. Todava llevaran
bastones para mantener el equilibrio, donde se situaran unos
botones que accionaran el dispositivo.

Los brazos binicos ya son una realidad, as tambin como lo


son los huesos y las articulaciones artificiales. En los Estados
Unidos ya hay 65.000 rodillas mecnicas, 110.000 caderas y
50.000 hombros. Una cadera artificial dura diez aos y una rodilla
algo menos por su gran desgaste, pero estas prtesis ya cuentan
con sistemas robticas para su implantacin. En Israel estn
perfeccionando un sistema de retroalimentacin continuo,
proveniente de los sensores implantados en los nervios del hombro
del miembro amputado, que produce una respuesta inmediata a la
comunicacin elctrica de un nervio, en la misma forma en que se
comporta el sistema nervioso. Eso permite que el brazo binico
(que encierra una minicomputadora) funcione suavemente, casi
como uno normal.
Minibomba Para Diabticos :
La diabetes consiste en la imposibilidad del pncreas de producir insulina,
hormona que permite al organismo utilizar su carburante : la glucosa que

circula por el cuerpo. Si no la fabrica, la taza de azcar en sangre se eleva y


puede provocar un coma mortal. La solucin es inyectarse insulina cada cierto
tiempo. Pero las inyecciones de insulina reproducen imperfectamente la
actividad del pncreas. En los aos ochenta se cre la bomba externa, un
aparato programable que se une al cuerpo por una aguja implantada en
la piel y permite difundir constantemente un caudal reducido de insulina.
Aunque el sistema pareca estar en su apogeo, dos investigadores
estadounidenses afinaron el aparato y crearon en 1989 la bomba implantable.
Consiste en un catter que, instalado en la cavidad peritoneal, cerca del
pncreas, difunde la insulina para que se absorba al instante y emita sus dosis
de forma muy precisa.

Mini Desfibrilador :
Entre los ataques al corazn, el ms peligroso es la fibrilacin ventricular. El
rgano, por efecto de una catica actividad, es incapaz de bombear sangre.
Slo hay un modo de parar lacrisis : sometiendo al corazn a una descarga
elctrica que consigue que su actividad reemprenda su curso natural, con un
ritmo regular. Desde los aos cincuenta, los servicios de reanimacin disponen
de desfibriladores que permiten enviar el shock que salva la vida. Pero el
problema reside en llegar al hospital a tiempo. Un cardilogo polaco ha ideado
un productorevolucionario : un desfibrilador implantable capaz de vigilar
permanentemente el ritmo cardaco y de enviar, a los primeros sntomas de
fibrilacin, una descarga de 700 u 800 voltios a travs del corazn.

Corazn Artificial :
Las virtudes del corazn artificial son conocidas por casi todo el mundo, ya se
ha odo hablar de la bomba de resina implantada y porttil, capaz de ayudar a
un rgano deficiente. Varias personas se han beneficiado con este sistema, el
Novacor, que por el momento es la solucin para los pacientes que esperan un
transplante.
Hasta ahora quienes llevaban un corazn artificial tenan enganchado a la
cintura un aparato que pesaba cinco kilos. El Novacor, en cambio, es un
diminuto controlador que se sita en el abdomen, cerca de la bomba, y la
energa es dispensada, no por un cable, sino directamente a travs de la piel.
Se basa en dos cinturones, uno exterior, dotado de batera, y otro interior,
cargado por el primero.
Este corazn ofrece la ventaja de que no es rechazado y de que se puede
implantar a cualquier edad.

Descargas Elctricas Contra La Epilepsia :

Hasta el momento, los medicamentos y la ciruga eran las nicas vas para
paliar la crisis epilpticas, pero algunos enfermos no responden a ninguno de
estos tratamientos.
Ahora ha aparecido un nuevo mtodo : la estimulacin elctrica del nervio
vago, que va desde el cerebro hasta el abdomen.
En 1938 dos profesores estadounidenses demostraron que los impulsos
elctricos influan en la actividad cerebral. Muchos equipos investigadores se
dieron cuenta de que la electricidadpoda apaciguar las crisis epilpticas. Dos
de ellos fundaron Cyberonics, una sociedad que fabrica simuladores elctricos
implantables.
Se trata de un generador que va situado en la clavcula y est unido a un
electrodo que los cirujanos fijan en el nervio vago.

Vivir Sin Dolor :


La idea de utilizar la estimulacin elctrica para atenuar el dolor viene de la
antigedad.
En 1972, el profesor Lazorthes, del hospital CHU, de Toulouse, implant
generadores elctricos provistos de un electrodo en el espacio epidural. Haba
nacido la electroestimulacin. La sensacin dolorosa es el resultado de la
excitacin de ciertas fibras nerviosas muy finas. La estimulacin elctrica trata
de restablecer el equilibrio tocando otras fibras que tienen un efecto inhibidor
sobre las primeras. Este implante surte efecto en pacientes
con problemas discales y en los casos de dolores ligados a miembros
fantasmas, es decir, en aquellas personas que dicen sentir dolor a pesar de
que se les ha amputado un miembro.

Otras aplicaciones
Modelado y prediccin de indicadores econmicos:
Se obtienen mejores resultados que con cualquier otro mtodo conocido (como
los programas de media mvil). Se ha aplicado por ejemplo a la prediccin de
tasas de inters, dficits comerciales, precios de stock, etc.

Servocontrol:
Compensacin adaptativa de variaciones fsicas en servomecanismos
complicados como el control de ngulos y posiciones de los brazos de un
robot.

Sntesis funcional:
Gracias a la naturaleza interpolativa de las redes neuronales son aptas para la
sntesis de funciones multidimensionales a partir de unos pocos ejemplos de
entrenamiento.
Por ejemplo, para estimar el alcance de un can en funcin de la inclinacin
del can, la velocidad del viento y la cantidad de explosivo.

Tecnologas usadas en computacin neuronal


Simuladores Software:
Si bien hemos hablado del procesamiento paralelo como una cualidad de las
redes neuronales artificiales; en la prctica se suele trabajar con
monoprocesadores, en ese caso no existe paralelismo real, pero como en la
mayora de las redes simuladas no se consideran conexiones intracapa, se
puede procesar secuencialmente haciendo los clculos para una capa, luego la
siguiente, etc.
Lo ms interesante es que la propia estructura y modo de operar de las redes
neuronales artificiales las hace especialmente interesantes y fciles de
implementar implementarlas sobre multiprocesadores, algo que puede resultar
bastante ms complicado cuando se trata de adaptar algoritmos tradicionales
sobre dichas mquinas.
Conociendo los fundamentos y los algoritmos de aprendizaje de las redes
neuronales artificiales y un poco de programacin, es fcil desarrollar
programas especficos para simular una red concreta en cualquier lenguaje de
programacin (ver Apndice C: Documentacin de los programas en C
adjuntos).
Para uso general y profesional resultan muy tiles los paquetes con interfaces
grficas avanzadas (se incluye una versin demostracin de una aplicacin
para Windows sobre PC)

Otra tendencia es el desarrollo de libreras para C++ (se incluye una en el SW)
o
paquetes
matemticos como
MATLAB

MATHEMATICA; son
recomendables con fines de investigacin o acadmicos por ser muy flexibles
para desarrollar o modificar algoritmos, son bastante potentes y no
excesivamente caros.
Un sistema de programacin de procesos paralelos especficamente
desarrollado para simular redes neuronales es P3 (Zipser, D.). Es un sistema
modular que funciona slo sobre una mquina Symbolics 3600 en LISP. Consta
de 5 componentes, el computacional (unidades de proceso elementales), un
lenguaje de planificacin (establece las conexiones), un lenguaje de mtodos
(indica el comportamiento de las unidades de proceso), un constructor
(transforma los mtodos y el plan de conexiones en un programa ejecutable), y
un entorno de simulacin, para observar y verificar el funcionamiento de las
redes.

Aceleradores Hardware:
Son tarjetas que se conectan como perifricos y dan soporte hardware para
emular unidades de proceso elementales virtuales y sus interconexiones.
Suelen incluir software especfico para su programacin. Consiguen gran
aceleracin a pesar de compartir y multiplexar recursos, es decir, que no
ofrecen proceso paralelo real.

Mark III y Mark IV (Hecht-Nielsen, R.) pueden simular hasta


8.100 unidades de proceso y 417.000 conexiones. Son
perifricos para mquinas VAX, logran aceleraciones cercanas a
30x.
NEP, Network Emulation Processor(Cruz-Young, C.). Tiene la
ventaja de permitir la conexin en cascada de varias emuladores
para conseguir redes de gran tamao. Hasta 20 o 30
actualizaciones por segundo en una red grande. Conectable a un
compatible PC.
ANZA y ANZA Plus (Hetch-Nielsen Neuro-Computing
Corporation). La tarjeta ANZA combina un procesador Motorola
60820 y un co-procesador de coma flotante (el 68881), consigue
computar 45.000 conexiones por segundo; ANZA plus llega
hasta 1.500.000 de conexiones por segundo.el chip
Delta-II Floating Point Processor (SAIC, Scientifics Applications
International Inc) . Usa tecnologa especial de coma flotante para

conseguir tasas de actualizacin de hasta 11.000.000 millones


de interconexiones por segundo. Adems permite la conexin en
cascada de varios mdulos. Incluye un amplio Software y
herramientas de soporte: ensamblador, compilador C, y un
lenguaje especfico orientado a objetos para la especificacin de
RNA.

Chips de silicio (neurocomputadores):


La propia naturaleza paralela de la computacin neuronal ha llevado al
desarrollo de mquinas especficas para su implementacin: el ideal sera
disponer de un procesador elemental para simular cada unidad de proceso y
de conexiones fsicas independientes que implementaran las conexiones
ponderadas, todo mediante dispositivos Hardware; con lo cual, y dada la
naturaleza paralela de este tipo de computacin, se pueden conseguir
velocidades de proceso extremadamente altas. Las tecnologas VLSI lo estn
haciendo posible.

ENN, Electronic Neural Network(AT&T) : contiene 256 neurotransistores y ms de 100.000 sinapto-resistores. El problema es
que las conexiones quedan fijadas durante la construccin, luego
el aprendizaje de la red debe realizarse previamente con una
mquina convencional. Se est trabajando para conseguir
conexiones modificables. Se est usando para comprimir imagen
de vdeo y transportarlo sobre lnea telefnica en tiempo real.
Otros chips en desarrollo: Silicon Retina y Silicon Ear (Mead, C.),
como sus nombres indican est pensados para simular procesos
de visin y odo respectivamente.

Procesadores pticos:

La tecnologa ptica es muy interesante porque ofrece unas caractersticas


muy deseables para la computacin neuronal: Los procesadores pticos se
componen de muchos procesadores elementales y modo de operacin
inherente paralelo.
La tecnologa ptica ofrece las siguientes ventajas:

El uso de la luz permite tener muchos canales muy juntos uno


de otro sin producir interferencias, como sucede con los cables
elctricos.
Permite conexiones mucho ms pequeas que con los cables
elctricos, con una densidad 4 veces mayor.
Un rayo de luz puede atravesar a otro sin producir
interferencias.

Actualmente se trabaja en varias reas dentro del procesamiento ptico


(spatial light modulators, integrated opto-electronics, non-linear optical
switches, phase-conjugate resonators).

Conclusiones

El nacimiento de la Inteligencia Artificial se sita en los aos cincuenta; en esa


fecha la informtica apenas se haba desarrollado, y ya se planteaba la
posibilidad de disear mquinas inteligentes. Hoy en da se habla de vida
artificial, algoritmos genticos, computacin molecular o redes neuronales. En

algunas de estas ramas los resultados tericos van muy por encima de las
realizaciones prcticas.
Las redes neuronales artificiales son eficientes en tareas tales como el
reconocimiento de patrones, problemas de optimizacin o clasificacin.
Las redes neuronales se puede integrar en un sistema de ayuda a la toma de
decisiones, pero no son una panacea capaz de resolver todos los problemas:
todo lo contrario, son modelos muy especializados que pueden aplicarse en
dominios muy concretos.

BIBLIOGRAFA

Sierra, G.; Bonson, E.; Nunez, C. y Orta, M. (1995): Sistemas Expertos en


Contabilidad y Administracin de Empresas, Ed ra-ma, Madrid, 1995.
Serrano, C. y Martn del Bro, B. (1993): "Prediccin de la crisis bancaria
mediante el empleo de redes neuronales artificiales", Revista Espaola de
Financiacin y Contabilidad, vol XXII, n 74, pag 153-176.
Snchez Toms, A. (1991): "Sistemas Expertos en Contabilidad", Tcnica
Contable, n 514, octubre 1991, pag 534-545.
Fortuna, J.M.; Busto, B. y Sastre, J.M. (1991): "Los Sistemas Expertos:
fundamentos y aplicaciones a la Contabilidad", Partida Doble n17, noviembre
1991, pag 40-46.
Hinton, G.E. (1992) Redes neuronales que
experiencia. Investigacin y ciencia, noviembre, 1992

aprenden

Perazzo, R. (1991) Redes artificiales y modelos


cerebral. Ciencia Hoy, 3-13, mayo/junio 1991, pp 43-54

del

de

la

funcionamiento

Prez, JC. Modelos conexionistas. Universidad de Valencia (indito)


Pitarque, A., Ruiz, J.C. y Algarabel, S. Una introduccin a los principales
tipos de arquitectura conexionista. Universidad de Valencia (indito)
PIOL R. (1989-2002) "Mtodos estadsticos aplicados a la valuacin de bienes
inmuebles". SOITAVE. Caracas.
PITARQUE A., ROY J. y RUIZ J (1998) "Redes neurales vs. Modelos
estadsticos: Simulaciones sobre tareas de prediccin y clasificacin".
Univesitat de Valencia. Espaa.
VARIOS AUTORES (2000) "Redes neurales artificiales". TREC Internet.
Acceso: http://electronica.com.mx/neural
VON DER BECKE C. (1998) "Glosario de Carlos Von der Becke". Acceso:
http://www.argenet.co.ar/~vo/rumellhrt.html
Buscadores y Portales de Internet

Vous aimerez peut-être aussi