Vous êtes sur la page 1sur 5

Los cerebros parecen tener una estructura física y computacional completamente

diferente de las típicas máquinas de calcular, una estructura que permite


simultáneamente miles de millones de cálculos simples. Como cada uno de ellos es muy
simple, es realizado por solo una de las miles de millones de células distintas que
contiene el cerebro y se efectúa todo de modo tal que el resultado de salida colectivo
representa la solución terminada del problema presentado. Este estilo diferente de
procesamiento de datos se denomina procesamiento en paralelo, en contraste con el
procesamiento en serie que efectúan las máquinas de calcular corrientes. Proporciona
una enorme ventaja en la velocidad con que pueden resolverse algunas clases de
problemas computacionales intensivos. Capacidad de generalizar el conocimiento
adquirido a nuevas adquisiciones.

Los vectores de estimulación son un medio perfectamente eficaz para representar cosas
tan diversas como sabores, rostros y complicadas posiciones de las extremidades. Si el
cerebro utiliza vectores para codificar diversas entradas sensoriales y también diversas
salidas motoras, entonces en algún lugar debe estar efectuando cálculos para que las
entradas de algún modo estén guiando o produciendo las salidas.

Peso: lo que determina la naturaleza de toda la transformación es la distribución de los


tamaños entre las diversas conexiones sinápticas. Estas fuerzas de conexión se
denominan pesos. Si especificamos la distribución de los pesos sinápticos en un
sistema de esta clase, habremos especificado el carácter de la transformación que
realizará sobre cualquier vector entrante.

Cerebelo: como está formado por miles de millones de conexiones sinápticas, cada una
de las cuales contribuye solo en una muy pequeña porción de la transformación total ed
los vectores, la pérdida de unos pocos miles de conexiones aquí y allá no cambiará la
conducta global de la red. Incluso puede perder millones de conexiones mientras estén
dispersas aleatoriamente por la red. Estas redes son funcionalmente modificables. Son
plásticas. Pueden cambiar sus propiedades de transformación simplemente cambiando
algunos o todos sus pesos sinápticos. Es un hecho importante, ya que el sistema debe
poder aprender a producir movimientos coordinados en primer lugar, y luego
reaprender continuamente, a medida que el tamaño y la masa de las extremidades
cambian lentamente con la edad.

Las nuevas redes neuronales tienen una o más capas de unidades “ocultas” que
intervienen entre los niveles de entrada y de salida, mientras que las primeras
solamente tenían una capa de entrada y de salida. La ventaja de la capa intermedia es
que, dentro de ella, el sistema puede analizar estímulos posibles que no están
explícitamente representados en los vectores de entrada. Esto permite al sistema
teorizar.

Regla delta generalizada: regla de aprendizaje muy poderosa, pues permite que una red
analice el espacio vectorial de sus unidades ocultas y encuentre transformaciones
efectivas de toda clase posible. Permite que una gran red encuentre un complejo
conjunto de pesos que nunca podríamos haber identificado como correctos con
anticipación.

Estos elementos de la cognición tienen un carácter desconocido para el sentido común.


La inteligencia consciente es un fenómeno completamente natural. Es la activiad de
una materia organizada adecuadamente y la sofisticada organización responsable de
ello, en este planeta por lo menos, es el resultado de miles de millones de años de
evolución química, biológica y neurofisiológica. Definición de inteligencia cruda:
posesión de un conjunto complejo de respuestas apropiadas al medio ambiente. Mejor
definición: un sistema tiene inteligencia solo en el caso dde que aproveche la
información que ya tiene y el flujo energético que lo atraviesa( esto incluye el flujo de
energía a través de sus órganos de los sentidos) de modo tal que incrementa la
informaci´´on que contiene. Dicho sistema puede aprender y ése parece ser el
elemento central de la inteligencia.
APUNTES

Comenzamos construyendo una red que juzga la verdad o falsedad de las 16


proposiciones de la figura 9.3. La red era una típica red de alimentación avanzada
compuesta por 16 unidades de entrada, cuatro unidades ocultas y una unidad de salida
(figura 9.4). El código input de cada proposición es mostrado en la columna central de
la 9.3. Outputs cerca del 1 son interpretados como true y cerca del 0 como falsos. La
propagación de retorno, un algoritmo de aprendizaje de conexión familiar, se utilizó
para "entrenar" la red, estableciendo así los pesos y sesgos de conexión. El
entrenamiento se terminó cuando la red dio consistentemente un resultado superior a .9
para cada proposición verdadera y menos de 0.1 para cada proposición falsa. La figura
9.5 muestra los pesos de la conexión entre las unidades input y la neurona oculta de la
izquierda junto con el valor de ese nodo. La figura 9.6 indica los pesos de las
conexiones y los valores de las neuronas de más arriba. Figure 9.7 muestra el modo en
que la red computa su respuesta para la proposición dogs have fur cuando esta
proposición es codificada en las neuronas input.

Hay un sentido claro en el que se puede decir que la red "A" entrenada almacena
información sobre la verdad o falsedad de las proposiciones 1-16, ya que cuando
cualquiera de estas proposiciones se presenta a la red juzga correctamente si la
proposición es verdadero o falso. A este respecto esto es similar a varios modelos de
redes semánticas que pueden ser construidas para hacer la misma tarea. Hay una
diferencia sorprendente entre la red A y la red semántica de la figura 9.1. En la red
semántica hay una sub-parte funcionalmente distinta asociada a cada proposición, y por
lo tanto es factible preguntar, para cada prueba de la red, si la representación de una
proposición en la red juega un rol causal o no. En la red conexionista, en cambio, no
hay un estado o parte distinta que sirva para representar una proposición en particular.
La información codificada en la red A es almacenada holísticamente y distribuida por
toda la red. Cuando sea que la información es extraída de la red A, dando un string de
entrada y viendo si computa unn valor alto o bajo para el nodo output, muchos pesos,
muchos valores y muchos nodos ocultos juegan un rol causal en la computación. Cada
peso particular o nodo nos ayudará a codificar información sobre muchas proposiciones
diferentes. No tiene sentido preguntarse si la representación de una proposición
particular juega un rol causal en la computación de la red. Es por ello que nuestro
modelo conexionista de la memoria parece radicalmente incongruente con la
modularidad proposicional de la FP. La FP parece presuponer que hau alguna respuesta
general a la pregunta de si una creencia particular o recuerdo juega un rol causal en un
episodio cognitivo específico. Pero si la creencia y el recuerdo están apoyados por una
red conexionsita comom la nuestra, estas cuestiones no parecen tener un sentido claro.
(citar los dos últimos puntos.)

La incompatibilidad entre la modularidad proposicional y modelos como el nuestro se


hace más vívida contrastando la red A con una segunda red, la red B (figura 9.8 y 9.9).
La red B fue entrenada igual que la red A, excepto que una proposición adicional fue
añadida al conjunto entrenado (codificada como en la figura 9.3). Así, la red B codifica
las mismas proposiciones que la red A más una más. En los modelos de red semánticos,
y otros modelos cognitivos adicionales, sería una tarea fácil decir qué estados o rasgos
del sistema codifican la proposición añadida, y sería una tarea fácil determinar si la
representación de la proposición añadida juega un papel causal en un episodio particular
moldeado por el sistema. Pero claramente estas cuestiones no tienen sentido en la red
conexionista. Las diferencias entre la red A y la B son muchas y extensas. Pero estas
diferencias no se correlacionan de ninguna forma sistemática con los estados
funcionalmente discretos y semánticamente interpretables postulados por la FP y por
otros modelos cognitivos tradicionales. Puesto que la información es codificada de una
manera altamente distribuida, donde cada peso de conexión y cada valor que incorporan
información relevante para muchas proposiciones, y la información con respecto a
cualquier proposición dada diseminada por la red, el sistema carece de subsistemas
identificables funcionalmente distintos que son semánticamente interpretables como
representaciones de proposiciones individuales.

El contraste entre la red A y la red B nos permite hablar de la incompatibilidad entre la


FP y este tipo de modelos conexionistas.