Vous êtes sur la page 1sur 15

TEMA 1: LAS RAÍCES HISTÓRICAS

Kant es el responsable de la gran teoría epistemológica en la Filosofía. Se intentaba fundir el racionalismo y el


empirismo en un gran marco integrador. Pero el modelo kantiano no ha llegado a causar ningún impacto en la
psicología del conocimiento y memoria.
Se ha rechazado el modelo kantiano por su negativa explícita a aceptar la posibilidad de una ciencia de la
Psicología. Para Kant, la ciencia consistía en formalizar matemáticamente datos de experimentos. El problema
que tenía con la psicología era que su objeto era la actividad mental y esto es intangible porque la actividad
mental se desplegaba en el tiempo, pero no en el espacio, por lo tanto, no son equiparables a la realidad física.
Por eso, Kant decía que es imposible hacer experimentos psicológicos con los que sacar datos que se puedan
analizar. Kant ha hecho daño a la Psicología que se ha prolongado hasta la actualidad. Como la resistencia a
admitir que se pueda estudiar la actividad mental al margen de la neuronal. Porque la actividad neuronal si se
puede desplegar en tiempo y espacio. Pero esta forma de pensar aparentemente materialista desemboca en una
concepción idealista, porque actualmente, la investigación neurofisiológica no nos ayuda mucho a comprender el
funcionamiento de la mente.
Las ciencias naturales se desprendieron del tronco común de la filosofía porque consolidaron un método de
descubrimiento y falsación superior al método especulativo de la filosofía. La psicología, en esa primera época,
debía responder al reto de Kant y mostrar que a aplicación del método era apropiada a su objeto si quería
constituirse como ciencia.

El idealismo alemán sucesivo mantuvo una posición semejante. Menos algunos filósofos, como HERBART: su
estrategia para salvar a la psicología consiste en soslayar el problema de la aplicación del método experimental
para pasar a formular una matemática de la mente. Herbart pretendió describir la interacción matemática de las
ideas en la mente. Así rompe el maleficio de Kant, pero era imposible hacer todo esto visible a los demás,
hacerlo empírico.

FECHNER (seguidor de Herbart), emprendió una investigación sistemática en psicología experimental. Pero
Fechner tuvo que reducir la problemática de la psicología a procesos sensoriales elementales. Los métodos de
Fechner serían ampliados por Wundt para abarcar algo más que sensaciones para que pudieran ser utilizables
en su psicología experimental d ela conciencia. Pero el sistema de Wundt descansaba en un método
introspectivo.

Hay una aportación de los empiristas británicos, que mantuvieron la propuesta de Aristóteles sobre las tres leyes
que determinaban la formación de asociaciones, son la de contigüidad, semejanza y contraste. Según ellos, la
fundamental es la de contigüidad.

HILGARD Y BOWER. Cuatro rasgos definitorios:


- Sensorialismo: todo conocimiento prodece de la experiencia sensorial.
- Reduccionismo: las ideas complejas se forman a partir de ideas simples, son reducibles.
- Asociacionismo o conexionismo: las ideas se conectan por la acción de asociaciones que se forman por su
contigüidad en la experiencia.
- Mecanicismo: la mente era como una máquina compuesta de elementos simples.
Pero no todos los empiristas comparten estas teorías al cien por cien. Según STUART MILL: lo mismo que los
compuestos químicos como el agua, tienen propiedades diferentes de sus elementos integrantes, la fusión de los
elementos sensoriales crea nuevas entidades mentales que son más que la suma de sus partes. Este análisis
explica cómo ésta es el resultado de la actividad mental del sujeto. El valor del enfoque reside en que muestra
cómo el asociacionismo no tiene por qué desembocar en la idea de que la mente y memoria son algo pasivo. El
marco puede dar cobijo a teorías que contemplen que la memoria es un sistema activo.
Pero entre los asociacionistas había un nexo común de unión, este es el carácter empirista de su metodología.
Su estrategía consiste en valerse de los datos de los que se dispone inmediatamente.

RESUMIENDO: desde la perspectiva de la memoria y aprendizaje se retienen dos ideas:


- La Psicología en su inicio únicamente podía alcanzar su estatus científico si lograba valerse del método
experimenta, pero su uso obliga a reducir el alcance de su objeto en detrimento de los procesos superiores. Sólo
con el uso adicional del método introspectivo se puede incorporar la investigación sobre la memoria y el
aprendizaje a la psicología. Pero para que esto funcione, se debe usar un método que es casi impracticable.
- El único marco posible de referencia teórico de cierta utilidad para construir teorías que pudieran ser falsables
experimentalmente parecía ser el asociacionismo.
1.1. La aportación metodológica de Ebbinghaus.

Hizo la primera aproximación científica al tema de la memoria y el aprendizaje, llevó a cabo una investigación en
la que intentó valerse de los métodos que FECHNER aplicó, para estudiar los fenómenos de retención del
aprendizaje. Ebbinghaus era consciente de la dificultad de la tarea que quería abordar. Porque era necesario
mantener un control sobre muchos factores que son cambiantes, y además debería resolver el problema de la
medición de los fenómenos mentales, que se disipan con facilidad.
Ebbinghaus propone una solución. Con 4 ejes:
- Debía neutralizar el aprendizaje individual producido antes de cualquier experimento psicológico,
porque en su tiempo no se podía controlar el conocimiento previo. Por eso decidió usar las
sílabas sin sentido, intentando así eliminar relaciones, etc. Así aislaba los mecanismos
elementales que dan lugar a la formación de asociaciones.
- También intentó combatir cualquier fuente de contaminación experimenta. Por eso se usaba como
sujeto. Sus sílabas eran CVC y las distribuía en listas que leía en alto. Se pasaba las pruebas a la
misma hora. Intentaba eludir reglas mnemotécnicas y asociaciones sugeridas por las sílabas.
- Ideó un procedimiento básico: APRENDIZAJE SERiAL (retener una lista de ítems en el mismo
orden en el que van apareciendo). Para él, la ejecución de estas pruebas refleja hasta qué punto
se han asociado las sílabas. Pensó que el mejor método para cuantificar el aprendizaje era
establecer el nº de veces que necesitaba leer la lista para reproducirla sin errores.
- Se enfrentó al problema de medir la VD (el grado de retención/aprendizaje), para ello introdujo el
MÉTODO DE LOS AHORROS (contar los ensayos para reaprender una lista después de un
tiempo y compararlos con los ensayos requeridos para el aprendizaje original). Comprobó que
tenía que repetir menos veces que en el aprendizaje original, se produjo un ahorro de
repeticiones. Estudios posteriores usan esta técnica.

Ebbinghaus observó que se podía aprender una lista de hasta siete sílabas en un ensayo, pero cuando se
superaba esa cifra, se tenía que leer la lista varias veces para aprenderla del todo. Esto demuestra la existencia
de una MCP o de trabajo. Las personas están dotadas para aprender y mantener aquello que nos permite la
capacidad de nuestra MCP (6 o7 items).
Investigó el curso del OLVIDO. Intentando explicar cuánto tardamos en olvidarnos de algo y en qué medida
vamos olvidándolo. Se aprendía listas y una vez transcurrido un tiempo (intervalo de retención), intentaba
recordarla. En el primer intento no recordaba toda la lista (había olvido), la leía otra vez las veces necesarias
para recordarla perfectamente. Para medir la cantidad de olvido usaba el método de los ahorros, anotando hasta
qué punto tenía que leer la lista menos veces que en aprendizaje inicial. Con estos datos construye la CURVA
CLÁSICA DEL OLVIDO. Cuanto más tiempo transcurre desde el aprendizaje inicial, mayor es el olvido. Descubre
que el mejor modo de olvidar algo es aprender a corto plazo (estrategia estudiantil de estudiar dos días antes).

Más tarde se demuestra que se pueden obtener curvas del olvido diferentes. Ebbinghaus se adelanta a su
tiempo formulando 3 interpretaciones del olvido:
-Tª DE LA INTERFERENCIA (unas huellas de memoria se solapan con otras produciendo una superposición
que imposibilita su recuperación.
-Tª DEL DECAIMIENTO (explica la disipación de una huella que se degrada con el tiempo)
-Tª DE LA FRAGMENTACIÓN (las huellas tienen componentes que se van borrando uno tras otro)

De este trabajo se derivan tres consecuencias para el tratamiento científico de la memoria.


-Sus análisis fueron moleculares, no resolvía cuestiones globales, sino aspectos elementales de la memoria.
-El trabajo de Ebbinghaus fue una aplicación del asociacionismo a la experimentación de laboratorio.
-Su enfoque trajo una desintegración de la adquisición del cto. respecto a la memoria. Eb. desatendió los
aspectos que mejor califican los procesos de aprendizaje humano. Se puede afirmar el divorcio entre cto. y
memoria y entre aprendizaje y memoria.

Ebbinghaus mostró que la memoria podía ser objeto de estudio experimental, pero sus resultados no se podían
aplicar a la realidad natural. Ebbinghaus partía de una concepción vulgar de la memoria que la reduce a un
aspecto parcial al que más se llamará MEMORIA EPISÓDICA (consiste en el recuerdo de episodios singulares y
concretos). Circunscribir la memoria a la mem. Episódica tiene consecuencias negativas. El estudio de las
actividades mentales estaba vedado en la época, y no se podía abordar la relación entre estas y la memoria o el
aprendizaje. Además, las operaciones que hacen las personas dependen del cto. que dispongan y Ebb. trataba
impedir la acción del cto. previo.
1.2. El enfoque molar de Bartlett.

Fue el primero en señalar que al impedir la acción del sdo. y el uso de reglas se enmascaran los aspectos
esenciales del funcionamiento de la memoria humana. Lo que le caracteriza según él es el esfuerzo en pos del
sdo. Cuando en un experimento los sujetos intentan aprenderse sílabas, hacen operaciones de codificación.
Barlett hizo experimentos. Hacía que sus sujetos aprendieran historias derivadas de leyendas de otras culturas.
Cuando se les decía que recordaran, no eran capaces de reproducir bien las historias, cometiendo errores
sistemáticos. Barlett empleaba el método de REPROD.SERIAL. Imitaba lo que ocurre cuando una persona le
cuenta una cosa a otra, y esta a otra tercera, etc.(Memoria colectiva), que no es un proceso psicológico. Se
producen distorsiones con respecto al relato inicial. La naturaleza de las distorsiones se producen por: omisiones
de aspectos que no encajan en el cto. previo de los sujetos, hay datos introducidos de la cosecha de los sujetos,
hay detalles que se transforman. Barlett acude a la idea de ESQUEMA para explicar los hallazgos. Sus
resultados pueban que el sistema de la memoria humana usa estructuras cognitivas abstractas o esquemas que
se originan a partir de las experiencias previas de un individuo. Al intentar aprender una historia, los sujetos
acomodan la nueva información a sus esquemas, así que cuanto mayor es la discrepancia entre estos dos
conjuntos, mayor es el número de distorsiones. Demostrar la existencia de esquemas implica que el sujeto deja
de ser pasivo, es un activo transformador de la información. Barlett no puede ser considerado psicólogo
cognitivo, porque no tenía los instrumentos intelectuales y metodológicos de la psicología cognitiva. Y tampoco
nos podemos limitar a afirmar que las personas tenemos esquemas, sino que hay que definir cómo son esas
estructuras de conocimiento.
El factor cto. previo es decisivo en los procesos de aprendizaje y memoria. Pero no se puede abordar el estudio
de esto con la idea de esquema. El método de la repr. serial no permite obtener datos cuantitativos rigurosos.
Barlett no ejerció influencia alguna como consecuencia de sus deficiencias metodológicas. Pero a mediados de
los años 60 se aprecia su trabajo. La noción de esquema se tomó como alternativa al asociacionismo. Los
esquemas han podido entenderse como redes asociacionistas.

TEMA 3: EL APRENDIZAJE Y LA MEMORIA EN EL APRENDIZAJE VERBAL.

Un cambio en el marco como consecuencia de los datos experimentales que fueron recabándose.

3.1. El campo del aprendizaje verbal:


En las primeras décadas del siglo XX, el empeño se vuelca en experimentar con animales. Pero un pequeño
grupo exploraba la memoria con humanos. El trabajo de Ebbinghaus ejerció mucha influencia.
La psicología conductista del aprendizaje no debe identificarse con la psicología del aprendizaje verbal. La
influencia del funcionalismo americano se dejaba sentir más en el aprendizaje verbal que en el conductismo. Los
estudiosos del aprendizaje verba se daban por satisfechos si sus experimentos daban lugar a nuevos
experimentos. Los teóricos del aprendizaje estaban intentando hallar en la conducta de los animales leyes
universales, que pudieran ser extrapoladas a las personas. La elección de animales se debía a razones
metodológicas. También se quería eludir la acción del conocimiento en dichos procesos. Las investigaciones con
sujetos humanos eran aceptadas porque versaban sobre la memoria, pero también porque tenían una
metodología (tomada de Ebbinghaus) que satisfacía las exigencias del neopositivismo lógico en boga.
Los teóricos conductistas del aprendizaje eludieron el tratamiento de las cuestiones relacionadas con la
memoria, porque su interés se centraba en la adquisición y no en la retención de nuevas conductas. Vd: cambio
en la conducta indicativo del aprendizaje, sería el objetivo de su investigación.
A veces no era posible eludir la existencia de factores mnemónicos en la explicación de datos de experimentos
animales. Entonces se acudía a alguna versión de la Tª de la interferencia (en dnd todo aprendizaje era
recuperable siempre y cuando no se solapara con otro aprendizaje semejante). Así, la retención y el olvido
quedan reducidos a efectos secundarios derivados de las leyes del aprendizaje.
Mientras que los psicólogos del aprendizaje animal ignoraban los planteamientos del campo, los ps. del
aprendizaje verbal se esforzaban por incorporar el sistema conceptual propio de la ps. del aprendizaje. Así,
cumplían dos objetivos: por un lado accedían a la corriente preponderante que giraba en torno a la ps. del
aprendizaje, y por otro se proveían de la teoría de la que carecían dado el carácter funcionalista de sus
investigaciones. El objeto de la disciplina del aprendizaje verbal seguía siendo la retención y no el aprendizaje.
Es difícil decidir si el aprendizaje verbal trataba sólo de la memoria o del aprendizaje y memoria, porque en
ausencia de un modelo, los fenómenos de retención siempre pueden ser interpretados en términos de
aprendizaje.
Autores como JUNG afirman: “El apr. Verbal trata de la adquisición, retención y transferencia de las asociaciones
de unidades verbales que se forman en situaciones de laboratorio controladas”. Se le da poca atención al
problema de la adquisición.

3.2. Relaciones entre aprendizaje y memoria en la etapa del aprendizaje verbal.


En el paradigma pares asociados los sujeto estudian pares de ítems verbales hasta que son capaces de nombrar
el segundo miembro de cada par al aparecer el primero. Una de las alternativas metodológicas más empleadas
consistía en presentar en la ventanilla de un tambor de memoria el primer miembro del par durante un intervalo
(de anticipación). Transcurrido este intervalo aparecían conjuntamente los dos miembros durante otro periodo de
tiempo (intervalo de estudio). En la prueba de memoria posterior se presentaba el primer miembro y el sujeto
tenía que recordar el segundo. El primer y segundo miembro del par se conceptualizaban como un estímulo y
una respuesta a asociar por los sujetos. Se suponía que el aprendizaje de la asociación tenía lugar al actuar un
mecanismo de reforzamiento consistente en la presentación al final del intervalo de anticipación del par correcto.
La debilidad de este análisis demostraron que tras evocar el sujeto una respuesta en el intervalo de anticipación,
la aparición de la respuesta correcta al comienzo del intervalo de estudio inhibe el aprendizaje en algunas
condiciones.
La obstinación en mantener el modelo del condicionamiento obligó a postular procesos de aprendizaje
interpuestos que se suman al proceso original de asociación E-R. GIBSON señala la importancia de los procesos
de generalización y discriminación del estímulo. HOVLAND Y KURTZ descubren que los sujetos aprenden
acerca de las respuestas. Este hallazgo marca un cambio. Frente a las sílabas sin sentido, se usaron palabras.
Como las palabras son conocidas por los sujetos, estos sólo tienen que aprender que una palabra es de un
conjunto de respuestas. El material sin sentido se considera ahora que introduce factores contaminantes al
obligar al a ejecución de procesos idiosincráticos de integración de la respuesta.

MCGUIRE. Tª DE LOS 3 PROCESOS. Se recuperaba el aprendizaje acerca del estímulo de Gibson, pero dicho
aprendizaje llevaba consigo la formación de una asociación entre cada estímulo y tiene una respuesta mediadora
producida por ese mismo estímulo. La existencia de tres procesos fue aceptada durante un tiempo, pero tras
experimentos, condujeron a añadir procesos, hasta 10 (BATTING).
BATTING “La suma de todos los procesos de aprendizaje en pares asociados no puede explicarse a los
principios E-R disponibles actualmente”. Los análisis E-R se extendieron al resto de paradigmas experimentales.
En el apr. serial los sujetos tenían que ordenar la aparición de las palabras de una lista además de recordarlas.
La aplicación de esquemas del condicionamiento al aprendizaje tropieza con obstáculos.
En el aprendizaje serial se formaba una asociación entre cada ítem y el posterior se asociaba con los restantes
dependiendo de la lejanía entre ambos. Esta es la HIPÓTESIS DEL ENCADENAMIENTO. Se propuso la
posibilidad de que el estímulo funcional fuera la posición del ítem en la lista, de forma que cada ítem se asociaría
con su posición serial.

Había dos candidatos para el estímulo funcional: el ítem precedente o la posición serial.
Para decidir la correcta explicación se emprenden muchos estudios, pero no se pudo establecer la correcta.
Se fue consolidando la idea de que la cuestión del estímulo funcional era un falso problema. BATTING Y YOUNG
hacen que los sujetos aprendan 2 listas seriales relacionadas de diferentes modos, y comprobaron que sus
sujetos recordaban las listas usando una estrategia, y generan reglas para relacionar una lista con la otra.
POSNANSKY, BATTING Y VOSS demuestran que dar información de la posición de un item era igualmente
efectivo como clave que darla acerca del ítem precedente, aunque las claves posición son más válidas para los
últimos ítems. Los procesos de codificación de los ítems centrales son más complejos, porque los sujetos no
empleaban ninguna clave para éstos.

Se recurría ala tª del condicionamiento para interpretar el OLVIDO. Se pensaba que su causa era el desuso que
daba lugar al decaimiento de la huella. Y ello había sido demostrado ya por Muller y Pilzeker. Hay nuevos
hallazgos según los cuales el olvido disminuye si los sujetos duermen durante el intervalo de retención. Y esto
lleva a MCGEOCH a rechazar el desuso a favor de la inhibición retroactiva (influencia negativa que un aprend.
posterior ejerce sobre otro anterior) y la tª de la interferencia. El efecto de la in. proactiva (influencia negativa que
un aprendizaje anterior ejerce sobre uno posterior) fue detectado e incorporado al olvido más tarde.
Se convino que la estrategia para explicar el olvido es usando el concepto de INTERFERENCIA (se produce
como consecuencia de la competencia entre respuestas a un mismo estímulo).
Surge la tª de los dos factores de la interferencia (se mantiene la idea de la competencia entre respuestas y se
añade un segundo factor, que es el desaprendizaje de la primitiva respuesta –B- a A. Ese mecanismo era la
extinción experimental que se produce porque en el curso del aprendizaje de la 2ª lista se evocan las respuestas
de la 1ª lista sin que fueran reforzadas. Esto obliga a pronosticar que las respuestas reaparecerían después de
un tiempo, por recuperación espontánea. La predicción: al aumentar el intervalo de retención  aumenta la in.
proactiva de la 1ª lista sobre la 2ª y  disminuye la in. retroactiva de la 2ª sobre la 1ª.
Pero quedaron cuestiones pendientes. Nunca llega a confirmarse que las respuestas de la 1ª lista se elicitan
durante el aprendizaje de la 2ª lista. Pero también porque se intenta probar la existencia de la recuperación
espontánea.
Hubo un estudio de POSTMAN Y STARK que comprueban que cuando se administra una prueba de
reconocimiento en lugar de una de recuerdo, la in. retroactiva alcanza valores inapreciables. No parecía haber
desaprendizaje, porque la inf. estaba disponible, aunque no fuera accesible en una prueba de recuero. Esto
obliga a una nueva tªde la interferencia. Se abandona la idea de desaprendizaje y se coge la de competencia de
respuestas, pero modificada, era todo el conjunto de respuestas de una lista la que compite con el conjunto de
respuestas de la otra.. Se postula la existencia de un mecanismo selector de respuestas.

Esta versión nueva Tª DE LA INTERFERENCIA DEL CONJUNTO DE RESPUESTAS era más apta para resolver
un problema, que es la generalización de los resultados a la explicación de cómo se produce el olvido en el
medio natural. Se debe demostrar el efecto de la interferencia en las situaciones de personas en la vida real.
SLAMECKA intenta que sus sujetos desaprendieran sus asociaciones previas, y les hizo aprender nuevas
respuestas a estímulos. En contra de lo predicho por la tª de los dos factores, en una prueba posterior, se
comprueba que las asociaciones iniciales quedaron intactas, no habían desaprendido. Podía suponerse que el
mecanismo de selección cambiaba de la situación de laboratorio a la vida real.
Los defensores de la tª interferencia persisten. UNDERWOOD Y EKSTRAND llegan a conceder que el concepto
de asociación E-R era insuficiente para dar una respuesta al problema. TULVIN Y PSOTKA encuentran efectos
de in. retroactiva en el recuero libre de listas de palabras de diferentes categorías, pero estos efectos
desaparecen si se dan como claves los nombres de las categorías.

RESUMEN: En contra de lo que cabe pensar a partir de una interpretación precipitada, la propensión a tomar
prestado el marco conceptual de la ps del aprendizaje produjo un efecto beneficioso y contribuyó a que se
superaran las posiciones ateóricas del funcionalismo. Provocó un giro en el programa de investigación de
Ebbinghaus. Se le da al aprendizaje una carta de naturaleza.

3.3. El cambio en el aprendizaje verbal : la ley básica del aprendizaje y la memoria.


De las tªs E-R emergen nuevas ideas. Surgen análisis de integración de respuestas, que desembocaron en
procesos de codificación. Del paradigma del aprendizaje serial se derivan estudios sobre la curva de posición
serial y la distinción entre memoria primaria y secundaria. Las tªs sobre el olvido llevan ala investigación de
procesos de codificación y recuperación.
El trabajo en el área del aprendizaje verbal no tenía validez externa.
TULVING afirma: que los estudios que se hacen pueden clasificarse como memoria episódica, y este tipo de
estudios no son de gran utilidad para la educacióm. Esta ausencia de generalidad de los resultados determinó
que se exploraran otros paradigmas que no fueran el de pares asociados o el de aprendizaje serial.
El paradigma de recuerdo libre (se pide a los sujetos que recuerden una lista de ítems en el orden que quieran)
es el más caracterizado, pero luego fue desterrado. Para Ebbinghaus y sucesores no era un proceso adecuado
para estudiar la memoria asociativa, ya que el experimentador no tiene control sobre las asociaciones interítem
que puede formar el sujeto. Pero fue recuperando su perdida popularidad debido a tres razones según Tulving:
- porque algunos psicólogos matemáticos pensaban que del recuerdo libre se deriva un tipo de
aprendizaje analizable en términos de procesos estocásticos (derivados del azar o aleatorios)
- porque al añadirse el estadio del aprendizaje de respuestas a la explicación de lo que se aprendía
en el procedimiento de pares asociados, se consideró que con este método podrían desvelarse
aspectos importantes de esta vertiente del aprendizaje.
- algunos psicólogos empezaron a valerse de este procedimiento con la intención de averiguar que
es lo que asocian los sujetos. JENKINS Y RUSELL comprueban que los sujetos agrupan los ítems
en función de las asociaciones preexistentes, BOUSFIELD muestra que también los agrupan en
categorías. El objetivo inicial se vio superado por la fuerza de los resultados y el paradigma del
recuero libre se convierte en el preferido. La retención de una información no depende de la
formación de asociaciones, sino de las operaciones de codificación y almacenamiento. Las tªs
sobre la organización de la información que tiene lugar en la codificación fueron resaltando la
importancia de los aspectos constructivos de los procesos mnemónicos, reconociéndose así el
papel activo de los sujetos.

Se han intentado mostrar las claves q determinan la transformación interna del aprendizaje verbal. Un resultado
de la transformación es la ley básica del aprendizaje y memoria (lo que se aprende o recuerda depende de las
operacines mentales que se llevan a cabo), este principio da lugar a un programa cuya meta es establecer
relaciones entre cambios en la VD (lo que se aprende o recuerda) y en la VI (las operaciones mentales)

No hay una frontera definida entre el viejo y el nuevo paradigma. El término de “choque de paradigmas”
empleado por Kuhn es excesivo para describir la suave transición del aprendizaje verbal hacia nuevas
posiciones cognitivas.

TEMA 4. EL MARCO DE LAS TEORÍAS SIMBÓLICAS.

La recuperación de la mente y su actividad cognoscitiva como objeto de estudio, no quedaba zanjada. Se exigía
esfuerzo intelectual para demostrar que existe una vía de análisis que permita el desarrollo de teorías sobre el
funcionamiento de la mente. El nivel de análisis más obvio es el biológico o neurofisiológico. La mente se apoya
en un substrato neuronal cuya actividad da lugar a lo que conocemos como inteligencia, memoria, percepción.
Pero, en el actual estado, este análisis ofrece pocas oportunidades. Algunos teóricos como Skinner entendían
que el único modo posible de penetrar en el misterio de la inteligencia era la anatomía del SN, pero el desarrollo
de la neurofisiología no estaba lo suficientemente maduro.

La psicología cognitiva se consolida porque se va perfilando un nivel adecuado para estudiar fenómenos de
conocimiento. Es el simbólico o algorítmico, se ve la mente como un sistema físico (el cerebro), organizado, y
tiene la capacidad de construir y manipular símbolos. Pero esta conceptualización de la mente requiere una
explicación acerca de cómo un sistema físico puede tener esa capacidad y cómo a partir de esa capacidad se
despliega la conducta inteligente. La teoría del procesamiento de la información ejerce influencia en la Psicología
en este sentido.

4.1. La teoría de la computabilidad como fundamento de las teorías simbólicas.


Se suele identificar la tª del procesamiento de la información con los ordenadores y se afirma que la psicología
incorporó los esquemas conceptuales de la ciencia de los ordenadores. Es más exacto decir que la Psicología
cognitiva asumió la tª lógico-matemática de la computabilidad. La tª de la computabilidad explica cómo a partir de
elementos, puede llegarse a una diversidad ilimitada de procesos simbólicos. Puede idearse un modelo abstracto
de pensamiento que resuelva cualquier problema lógico o matemático que pueda ser formulado lógicamente. Un
modelo formal de esta naturaleza debe contar con: un pequeño número de símbolos primitivos que puedan
integrarse formando otros más complejos, un conjunto de instrucciones básicas representables simbólicamente y
una memoria.
Su demostración nos lleva a concluir que la ampliación del número de símbolos primitivos no posibilita una
mayor diversidad o complejidad en los cálculos de pensamiento. Lo que aumentaría la capacidad de cálculo de
un sistema, esto es una ampliación en la memoria, Para conseguir que este modelo se convierta en universal es
necesario postular una memoria ilimitada.
Pero, este modelo formal de pensamiento podría hacerse realidad en un autómata de estado finito (una máquina
con cambios de estado que correspondiesen a las transformaciones que fueran sufriendo los símbolos). El
problema es que es difícil concebir cómo una máquina así pueda tener una memoria ilimitada. Fue TURING el
que lo demostró.
Esta estrategia se plasmó en los ordenadores para explicar cómo un sistema físico puede mostrar una conducta
inteligente. Desde nuestra perspectiva, la mente puede entrar a formar parte de la categoría de los mecanismos..
Es un mecanismo abstracto.
El sistema de símbolos que constituye la mente es físico y no lógico (los símbolos mentales pertenecen
físicamente a la mente). NEWELL: “la condición necesaria y suficiente para que un sistema físico exhiba una
actividad general inteligente es que sea un sistema físico de símbolos. ANDERSON: “los símbolos son el único
modo de alcanzar inteligencia más que el único modo conocido”. Lo que se quiere decir es que las personas u
ordenadores son sistemas inteligentes son sistemas físicos de símbolos y no podrían serlo de otro modo. Pero
las personas no tenemos conciencia de poseer símbolos primitivos, por lo que puede haber resistencia hacia
esta forma de ver las cosas.
El cerebro no es infinito, está constituido por un número limitado de neuronas que producen cambios electro-
químicos, la diversidad de símbolos está formada a partir de unidades más elementales (primitivos). Igual que en
los ordenadores la información se presenta gracias a símbolos primitivos que son 0 y 1 (ausencia o presencia de
corriente), en el cerebro los impulsos nerviosos son la base de esos símbolos primitivos.
Cuando resolvemos un problema, aprendemos un nuevo concepto o recuperamos información, lo que estamos
haciendo es manipular símbolos. Esto es el fundamento para dar respuesta a la pregunta central de la Psicología
sobre cómo es posible que un sistema físico pueda ser inteligencia. La psicología, para consolidarse como
ciencia, tiene que dar una explicación de cómo el cerebro puede llegar a mostrar una conducta inteligente.
La tª de la computabilidad no es “otra tecnología industrial, sino un instrumento para desentrañar el misterio de le
inteligencia” PYLYSHYN. La aportación de la psicología cognitiva es la aplicación de la tª general de la
computabilidad al estudio de la mente. Gracias a esta tª, el reconocimiento de nuestra incapacidad para estudiar
lo biológico no desemboca en un nuevo dualismo mente-cerebro.
La actividad de la mente consiste en ejecución de algoritmos. La tarea de la psicología es poner de manifiesto la
naturaleza del algoritmo ejecutados en cada caso.
ALGORITMO: descripción abstracta de los pasos que un sistema tiene que dar para ejecutar un proceso. Estos
no actúan sobre la realidad física, sino sobre símbolos. Desde otro ángulo, un algoritmo es una secuencia de
transformaciones simbólicas. (De ahí que el nivel de análisis simbólico se llame también algorítmico).
El carácter abstracto de los algoritmos no impide el uso del método experimental (no le resta vinculación con la
realidad). El nivel de análisis simbólico es accesible empíricamente. Para muchos autores, esto hace que este
nivel simbólico sea el nivel psicológico por excelencia.
Los pasos que implican la ejecución de un algoritmo al nivel simbólico se corresponden con cambios de estado
discretos en la memoria de trabajo. La observación de estos cambios da la principal fuente de datos para la
confirmación o falsación de este tipo de teorías. La principal tarea del investigador consiste en identificar los
cambios en la conducta externa de los sujetos que se corresponden con cambios de estado en la memoria de
trabajo. Para ello usan técnicas. Una es el de:
Los protocolos verbales: pedir a los sujetos que expliciten operaciones mentales que están teniendo lugar
cuando se entregan a actividades mentales, pero lo que los sujetos dicen que hacen no se corresponde con lo
que hacen realmente (en gran parte de los casos). Pero esta estrategia es útil en la medida en que los informes
verbales no se tomen como descripciones de lo que los sujetos hacen, sino como indicadores de los cambios de
la memoria de trabajo (los protocolos verbales son una fuente de datos conductuales cuando se tratan como
datos conductuales y no como datos introspectivos). Otro método es el de:
Los protocolos conductuales: cuando los sujetos están resolviendo un problema, las acciones que realizan son
indicativas de los procesos mentales a los que se están entregando. Si el problema se está intentando resolver
en un ordenador, estas acciones pueden grabarse para su posterior análisis.

Como la mente humana manipula símbolos, las tªs psicológicas tiene que ser formuladas en términos
computacionales. Hay que demostrar que ese es justamente el algoritmo empleado por la mente humana que
solucione el problema. JOHNSON-LAIRD: “Las tªs sobre la mente den ser expresadas de forma que puedan ser
modeladas en un rpgorama de ordenador. Una tª puede dejar de satisfacer esto por diversas razones: puede que
sea incompleta, puede apoyarse en un proceso no computable, puede ser inconsistente o incoherente”.
Como las teorías psicológicas tienen que pasar el filtro d ela simulación en un ordenador, a algunos les parece
que ello es indicativo de que la mente funciona como un ordenador. Este es el sentido equivocado que se toma
de la “metáfora del ordenador”. Pronto se abandona ese recurso a los ordenadores como fuente para el
desarrollo de tªs psicológicas. Actualmente, es la mente la que se convierte en una metáfora para los
desarrolladores de ordenadores.
No se debe eliminar la posibilidad de que un proceso no sea computable. Podría ser que las personas llevaran a
cabo algún tipo de operación mental que no fuera asumible en el marco de la tª De la computabilidad. Esto
comportaría una limitación. Pero hasta ahora no se ha encontrado un proceso as . En algunos casos no se ha
podido encontrar una demostración de carácter simbólico-formal de algunos axiomas matemáticos. Podría
concluirse por un lado que una cosa es que no seamos capaces de demostrar determinados axiomas y otra que
sea imposible de demostrar. Y por otro lado, se niega la mente como un mecanismo formal.

4.2. La noción de representación y los conceptos básicos en el nivel simbólico de análisis.


Si podemos percibir, conocer, recordar y manipular la información es porque podemos representarla.
Todo el conocimiento que poseemos está representado en nuestra mente. Las representaciones han de
tener un formato tal que puedan ejecutarse operaciones sobre ellas.
La capacidad para representar el conocimiento en un formato simbólico es limitada. Simbólicamente, puede
representarse cualquier cosa. El término digital quiere decir que algo está representado en un formato de dígitos
binarios, que son símbolos primarios. Decir que algo se representa digitalmente equivale a decir que algo se
representa simbólicamente.

a) Símbolos y códigos mentales


Los símbolos son entidades que representan o designan otras entidades. Pueden combinarse formando
símbolos complejos o expresiones simbólicas. Los símbolos dependen de un cógico. Las propiedades
formales del código son las que hacen que la aplicación de una operación sobre un símbolo o expresión
simbólica pueda transformarlo manteniendo su consistencia. Las propiedades determinan la manera en que
se aplican las reglas. Cuentan con una sintaxis.
Algunos símbolos pueden referirse a otros y otros pueden representar instrucciones. Pueden designar
también entidades del mundo exterior. Entonces se dice que cuentan con una semántica. Diferencias entre
ordenadores y la mente: los símbolos que manipulan los ordenadores no tienen semántica (porque no
cuentan con órganos perceptivos). La fuente de semanticidad de los símbolos mentales es la percepción.
Esta establece el vínculo entre el mundo y nuestras representaciones. Entender cómo se produce la
traducción de lo físico a lo simbólico es tarea de la Psicología de la Percepción.
Algunos autores han llegado a decir que la semanticidad de los símbolos mentales podría determinar la
sintaxis. No podrían entonces, estudiarse los procesos simbólicos en términos sintácticos.
La afirmación de que la semántica afecta a la sintaxis carece de valor. si no se aclara la manera en que la
semántica afecta a la sintaxis. Este es un problema que no ha sido resuelto en la lingüística. Si el problema
se planteara correctamente dejaría de ser un problema y pasaría a ser un avance. Si no se consigue
formular la tª con la suficiente precisión, en realidad se trata de una tª semántica.
Las representaciones mentales cuentan con un código.. En toda representación mental puede distinguirse
entre un código y un contenido. También hay un medio porque las representaciones están en un medio
físico. El CONTENIDO es la información que la representación expresa. El CÓDIGO es el modo en que la
expresa.
Con un mismo código pueden representarse contenidos diferentes.
La razón por la que el código permite que un símbolo sea una entidad que representa a otra es porque
ambas tienen una estructura y hay una correspondencia entre algunos aspectos relevantes de la estructura
de la entidad que representa y algunos aspectos de la estructura de la entidad representada.
Hay una ilimitada posibilidad de generar diferentes códigos representacionales o simbólicos. El tipo de
código facilita la ejecución de determinadas operaciones. El código que adopta una representación depende
del modo en que vaya a usarse. Los códigos pueden realizarse en distintos medios (papel, en un
ordenador).
El hecho de que un mismo código pueda realizarse en distintos medios es lo que hace que puedan
estudiarse las representaciones y los cambios desde el punto de vista del código y su sintaxis. La dinámica
de las transformaciones simbólicas puede ser la misma, independientemente del medio físico en el que se
sustentan. La independencia del código al medio justifica que una tª simbólica no necesita entrar en el
sustrato físico.
Las operaciones de recodificación permiten almacenar la información de tal modo que pueda ser
recuperada y transformable.
CONRAD demostró que las personas podemos recibir la información en un código y transformarlo a otro.
Presentaba en una pantalla, listas de 6 letras que leían los sujetos en silencio, y una vez desaparecidas
tenían que decir las letras por el orden en el que se habían presentado. El resultado fue que los errores que
cometían no eran de carácter visual, sino fonológico. Los sujetos confundían entre la D y la T, (semejantes
desde el punto de vista fonológico). Pero no confundían la E y la F (semejantes visualmente). Se demuestra
que los sujetos transformaban el código visual a uno fonológico.

b) Código y operaciones mentales.


La mente humana no se limita a registrrar y almacenar la información. El poder de la mente deriva de su
capacidad para usar lo que tiene almacenado. Todo ello exige la ejecución de operaciones a través de las
cuales se usa el conocimiento. Pero, las transformaciones simbólicas se ejecutan obedeciendo a un
conjunto de reglas (a una sintaxis) que se deriva de un determinado código.
Puede entenderse así por qué las personas nos entregamos a las tareas de recodificación, pero algunos
códigos facilitan la ejecución de operaciones, el código que elegimos depende del tipo de operación mental
a la que vayamos a entregarnos. Tendemos a recodificar la información en un formato fonológico porque
ese código es en el que más eficazmente podemos repasar la información. Pero a veces, la ejecución de
ciertas operaciones mentales se facilita con el uso de otros códigos.
SHEPARD Y METZER: presentaron a sujetos pares de objetos que no representaban nada y su tarea era
decir si los dos objetos eran iguales o diferentes, la dificultad estribaba en que los dos objetos de cada para
se presentaban orientados de manera diferente. Se preguntaron por el tipo de operación que tenían que
realizar los sujetos y sobre qué codigo la realizaban. Para ello tomaron los tiempos que tardaban en decir
que los dos objetos de un par eran iguales. El resultado es que había una relación directa entre el grado
angular de rotación y el tiempo de respuesta. Es como si los sujetos rotaran mentalmente los objetos. Se
tardaría más en rotar un objeto más grados que menos.
CARPETNTER y EISEMBERG piden a sus sujetos (ciegos) que dijeran si dos letras eran las mismas o
diferentes cuando una de ellas estaba en una posición normal y la otra rotada en un cierto ángulo. El
resultado que obtuvieron fue el mismo de Shepard y Metzer (conforme aumentaba el ángulo de rotación,
mayor era el tiempo de respuesta). Es necesario postular entonces la existencia de un código (el
visuespacial). Las operaciones mentales están vinculadas a un determinado código.

c) La dinámica del sistema simbólico humano.


La persistencia en la activación es que cuando se activa una representación, se mantiene activada durante
un corto periodo de tiempo, aún cuando la fuente de activación haya terminado. La propagación de la
activación consiste en que, al activarse una representación, la activación se extiende a otras
representaciones relacionadas. Aproximación al curso del procesamiento humano de la información: cuando
aparece un aducto (input), se produce una equiparación con las representaciones existentes en nuestra
MLP. Esta equiparación produce la activación de las representaciones que, al cesar el input, permanecen
activadas y van decayendo debido al fenómeno de la persistencia. La activación de una representación se
propaga a otras representaciones relacionadas. En algunos casos, las representaciones están relacionadas
negativamente (en vez de en positivo), de modo que la activación de una representación puede impedir que
otras se activen.
Cuando la activación se produce como consecuencia de un aducto, estamos ante un proceso de abajo a
arriba (inducido por los datos). Pero cuando la activación de la representación guía el procesamiento, será
de arriba abajo (inducido conceptualmente).
La rapidez con que una representación se equipara a un input depende de factores como la semejanza
entre input y representación, el criterio de señal y el nivel de activación de la representación previo a la
aparición del input. “Cuanto mayor sea el nivel inicial de activación, más rápido se produce la equiparación”.
La conjunción de estos fenómenos es la base del procedimiento de facilitación con el que se puede explorar
la relación entre unas representaciones y otras.

4.3. Los niveles de análisis de la mente.

Además del nivel biológico y simbólico, autores proponen otros: el racional o computacional y el de la
arquitectura funcional o de implementación.

a) El nivel racional o computacional.


La equiparación de lo mental con lo computacional y el paralelismo entre la mente y un programa de
ordenador no se debe entender como absoluto. Hay diferencias entre ellas. La semanticidad de los símbolos
mentales proporcionada por los procesos perceptivos es un rasgo característico del sistema físico de
símbolos de la mente, frente a los sistemas de símbolos artificiales como los ordenadores. La manipulación
no tiene lugar sobre la base del contenido semántico de las estructuras simbólicas, sino en virtud de las
propiedades formales de las representaciones. En el caso de la mente, el contenido semántico de los
símbolos que maneja puede interactuar con la sintaxis.
Se pueda o no reducir lo semántico a lo sintáctico, por el momento, a partir de una tª simbólica, es difícil
decidir sobre el modo en que la semanticidad de los símbolos mentales interviene en los procesos que lleva
a cabo la mente humana. Hay numerosos algoritmos que pueden dar como resultado la ejecución de
cualquier operación de cómputo; pero la cuestión es que el contenido semántico de los símbolos de que se
vale la mente determina el tipo de algoritmo elegido, lo que obliga a explicar cuál es el sentido de esa
peculiar elección. Para abordar esta cuestión se ha acudido a otros niveles a partir de los cuales se
entiendan las peculiaridades de la mente que no puede explicar una tª simbólica.
Existen propuestas de análisis que varían. Estas derivan de la naturaleza de los fenómenos e instrumentos
de investigación. En el campo del procesamiento visual temprano, se distinguen tres niveles:
El nivel computacional: responde a la necesidad apuntada por Marr de recurrir a un nivel superio, al
simbólico o algorítmico. De entre el universo de algoritmos posibles conducentes a una solución correcta
que cualquier sistema inteligente podría emplear, se seleccionan aquellos que están más en consonancia
con las metas del sistema. La compresión de los algoritmos de que se vale un sistema no termina en la
descripción de los algoritmos, sino que es necesario aclarar el sentido de por qué se usan esos. Visto de
otro modo: las distintas estrategias computacionales determinadas por las metas del sistema dan lugar al
conjunto de algoritmos que es capaz de desarrollar el sistema. NEWELL también habla del nivel del
conocimiento, PYLYSHYN del semántico y ANDERSON del racional (todos desarrollan teorías a un nivel
superior al simbólico o algorítmico). Con este nivel superior de análisis se reconoce que la mente no se
explica solo por ser un sistema que manipula símbolos, sino que su actividad responde a una racionalidad.
Se responde al funcionamiento de la mente desde la perspectiva del entorno en el que actúa.
Los análisis a este nivel inciden en el problema de la identificabilidad de ANDERSON (porque nos permiten
postular la necesidad de estrategias computacionales frente a otras). Desde el punto de vista de la tª de la
memoria, Anderson emprende un proyecto para proporcionar un análisis racional de la memoria. Su
estrategia es entender las peculiaridades de la memoria, las operaciones de recuperación propias de las
personas son como son porque con ellas la ganancia que se obtiene es superior al esfuerzo que comportan.
La ganancia viene dada por la estructura del entorno, y el coste por el esfuerzo que requiere la búsqueda de
una información en la memoria que depende del número de posibles informaciones candidatas a dicha
búsqueda. Aunque la reflexión a este nivel contribuye al desarrollo de tªas a nivel simbólico, el nivel racional
no puede considerarse únicamente psicológico, porque en él no tratan de hacerse explícitos los
mecanismos de funcionamiento de la mente. Este tipo de análisis conduce al desarrollo de modelos
formales del entorno a partir de los cuales derivamos la conducta.

b) El nivel de la arquitectura funcional.


Además del racional, simbólico y biológico, se propone otro entre el simbólico y biológico/algorítmico. Es el
que Pylyshy llama de la arquitectura funcional, y Anderson de implementación. La arquitectura funcional de
un sistema es una descripción esquemática de la macroestructura física subyacente al sistema. Es un
esquema funcional que no tiene por qué especificar la relación entre sus elementos y la realidad en la que
se sustentan, no es una descripción física de la realidad con que cuenta el sistema (este análisis lo haría el
nivel biológico). El procesamiento simbólico se discurre por la arquitectura funcional, y esta arquitectura
funcional discurre por encima del biológico. Se refiere a lo físico, pero es una abstracción de lo físico
Afirmar que la mente cuenta con una MLP y una MCP o que procesa en paralelo es hacer tªs sobre la
configuración física del sistema, y son tªs pertenecientes al nivel de la arquitectura funcional. Una tª a nivel
simbólico es independiente del punto de vista que se tenga sobre la arquitectura funcional. Pueden
concebirse arquitecturas funcionales diferentes al servicio de distintos sistemas simbólicos.
Como en cualquier arquitectura funcional, puede simularse cualquier proceso instrumentalizado en otra
arquitectura diferente, hay dos tipos de equivalencia. Un sistema puede ser equivalente a otro desde el
punto de vista de los procesos y de la arquitectura en la que se instrumentalizan. Por eso, cuando se
modela en un ordenador una tª sobre la mente, se debe determinar de qué tipo de equivalencia se trata.
El nivel de la arquitectura funcional o de implementación e s necesario como medio de aproximación al nivel
biológico. El nivel de implementación desempeña el papel de puente entre lo simbólico y lo biológico. Esto
nos permite postular el coste de las operaciones al nivel simbólico, o predecir las propiedades temporales
de los diversos algoritmos. ANDERSON: el nivel de implementación desaparecerá cuando avancen nuestros
conocimientos al nivel biológico.El papel de una arquitectura funcional es apoyar al procesamiento
simbólico, pero no es un apoyo perfecto, porque si no habría de considerar el aspecto de la cognición. La
falta de adecuación de la arq funcional produce consecuencias en la conducta. Cuando la arq no ofrece el
soporte ideal para el procesamiento simbólico, surgen las características que consideramos psicológicas. La
psicología implica la investigación sobre la arquitectura. Recientemente han aparecido tªs conexionistas
(están inspiradas en el diseño básico de un ordenador, proponen arq alternativas a las arq simbólicas
tradicionales). Este enfoque conduce a postular una arquitectura diferente de la que inspira a los
ordenadores. Para los conexionistas, esto tiene importancia porque es la arquitectura la que determina qué
clases de arq de la máquina es lo que determina la naturaleza esencial del programa mismo. Estas arq no
simbólicas, la unidad básica de procesamiento, no son símbolos primitivos sino arquetipos de neuronas
(neurona abstracta). Estas unidades se organizan por capas o estratos. Como mínimo hay dos estratos: el
de aducto y entrada y el de educto o salida. Estas unidades están enlazadas mediante conexiones a través
de las cuales se propagan fuerzas excitatorias o inhibitorias. Las conexiones poseen pesos diferntes. Todo
ello puede dar lugar a vastas redes conexionistas. El patrón de activación que reciben las unidades de
entrada se proyecta a través de las correspondientes conexiones a un patrón de activación en las unidades
de salida. Característica de estas redes: la activación se produce a lo largo de toda la red, por lo que en
todo momento hay varias unidades que están recibiendo o ejerciendo influencia sobre otras unidades. En
consecuencia, el procesamiento es en paralelo. Pero no todas las arquitecturas simbólicas se valen de
modelos de procesamiento serial. Un ordenador opera a velocidades que se miden en nanosegundos, y
procesan secuencialmente, la eficacia del procesamiento serial se compensa en un ordenador con la
velocidad. Pero las neuronas son lentas, si el procesamiento en el cerebro fuera serial, en n segundo sólo
podrían ejecutarse unas 100 operaciones elementales. El procesamiento debe ser en gran parte paralelo.
Con la aparición de las tªs conexionistas, de nuevo se apela como único factor determinante en la génesis
de una red a la fuerza de la asociación formalizada en términos de peso de las conexiones. Las
asociaciones no están etiquetadas. No hay diferencias cualitativas entre las asociaciones, solo cuantitativas.
Dada una arquitectura de red, la necesidad de representaciones complejas puede satisfacerse
introduciendo varios estratos de unidades no visibles entre el estrato de las unidades de aducto y las de
educto. Estas son llamadas OCULTAS, y tienen un paralelismo con las interneuronas.
Las unidades ocultas permiten a las redes hacer análisis discriminantes finos. Una de las innovaciones del
conexionismo es la representación distribuida. Las unidades pueden hacerse coincidir con contenidos
semánticamente identificables. Una unidad puede ser un rasgo (rojo) y otra puede ser otro (verde). Esta
última unidad estaría conectada con un peso excitatorio elevado con otra unidad en una capa superior
(representaría el concepto de hierba). Estas redes se llaman LOCALISTAS (porque los contenidos
semánticos están localizados en unidades definidas. Hay otra alternativa en la que la representación de un
contenido semántico se reparte en varias unidades. Las redes que se valen de esta estrategia se llaman
redes distribuidas. En una RED DISTRIBUIDA, el hecho de que las unidades ocultas estén entre la entrada
y la salida, obliga a la red a ajustar los pesos de las conexiones, de modo que las entradas se proyecten en
las salidas. Como consecuencia, las unidades ocultas resultantes no son interpretables desde un punto de
vista semántico. Las unidades ocultas captan microrasgos que son difícilmente interpretables
semánticamente. MOLENSKY “las tªs conexionistas son tªs subsimbólicas”. Tendríamos dos paradigmas
cognitivos: el simbólico y el subsimbólico.
La idea de red y de propagación en paralelo de la activación a lo largo de una red no es única del
conexionismo. Han aparecido modelos simbólicos en los que el cto declarativo se representa en una red
semántica. La formulación de estos modelos más acabada es de ANERSON: para él, tanto la fuerza de las
conexiones entre elementos de la red com la propagación de la activación, obedecen a funciones definidas
y semejantes a las propuestas en las tªs conexionistas. Pero las redes simbólicas no son distribuidas, sino
LOCALISTAS (las unidades son interpretables semánticamente). En las redes conexionistas, el control se
ejerce localmente, desde la misma red, son LOCALES. Las redes semánticas son localistas y no locales, y
las redes conexionistas son distribuidas y no locales.
El enfoque conexionista puede resolver los problemas de aprendizaje y memoria. Aprendizaje: la formación
de una nueva representación, el cambio de una representación a otra se reducen a la formación o cambio
del patrón de conexiones. Cambiando el peso de las conexiones y añadiendo o eliminando otras, puede
hacerse que una red deje de representar un concepto simple para ser otro más complejo. Por otro lado, la
activación simultánea de dos unidades puede fortalecer la conexión entre ellas.
A la época conductista preoecupada por el aprendizaje (no por su contenido), sucede otra preocupada por la
representación (no por el aprendizaje). El estilo de computación del conexionismo puede analizar los
fenómenos del aprendizaje y permite que se estudie directamente la relación entre aprendizaje y
representación. Los mecanismos de aprendizaje en las redes conexionistas son más complejos.. La simple
activación de 2 unidades no desemboca en una conexión definitiva de dichas unidades, sino en un aumento
en la fuerza de la conexión. Y como el procesamiento es en paralelo, se debe considerar la influencia del
resto de unidades. Estos aspectos son captados por la REGLA DELTA, que define cómo se ajustan los
pesos de las conexiones a lo largo de toda la red como consecuencia de las sucesivas entradas. REGLA DE
RETROPRAGACIÓN: parte del supuesto de que la activación se propaga hacia delante, pero también hacia
atrás, con vistas a la corrección de errores.
Hay problemas cuando se quiere que estos modelos de aprendizaje respondan a lo que psicológicamente
ocurre. En 1er lugar, la retropropagación carece de plausibilidad neuronal (es biológicamente implausible en
lq medida en que las señales de error no pueden propagarse hacia atrás por el mismo axón por el que
llegaron. En 2º lugar: a veces el aprendizaje psicológico se produce de una sola vez. El aprendizaje
modelado por las redes, sin embargo, es progresivo. Se requiere un cierto nº de ciclos para aprender como
consecuencia del ajuste de las conexiones. En 3er lugar, a veces aprender en una red conexionista implica
desaprender lo anterior, y esto carece de contrapartida en el aprendizaje humano.
El problema es que no existe una psicología conexionista empírica. La investigación desemboca en
sistemas que funcionan, pero no se ponen a prueba empírica. Las tªs conexionistas son poco contrastables
experimentalmente. Las redes con unidades ocultas no ayudan a comprender cómo las personas procesan
la información, puede ser el resultado de numerosas redes con características muy dispares. La debilidad
de las teorías conexionistas estriba en su fuerza. Una red conexionista que funcione puede tener poco que
ver con los fenómenos conductuales y cognitivos de interés, y por ahora, no hay modo de establecer esta
relación. Algunos autores piensan que las tªs simbólicas y las conexionistas no tienen por qué ser
mutuamente excluyentes. BECHTEL y ABRAHAMSEN “la investigación conexionista y simbólica deberían
llevarse acabo como empresas diferentes, ambos enfoques pueden fortalecer la ciencia cognitiva al
proporcionar múltiples perspectivas. Cada enfoque debe ser empleado en las tareas más a su medida, en
lugar de luchar en la misma carrera. HANSON y BRURR optan por una convergencia entre las tªs
simbólicas y las conexionistas, así se resolverán los problemas que frenan el desarrollo de ambos enfoques.

TEMA 5: MEMORIAS TRANSITORIAS Y MEMORIA PERMANENTE.

Simultáneamente al proceso de cambio del aprendizaje verbal, los investigadores se enfrentan a un reto:
averiguar cómo funciona la mente. Se encuentra un nivel de análisis: el SIMBÓLICO, que resulta ser el
apropiado para el desarrollo de tªs científicas. Peor al principio no estaba clara la manera en que podría
abordarse esta cuestión. Primero se adopta una estrategia que fragmenta el estudio de la mente, en donde
habría diferentes subsistemas, y se convierte en la estrategia dominante en campos como la atención. El
problema fundamental de estas posiciones consiste en identificar y describir la naturaleza de los estadios que
tenían lugar en el curso del procesamiento de la información.

5.1. La génesis del concepto de la memoria transitoria.

La fragmentación de la mente hizo que se pensara en que la información que entraba por el sistema perceptivo
debía mantenerse en fases para poder se sometida a operaciones. Así se refuerza el interés por la existencia de
memorias transitorias, donde la información se mantiene por un breve espacio de tiempo, frente a una memoria
permanente. La investigación sobre la memoria fue trascendiendo al estudio de los mecanismos de
sostenimiento temporal de la información. Se identificaron dos tipos de memorias transitorias: la memoria
sensorial y la MCP (que más adelante se convertiría en la memoria de trabajo).
El estudio de la MCP no se inició con el advenimiento de la psicología cognitiva. La idea estaba ya presente en
JAMES, quien distingue entre memoria primaria (MCP) y memoria secundaria (MLP). La distinción tenía un
carácter fenomenológico y trata de captar la diferencia entre la parte del cto que es consciente en un momento
dado, frente al que está disponible, pero no consciente. STERN siguiendo a Sund, rebautiza estas memorias con
el nombre de inmediata y mediata.
Hubo incursiones por parte de la neurofisiología. Para HEBB debía haber algún tipo de actividad neuronal. Sea
cual sea la actividad neuronal subyacente a estos cambios, se requiere que, mientras estén teniendo lugar, la
información se sostenga. Debía haber un mecanismo de mantenimiento transitorio de la información. HEBB
piensa que son las asambleas de neuronas reverberantes descritas por LORENTE DE NÓ. La razón es que en
estos conjuntos de neuronas se produciría un mecanismo de autoactivación. Hoy hay un reconocimiento de que
la primitiva explicación de HEBB no anda del todo desencaminada.
JAMES, hace una investigación sobre la MCP y las memorias transitorias, se inicia más tarde gracias a la
contribución de la tª de la información y a la evolución de las ideas habidas en el aprendizaje verbal. En este
tema se tratará de la contribución de la tª de la información al desarrollo de la noción de memoria transitoria.
Para ello se parte de una explicación sobre las aportaciones de la tª de la información al análisis del fenómeno
de las memorias transitorias. A continuación se trata del primer modelo de memoria es el de BROADBENT.
Mientras que la investigación sobre la memoria transitoria que conocemos como memoria sensorial, no resultó
decisiva, las discusiones en torno a la MCP sí tuvieron trascendencia.

5.2. Las memorias transitorias y la tª de la información.

Se acude provisionalmente a los esquemas de la t! De la información, desarrollada por ingenieros. Esta área de
conocimiento estuvo en boga durante los años 40, 50 y 60 del S.XX, y alcanza desarrollo teórico en esta época
hasta que se incorporó a la ciencia del procesamiento de la información.
En realidad, la estrategia inicial de segmentar el estudio de la mente en subsistemas era procedente de la tª de la
información. Estas concepciones son de otros campos externos a la Psicología y dieron lugar a un progreso
teórico que consiguió avances, pero pronto fue sustituido por el marco simbólico en el que se mueve actualmente
la Psicología.
Para la teoría de la información, el fenómeno central era la transmisión de información. Los conceptos clave de la
tª de la información son: canal: a través del cual se propaga la señal. Mensaje: contenido de la transmisión.
Señal: lo que físicamente se propaga a lo largo del canal. Código: las propiedades de la señal. Transmisor y
receptor: permiten que un mensaje se transforme en una señal y que más tarde vuelva a convertirse en un
mensaje Los teóricos de la información planteaban dos problemas: el de la capacidad del canal y el de la
codificación de un mensaje en una señal. Una herencia negativa de esta tª es que el proceso por el cual tiene
lugar la transmisión de la información es serial (o sea, que se sucede a lo largo de una secuencia fija de pasos).
Aunque, en realidad, la mente procesa prioritariamente en paralelo.
Se traba de averiguar qué es lo que ocurría entre los estímulos o entradas al organismo (aductos) y las
respuestas o salidas del organismo (eductos). Nuestra mente se entendería como un dispositivo mediador entre
una entrada de información y una salida.
La tª de la información hizo que se incorporaran a la psicología nociones como:
CODIFICACIÓN: este concepto ha llegado a ser central en la psicología de la memoria. Procesos que
determinan el modo en que se almacena la información en la mlp. Estos procesos de codificación se consideran
como procesos de aprendizaje.
CAPACIDAD LIMITADA: fructífera en el campo de la atención, pero también en los estudios sobre la mcp o de
trabajo. Esta noción es determinante para entender aspectos del funcionamiento de la mente, puesto que el
hecho de que nuestra capacidad sea limitada determina que la mente tiene que emplear estrategias para
optimizar sus recursos. Estas estrategias son dos: estructurar y automatizar.
PROCESAMIENTO SERIAL: la insistencia en este concepto llegó a ser obstáculo para el desarrollo de algunas
teorías sobre la memoria, pero no deben ignorarse aspectos seriales del procesamiento. En todo caso, un
requisito que deben cumplir las tªs sobre el procesamiento es el de mostrar la convivencia entre el
procesamiento serial y en paralelo. Sin olvidar que lo característico en la mente humana es en paralelo.

a) El modelo de Broadbent y la incorporación del estudio de las memorias transitorias al estudio de la memoria.
A partir de la influencia de la tª de la información, la mente se describe como un canal de transmisión de la
información en el que los mensajes iban sufriendo modificaciones o recodificaciones para pasar de un estadio
a otro. Así surgen modelos que se explicitan en diagramas de flujo. En el primero (Broadbent), se toma la idea
de capacidad limitada como una concepción serial de procesamiento. Debido a que era un modelo atencional,
el fenómeno que tenía que explicar el modelo era el de la selectividad atencional (como nuestra capacidad es
limitada, había que intentar describir el mecanismo que hace que las personas tendamos a unas cosas y no a
otras, de modo que el sistema no se vea desbordado).

Esquematización del modelo de Broadbent (1958). El primero modelo de memoria.

A pesar de que el modelo trataba de este problema que plantea la atención, se convirtió en el primer modelo
de memoria. El modelo postulaba la existencia de un filtro, que es el elemento que da carácter atencional al
modelo. La función del filtro era dejar pasar únicamente aquella información que no saturara la capacidad de
una estructura. La acción del filtro estaba controlada por el sistema cognitivo que se apoya en el cto de que
disponen las personas, y por lo tanto, en la memoria permanente o la MLP. Esta selección en el modelo de
Broadbent se llevaba a cabo mediante un análisis de las características físicas de la información, lo que luego
fue falsado por los datos experimentales que posteriormente se reacabaron. El filtro estaba precedido por un
retén (buffer), que se postula debido a los resultados que Broadbent obtiene en sus experimentos de amplitud
dividida.
En estos experimentos de AMPLITUD DIVIDIDA, Broadbent empleaba un procedimiento de escucha dicótica
(de manera que por el oído izquierdo se presentan tres números: 3 2 5, y por el derecho otros tres: 4 5 9. A
continuación se pide a los sujetos que digan los números que habían oído). El resultado es que los sujeto son
decían los números en el orden en que habían sido presentados, sino primero los que habían escuchado por
un oído y luego los que habían escuchado por el otro. Broadbent pensó entonces que los sujetos cambian su
atención de un oído a otro. Pero los cambios de atención requieren algún mecanismo de sostenimiento de la
información que entra por un oído, mientras que se está escuchando por el otro. Es esta la razón por la que
Broadbent postula la existencia de un retén.
La aportación de Broadbent consiste en postular la existencia de dos memorias temporales: la memoria
sensorial y la MCP, relacionadas con la MLP. El retén de Broadbent se convertirá más tarde en la memoria
sensorial, y el canal de capacidad limitada en la MPC. En los modelos multialmacén, el retén se
corresponderá con el registrador sensorial y el canal de capacidad limitada con el almacén a corto plazo.
Esta concepción de la memoria en la que la información fluye a lo largo de dos sistemas temporales (memoria
sensorial y MCP) para llegar a la MLP, representa el punto de partida de todos los análisis posteriores, por
eso puede decirse que la incorporación de los marcos conceptuales de la tª de la información, produjo un
efecto beneficioso en el desarrollo de la tª de la memoria.
La t! De la información experimentó una evolución. El estudio de un sistema de transmisión implica
consideraciones acerca de las recodificaciones de la información. La función del TRANSMISOR consiste en
aceptar un mensaje y codificarlo en una señal. Y la del RECEPTOR en decodificar la señal. Pero el transmisor
puede realizar operaciones complejas.
La consecuencia de la disquisición sobre el desarrollo de la tª de la información es que esta acabó
confluyendo con la tª del procesamiento de la información. Así, los investigadores que se habían inspirado en
la tª de la información, adopataron modelos simbólicos del funcionamiento de la mente, Pero no hubo
choques de paradigmas, sino una transición suave de marcos. No obstante, la consideración de la mente
como un sistema compartimentado en subsistemas siguió vigente. El programa de investigación pasó a
consistir en caracterizar esos subsistemas.

b) Las limitaciones en la capacidad y los procesos de codificación.


Antes de que Broadbent propusiera su modelo, se había intensificado en la psicología el interés por las
limitaciones en la capacidad de nuestra mente. Pero ya se sabía que las personas disponemos de una
capacidad limitada para atender a un cúmulo de estímulos. WUNDT observa que la amplitud de la memoria
inmediata era de 6 impresiones simples aisladas. Observa también que el agrupamiento de estos elementos
aumenta la amplitud de esta memoria. Pero, por influencia de la tª de la información, este problema de las
limitaciones en la capacidad fue abordado más rigurosamente en los estudios sobre la atención en los años
50 del siglo XX. Se trata de la imposibilidad de las personas para atender a todo lo que entra por nuestros
sentidos.
La influencia de la tª de la información hizo que los investigadores se interesaran por el problema de las
limitaciones en la capacidad.
MILLER observa que muchos fenómenos de percepción, atención o memoria estudiados hasta aquel
momento, parecen indicar que esa limitación era de unos 7 elementos. Posteriormente, esta estimación
disminuyó y queda en torno a 6. COWAN “dicha amplitud puede estimarse en 4 más menos ítems”.
Es difícil hacer una estimación exacta de la capacidad atencional o de la amplitud de la MCP que se pueda
aplicar a todas situaciones y materiales. Lo interesante del trabajo de Miller es el modo que llega a esa
conclusión: realiza una revisión de datos experimentales que se habían recabado con otras finalidades.
La cantidad de información que podía sostenerse variaba mucho de experimento a experimento. Pero, podía
extraerse la conclusión de que, aunque la cantidad de información fuera diferente, el número de elementos
era constante (es posible mantener una información que sobrepase el límite de capacidad, si se consigue
estructurar en aproximadamente 7 unidades significativas). Miller, en su estudio experimental, pretende medir
la cantidad de información que los sujetos eran capaces de mantener en términos cuantitativos, empleó como
material a mantener series de números binarios (para entender cómo este material permite estimar la
cantidad de información, se debe explicar qué se quiere decir con “cantidad de información”).
LA CANTIDAD DE INFORMACIÓN se mide de acuerdo con la noción de incertidumbre. La incertidumbre
depende de la probabilidad de que se produzca un acontecimiento (predecir que un día hará sol en la cosata
de Almería tiene poca incertidumbre. Si hace sol ese día, ese hecho resulta poco informativo). Por tanto,
cuayo mayor sea la incertidumbre, mayor será la cantidad de información que da un acontecimiento. Si hay
dos alternativas equiprobables (lanzamiento de monedas), la probabilidad es del 50%, las alternativas son
igualmente probables. La cantidad de información que da un acontecimiento es de 2 bitios sobre la
probabilidad de que se produzca uno de 2 =4. El ejemplo de las monedas se aplica al de los números
binarios.
ESTUDIO DE MILLER: si los sujetos tenían que mantener una serie de números binarios, la cantidad de
información a retener era de tres bits, sobre la posibilidad de 2 =8 alternativas. Así, comprueba cono sus
sujetos podían llegar a mantener una serie de hasta 9 números binarios (9bits). Puede afirmarse que la
amplitud de la MCP se estima en 9 bits. Miller demuestra que se a los sujetos se les adiestra a traducir
tripletes de números binarios a decimales, su capacidad aumentaba.
Cualquier persona puede retener 6 números decimales. Pero si fueran 12 números sólo lo puede conseguir si
organiza esos números en unidades significativas. La clave está en la estructura que imponemos a la
información y esa estructura depende de nuestro conocimiento. La cantidad de información que una persona
puede mantener en su MCP puede aumentar si consigue organizarla en unidades que sean significativas para
esa persona. A estas unidades significativas, Miller las llamó PAQUETES (chunks), y el organizar la
información en paquetes que requiere operaciones de recodificación, las llama EMPAQUETAMIENTO
(chunking).
Miller afirma: “las limitaciones en la capacidad de la MCP están en el nº de paquetes, pero no en la cantidad
de información ni el la complejidad de los paquetes. La capacidad de complejizar proviene del cto previo del
sujeto.
El descubrimiento de que no era la cantidad de información sino el nº de elementos, tuvo gran trascendencia,
porque incidía en la importancia de los procesos de codificación en nuestra MCP. Además, constituía un
nuevo reto para los psicológos que se creen que la mente se concibe como un canal pasivo a través del cual
se transmite la información.
Una de las virtudes del trabajo de Miller fue manifestar la importancia de los procesos de codificación. Su
descubrimiento se puede resumir en la idea de que imponer una estructura a la información que se recibe,
constituye una de las estrategias que las personas empleamos para soslayar nuestras limitaciones en la
capacidad de procesamiento”. La capacidad para estructurar y para aumentar la amplitud de nuestra MCP,
determina nuestro grado de eficacia en la conducta de solución de problemas, y es fuente del grado de
inteligencia. El uso de estrategias de codificación para ampliar la capacidad de la MPC es fruto del
aprendizaje.
El análisis que llevó a cabo Miller posibilitó una superación del marco de la ª de la información. Comienza a
forjarse un nuevo objetivo consistente en escribir los procesos a los que se ve sometida la información (dichos
procesos son ejecutados por los sujetos que juegan un papel activo. Es necesario postular la existencia de
memorias transitorias como la MEMORIA SENSORIAL o la MCP, porque los procesos se ejecutan sobre datos
que deben ser mantenidos mientras se están teniendo lugar.

Vous aimerez peut-être aussi