Académique Documents
Professionnel Documents
Culture Documents
El idealismo alemán sucesivo mantuvo una posición semejante. Menos algunos filósofos, como HERBART: su
estrategia para salvar a la psicología consiste en soslayar el problema de la aplicación del método experimental
para pasar a formular una matemática de la mente. Herbart pretendió describir la interacción matemática de las
ideas en la mente. Así rompe el maleficio de Kant, pero era imposible hacer todo esto visible a los demás,
hacerlo empírico.
FECHNER (seguidor de Herbart), emprendió una investigación sistemática en psicología experimental. Pero
Fechner tuvo que reducir la problemática de la psicología a procesos sensoriales elementales. Los métodos de
Fechner serían ampliados por Wundt para abarcar algo más que sensaciones para que pudieran ser utilizables
en su psicología experimental d ela conciencia. Pero el sistema de Wundt descansaba en un método
introspectivo.
Hay una aportación de los empiristas británicos, que mantuvieron la propuesta de Aristóteles sobre las tres leyes
que determinaban la formación de asociaciones, son la de contigüidad, semejanza y contraste. Según ellos, la
fundamental es la de contigüidad.
Hizo la primera aproximación científica al tema de la memoria y el aprendizaje, llevó a cabo una investigación en
la que intentó valerse de los métodos que FECHNER aplicó, para estudiar los fenómenos de retención del
aprendizaje. Ebbinghaus era consciente de la dificultad de la tarea que quería abordar. Porque era necesario
mantener un control sobre muchos factores que son cambiantes, y además debería resolver el problema de la
medición de los fenómenos mentales, que se disipan con facilidad.
Ebbinghaus propone una solución. Con 4 ejes:
- Debía neutralizar el aprendizaje individual producido antes de cualquier experimento psicológico,
porque en su tiempo no se podía controlar el conocimiento previo. Por eso decidió usar las
sílabas sin sentido, intentando así eliminar relaciones, etc. Así aislaba los mecanismos
elementales que dan lugar a la formación de asociaciones.
- También intentó combatir cualquier fuente de contaminación experimenta. Por eso se usaba como
sujeto. Sus sílabas eran CVC y las distribuía en listas que leía en alto. Se pasaba las pruebas a la
misma hora. Intentaba eludir reglas mnemotécnicas y asociaciones sugeridas por las sílabas.
- Ideó un procedimiento básico: APRENDIZAJE SERiAL (retener una lista de ítems en el mismo
orden en el que van apareciendo). Para él, la ejecución de estas pruebas refleja hasta qué punto
se han asociado las sílabas. Pensó que el mejor método para cuantificar el aprendizaje era
establecer el nº de veces que necesitaba leer la lista para reproducirla sin errores.
- Se enfrentó al problema de medir la VD (el grado de retención/aprendizaje), para ello introdujo el
MÉTODO DE LOS AHORROS (contar los ensayos para reaprender una lista después de un
tiempo y compararlos con los ensayos requeridos para el aprendizaje original). Comprobó que
tenía que repetir menos veces que en el aprendizaje original, se produjo un ahorro de
repeticiones. Estudios posteriores usan esta técnica.
Ebbinghaus observó que se podía aprender una lista de hasta siete sílabas en un ensayo, pero cuando se
superaba esa cifra, se tenía que leer la lista varias veces para aprenderla del todo. Esto demuestra la existencia
de una MCP o de trabajo. Las personas están dotadas para aprender y mantener aquello que nos permite la
capacidad de nuestra MCP (6 o7 items).
Investigó el curso del OLVIDO. Intentando explicar cuánto tardamos en olvidarnos de algo y en qué medida
vamos olvidándolo. Se aprendía listas y una vez transcurrido un tiempo (intervalo de retención), intentaba
recordarla. En el primer intento no recordaba toda la lista (había olvido), la leía otra vez las veces necesarias
para recordarla perfectamente. Para medir la cantidad de olvido usaba el método de los ahorros, anotando hasta
qué punto tenía que leer la lista menos veces que en aprendizaje inicial. Con estos datos construye la CURVA
CLÁSICA DEL OLVIDO. Cuanto más tiempo transcurre desde el aprendizaje inicial, mayor es el olvido. Descubre
que el mejor modo de olvidar algo es aprender a corto plazo (estrategia estudiantil de estudiar dos días antes).
Más tarde se demuestra que se pueden obtener curvas del olvido diferentes. Ebbinghaus se adelanta a su
tiempo formulando 3 interpretaciones del olvido:
-Tª DE LA INTERFERENCIA (unas huellas de memoria se solapan con otras produciendo una superposición
que imposibilita su recuperación.
-Tª DEL DECAIMIENTO (explica la disipación de una huella que se degrada con el tiempo)
-Tª DE LA FRAGMENTACIÓN (las huellas tienen componentes que se van borrando uno tras otro)
Ebbinghaus mostró que la memoria podía ser objeto de estudio experimental, pero sus resultados no se podían
aplicar a la realidad natural. Ebbinghaus partía de una concepción vulgar de la memoria que la reduce a un
aspecto parcial al que más se llamará MEMORIA EPISÓDICA (consiste en el recuerdo de episodios singulares y
concretos). Circunscribir la memoria a la mem. Episódica tiene consecuencias negativas. El estudio de las
actividades mentales estaba vedado en la época, y no se podía abordar la relación entre estas y la memoria o el
aprendizaje. Además, las operaciones que hacen las personas dependen del cto. que dispongan y Ebb. trataba
impedir la acción del cto. previo.
1.2. El enfoque molar de Bartlett.
Fue el primero en señalar que al impedir la acción del sdo. y el uso de reglas se enmascaran los aspectos
esenciales del funcionamiento de la memoria humana. Lo que le caracteriza según él es el esfuerzo en pos del
sdo. Cuando en un experimento los sujetos intentan aprenderse sílabas, hacen operaciones de codificación.
Barlett hizo experimentos. Hacía que sus sujetos aprendieran historias derivadas de leyendas de otras culturas.
Cuando se les decía que recordaran, no eran capaces de reproducir bien las historias, cometiendo errores
sistemáticos. Barlett empleaba el método de REPROD.SERIAL. Imitaba lo que ocurre cuando una persona le
cuenta una cosa a otra, y esta a otra tercera, etc.(Memoria colectiva), que no es un proceso psicológico. Se
producen distorsiones con respecto al relato inicial. La naturaleza de las distorsiones se producen por: omisiones
de aspectos que no encajan en el cto. previo de los sujetos, hay datos introducidos de la cosecha de los sujetos,
hay detalles que se transforman. Barlett acude a la idea de ESQUEMA para explicar los hallazgos. Sus
resultados pueban que el sistema de la memoria humana usa estructuras cognitivas abstractas o esquemas que
se originan a partir de las experiencias previas de un individuo. Al intentar aprender una historia, los sujetos
acomodan la nueva información a sus esquemas, así que cuanto mayor es la discrepancia entre estos dos
conjuntos, mayor es el número de distorsiones. Demostrar la existencia de esquemas implica que el sujeto deja
de ser pasivo, es un activo transformador de la información. Barlett no puede ser considerado psicólogo
cognitivo, porque no tenía los instrumentos intelectuales y metodológicos de la psicología cognitiva. Y tampoco
nos podemos limitar a afirmar que las personas tenemos esquemas, sino que hay que definir cómo son esas
estructuras de conocimiento.
El factor cto. previo es decisivo en los procesos de aprendizaje y memoria. Pero no se puede abordar el estudio
de esto con la idea de esquema. El método de la repr. serial no permite obtener datos cuantitativos rigurosos.
Barlett no ejerció influencia alguna como consecuencia de sus deficiencias metodológicas. Pero a mediados de
los años 60 se aprecia su trabajo. La noción de esquema se tomó como alternativa al asociacionismo. Los
esquemas han podido entenderse como redes asociacionistas.
Un cambio en el marco como consecuencia de los datos experimentales que fueron recabándose.
MCGUIRE. Tª DE LOS 3 PROCESOS. Se recuperaba el aprendizaje acerca del estímulo de Gibson, pero dicho
aprendizaje llevaba consigo la formación de una asociación entre cada estímulo y tiene una respuesta mediadora
producida por ese mismo estímulo. La existencia de tres procesos fue aceptada durante un tiempo, pero tras
experimentos, condujeron a añadir procesos, hasta 10 (BATTING).
BATTING “La suma de todos los procesos de aprendizaje en pares asociados no puede explicarse a los
principios E-R disponibles actualmente”. Los análisis E-R se extendieron al resto de paradigmas experimentales.
En el apr. serial los sujetos tenían que ordenar la aparición de las palabras de una lista además de recordarlas.
La aplicación de esquemas del condicionamiento al aprendizaje tropieza con obstáculos.
En el aprendizaje serial se formaba una asociación entre cada ítem y el posterior se asociaba con los restantes
dependiendo de la lejanía entre ambos. Esta es la HIPÓTESIS DEL ENCADENAMIENTO. Se propuso la
posibilidad de que el estímulo funcional fuera la posición del ítem en la lista, de forma que cada ítem se asociaría
con su posición serial.
Había dos candidatos para el estímulo funcional: el ítem precedente o la posición serial.
Para decidir la correcta explicación se emprenden muchos estudios, pero no se pudo establecer la correcta.
Se fue consolidando la idea de que la cuestión del estímulo funcional era un falso problema. BATTING Y YOUNG
hacen que los sujetos aprendan 2 listas seriales relacionadas de diferentes modos, y comprobaron que sus
sujetos recordaban las listas usando una estrategia, y generan reglas para relacionar una lista con la otra.
POSNANSKY, BATTING Y VOSS demuestran que dar información de la posición de un item era igualmente
efectivo como clave que darla acerca del ítem precedente, aunque las claves posición son más válidas para los
últimos ítems. Los procesos de codificación de los ítems centrales son más complejos, porque los sujetos no
empleaban ninguna clave para éstos.
Se recurría ala tª del condicionamiento para interpretar el OLVIDO. Se pensaba que su causa era el desuso que
daba lugar al decaimiento de la huella. Y ello había sido demostrado ya por Muller y Pilzeker. Hay nuevos
hallazgos según los cuales el olvido disminuye si los sujetos duermen durante el intervalo de retención. Y esto
lleva a MCGEOCH a rechazar el desuso a favor de la inhibición retroactiva (influencia negativa que un aprend.
posterior ejerce sobre otro anterior) y la tª de la interferencia. El efecto de la in. proactiva (influencia negativa que
un aprendizaje anterior ejerce sobre uno posterior) fue detectado e incorporado al olvido más tarde.
Se convino que la estrategia para explicar el olvido es usando el concepto de INTERFERENCIA (se produce
como consecuencia de la competencia entre respuestas a un mismo estímulo).
Surge la tª de los dos factores de la interferencia (se mantiene la idea de la competencia entre respuestas y se
añade un segundo factor, que es el desaprendizaje de la primitiva respuesta –B- a A. Ese mecanismo era la
extinción experimental que se produce porque en el curso del aprendizaje de la 2ª lista se evocan las respuestas
de la 1ª lista sin que fueran reforzadas. Esto obliga a pronosticar que las respuestas reaparecerían después de
un tiempo, por recuperación espontánea. La predicción: al aumentar el intervalo de retención aumenta la in.
proactiva de la 1ª lista sobre la 2ª y disminuye la in. retroactiva de la 2ª sobre la 1ª.
Pero quedaron cuestiones pendientes. Nunca llega a confirmarse que las respuestas de la 1ª lista se elicitan
durante el aprendizaje de la 2ª lista. Pero también porque se intenta probar la existencia de la recuperación
espontánea.
Hubo un estudio de POSTMAN Y STARK que comprueban que cuando se administra una prueba de
reconocimiento en lugar de una de recuerdo, la in. retroactiva alcanza valores inapreciables. No parecía haber
desaprendizaje, porque la inf. estaba disponible, aunque no fuera accesible en una prueba de recuero. Esto
obliga a una nueva tªde la interferencia. Se abandona la idea de desaprendizaje y se coge la de competencia de
respuestas, pero modificada, era todo el conjunto de respuestas de una lista la que compite con el conjunto de
respuestas de la otra.. Se postula la existencia de un mecanismo selector de respuestas.
Esta versión nueva Tª DE LA INTERFERENCIA DEL CONJUNTO DE RESPUESTAS era más apta para resolver
un problema, que es la generalización de los resultados a la explicación de cómo se produce el olvido en el
medio natural. Se debe demostrar el efecto de la interferencia en las situaciones de personas en la vida real.
SLAMECKA intenta que sus sujetos desaprendieran sus asociaciones previas, y les hizo aprender nuevas
respuestas a estímulos. En contra de lo predicho por la tª de los dos factores, en una prueba posterior, se
comprueba que las asociaciones iniciales quedaron intactas, no habían desaprendido. Podía suponerse que el
mecanismo de selección cambiaba de la situación de laboratorio a la vida real.
Los defensores de la tª interferencia persisten. UNDERWOOD Y EKSTRAND llegan a conceder que el concepto
de asociación E-R era insuficiente para dar una respuesta al problema. TULVIN Y PSOTKA encuentran efectos
de in. retroactiva en el recuero libre de listas de palabras de diferentes categorías, pero estos efectos
desaparecen si se dan como claves los nombres de las categorías.
RESUMEN: En contra de lo que cabe pensar a partir de una interpretación precipitada, la propensión a tomar
prestado el marco conceptual de la ps del aprendizaje produjo un efecto beneficioso y contribuyó a que se
superaran las posiciones ateóricas del funcionalismo. Provocó un giro en el programa de investigación de
Ebbinghaus. Se le da al aprendizaje una carta de naturaleza.
Se han intentado mostrar las claves q determinan la transformación interna del aprendizaje verbal. Un resultado
de la transformación es la ley básica del aprendizaje y memoria (lo que se aprende o recuerda depende de las
operacines mentales que se llevan a cabo), este principio da lugar a un programa cuya meta es establecer
relaciones entre cambios en la VD (lo que se aprende o recuerda) y en la VI (las operaciones mentales)
No hay una frontera definida entre el viejo y el nuevo paradigma. El término de “choque de paradigmas”
empleado por Kuhn es excesivo para describir la suave transición del aprendizaje verbal hacia nuevas
posiciones cognitivas.
La recuperación de la mente y su actividad cognoscitiva como objeto de estudio, no quedaba zanjada. Se exigía
esfuerzo intelectual para demostrar que existe una vía de análisis que permita el desarrollo de teorías sobre el
funcionamiento de la mente. El nivel de análisis más obvio es el biológico o neurofisiológico. La mente se apoya
en un substrato neuronal cuya actividad da lugar a lo que conocemos como inteligencia, memoria, percepción.
Pero, en el actual estado, este análisis ofrece pocas oportunidades. Algunos teóricos como Skinner entendían
que el único modo posible de penetrar en el misterio de la inteligencia era la anatomía del SN, pero el desarrollo
de la neurofisiología no estaba lo suficientemente maduro.
La psicología cognitiva se consolida porque se va perfilando un nivel adecuado para estudiar fenómenos de
conocimiento. Es el simbólico o algorítmico, se ve la mente como un sistema físico (el cerebro), organizado, y
tiene la capacidad de construir y manipular símbolos. Pero esta conceptualización de la mente requiere una
explicación acerca de cómo un sistema físico puede tener esa capacidad y cómo a partir de esa capacidad se
despliega la conducta inteligente. La teoría del procesamiento de la información ejerce influencia en la Psicología
en este sentido.
Como la mente humana manipula símbolos, las tªs psicológicas tiene que ser formuladas en términos
computacionales. Hay que demostrar que ese es justamente el algoritmo empleado por la mente humana que
solucione el problema. JOHNSON-LAIRD: “Las tªs sobre la mente den ser expresadas de forma que puedan ser
modeladas en un rpgorama de ordenador. Una tª puede dejar de satisfacer esto por diversas razones: puede que
sea incompleta, puede apoyarse en un proceso no computable, puede ser inconsistente o incoherente”.
Como las teorías psicológicas tienen que pasar el filtro d ela simulación en un ordenador, a algunos les parece
que ello es indicativo de que la mente funciona como un ordenador. Este es el sentido equivocado que se toma
de la “metáfora del ordenador”. Pronto se abandona ese recurso a los ordenadores como fuente para el
desarrollo de tªs psicológicas. Actualmente, es la mente la que se convierte en una metáfora para los
desarrolladores de ordenadores.
No se debe eliminar la posibilidad de que un proceso no sea computable. Podría ser que las personas llevaran a
cabo algún tipo de operación mental que no fuera asumible en el marco de la tª De la computabilidad. Esto
comportaría una limitación. Pero hasta ahora no se ha encontrado un proceso as . En algunos casos no se ha
podido encontrar una demostración de carácter simbólico-formal de algunos axiomas matemáticos. Podría
concluirse por un lado que una cosa es que no seamos capaces de demostrar determinados axiomas y otra que
sea imposible de demostrar. Y por otro lado, se niega la mente como un mecanismo formal.
Además del nivel biológico y simbólico, autores proponen otros: el racional o computacional y el de la
arquitectura funcional o de implementación.
Simultáneamente al proceso de cambio del aprendizaje verbal, los investigadores se enfrentan a un reto:
averiguar cómo funciona la mente. Se encuentra un nivel de análisis: el SIMBÓLICO, que resulta ser el
apropiado para el desarrollo de tªs científicas. Peor al principio no estaba clara la manera en que podría
abordarse esta cuestión. Primero se adopta una estrategia que fragmenta el estudio de la mente, en donde
habría diferentes subsistemas, y se convierte en la estrategia dominante en campos como la atención. El
problema fundamental de estas posiciones consiste en identificar y describir la naturaleza de los estadios que
tenían lugar en el curso del procesamiento de la información.
La fragmentación de la mente hizo que se pensara en que la información que entraba por el sistema perceptivo
debía mantenerse en fases para poder se sometida a operaciones. Así se refuerza el interés por la existencia de
memorias transitorias, donde la información se mantiene por un breve espacio de tiempo, frente a una memoria
permanente. La investigación sobre la memoria fue trascendiendo al estudio de los mecanismos de
sostenimiento temporal de la información. Se identificaron dos tipos de memorias transitorias: la memoria
sensorial y la MCP (que más adelante se convertiría en la memoria de trabajo).
El estudio de la MCP no se inició con el advenimiento de la psicología cognitiva. La idea estaba ya presente en
JAMES, quien distingue entre memoria primaria (MCP) y memoria secundaria (MLP). La distinción tenía un
carácter fenomenológico y trata de captar la diferencia entre la parte del cto que es consciente en un momento
dado, frente al que está disponible, pero no consciente. STERN siguiendo a Sund, rebautiza estas memorias con
el nombre de inmediata y mediata.
Hubo incursiones por parte de la neurofisiología. Para HEBB debía haber algún tipo de actividad neuronal. Sea
cual sea la actividad neuronal subyacente a estos cambios, se requiere que, mientras estén teniendo lugar, la
información se sostenga. Debía haber un mecanismo de mantenimiento transitorio de la información. HEBB
piensa que son las asambleas de neuronas reverberantes descritas por LORENTE DE NÓ. La razón es que en
estos conjuntos de neuronas se produciría un mecanismo de autoactivación. Hoy hay un reconocimiento de que
la primitiva explicación de HEBB no anda del todo desencaminada.
JAMES, hace una investigación sobre la MCP y las memorias transitorias, se inicia más tarde gracias a la
contribución de la tª de la información y a la evolución de las ideas habidas en el aprendizaje verbal. En este
tema se tratará de la contribución de la tª de la información al desarrollo de la noción de memoria transitoria.
Para ello se parte de una explicación sobre las aportaciones de la tª de la información al análisis del fenómeno
de las memorias transitorias. A continuación se trata del primer modelo de memoria es el de BROADBENT.
Mientras que la investigación sobre la memoria transitoria que conocemos como memoria sensorial, no resultó
decisiva, las discusiones en torno a la MCP sí tuvieron trascendencia.
Se acude provisionalmente a los esquemas de la t! De la información, desarrollada por ingenieros. Esta área de
conocimiento estuvo en boga durante los años 40, 50 y 60 del S.XX, y alcanza desarrollo teórico en esta época
hasta que se incorporó a la ciencia del procesamiento de la información.
En realidad, la estrategia inicial de segmentar el estudio de la mente en subsistemas era procedente de la tª de la
información. Estas concepciones son de otros campos externos a la Psicología y dieron lugar a un progreso
teórico que consiguió avances, pero pronto fue sustituido por el marco simbólico en el que se mueve actualmente
la Psicología.
Para la teoría de la información, el fenómeno central era la transmisión de información. Los conceptos clave de la
tª de la información son: canal: a través del cual se propaga la señal. Mensaje: contenido de la transmisión.
Señal: lo que físicamente se propaga a lo largo del canal. Código: las propiedades de la señal. Transmisor y
receptor: permiten que un mensaje se transforme en una señal y que más tarde vuelva a convertirse en un
mensaje Los teóricos de la información planteaban dos problemas: el de la capacidad del canal y el de la
codificación de un mensaje en una señal. Una herencia negativa de esta tª es que el proceso por el cual tiene
lugar la transmisión de la información es serial (o sea, que se sucede a lo largo de una secuencia fija de pasos).
Aunque, en realidad, la mente procesa prioritariamente en paralelo.
Se traba de averiguar qué es lo que ocurría entre los estímulos o entradas al organismo (aductos) y las
respuestas o salidas del organismo (eductos). Nuestra mente se entendería como un dispositivo mediador entre
una entrada de información y una salida.
La tª de la información hizo que se incorporaran a la psicología nociones como:
CODIFICACIÓN: este concepto ha llegado a ser central en la psicología de la memoria. Procesos que
determinan el modo en que se almacena la información en la mlp. Estos procesos de codificación se consideran
como procesos de aprendizaje.
CAPACIDAD LIMITADA: fructífera en el campo de la atención, pero también en los estudios sobre la mcp o de
trabajo. Esta noción es determinante para entender aspectos del funcionamiento de la mente, puesto que el
hecho de que nuestra capacidad sea limitada determina que la mente tiene que emplear estrategias para
optimizar sus recursos. Estas estrategias son dos: estructurar y automatizar.
PROCESAMIENTO SERIAL: la insistencia en este concepto llegó a ser obstáculo para el desarrollo de algunas
teorías sobre la memoria, pero no deben ignorarse aspectos seriales del procesamiento. En todo caso, un
requisito que deben cumplir las tªs sobre el procesamiento es el de mostrar la convivencia entre el
procesamiento serial y en paralelo. Sin olvidar que lo característico en la mente humana es en paralelo.
a) El modelo de Broadbent y la incorporación del estudio de las memorias transitorias al estudio de la memoria.
A partir de la influencia de la tª de la información, la mente se describe como un canal de transmisión de la
información en el que los mensajes iban sufriendo modificaciones o recodificaciones para pasar de un estadio
a otro. Así surgen modelos que se explicitan en diagramas de flujo. En el primero (Broadbent), se toma la idea
de capacidad limitada como una concepción serial de procesamiento. Debido a que era un modelo atencional,
el fenómeno que tenía que explicar el modelo era el de la selectividad atencional (como nuestra capacidad es
limitada, había que intentar describir el mecanismo que hace que las personas tendamos a unas cosas y no a
otras, de modo que el sistema no se vea desbordado).
A pesar de que el modelo trataba de este problema que plantea la atención, se convirtió en el primer modelo
de memoria. El modelo postulaba la existencia de un filtro, que es el elemento que da carácter atencional al
modelo. La función del filtro era dejar pasar únicamente aquella información que no saturara la capacidad de
una estructura. La acción del filtro estaba controlada por el sistema cognitivo que se apoya en el cto de que
disponen las personas, y por lo tanto, en la memoria permanente o la MLP. Esta selección en el modelo de
Broadbent se llevaba a cabo mediante un análisis de las características físicas de la información, lo que luego
fue falsado por los datos experimentales que posteriormente se reacabaron. El filtro estaba precedido por un
retén (buffer), que se postula debido a los resultados que Broadbent obtiene en sus experimentos de amplitud
dividida.
En estos experimentos de AMPLITUD DIVIDIDA, Broadbent empleaba un procedimiento de escucha dicótica
(de manera que por el oído izquierdo se presentan tres números: 3 2 5, y por el derecho otros tres: 4 5 9. A
continuación se pide a los sujetos que digan los números que habían oído). El resultado es que los sujeto son
decían los números en el orden en que habían sido presentados, sino primero los que habían escuchado por
un oído y luego los que habían escuchado por el otro. Broadbent pensó entonces que los sujetos cambian su
atención de un oído a otro. Pero los cambios de atención requieren algún mecanismo de sostenimiento de la
información que entra por un oído, mientras que se está escuchando por el otro. Es esta la razón por la que
Broadbent postula la existencia de un retén.
La aportación de Broadbent consiste en postular la existencia de dos memorias temporales: la memoria
sensorial y la MCP, relacionadas con la MLP. El retén de Broadbent se convertirá más tarde en la memoria
sensorial, y el canal de capacidad limitada en la MPC. En los modelos multialmacén, el retén se
corresponderá con el registrador sensorial y el canal de capacidad limitada con el almacén a corto plazo.
Esta concepción de la memoria en la que la información fluye a lo largo de dos sistemas temporales (memoria
sensorial y MCP) para llegar a la MLP, representa el punto de partida de todos los análisis posteriores, por
eso puede decirse que la incorporación de los marcos conceptuales de la tª de la información, produjo un
efecto beneficioso en el desarrollo de la tª de la memoria.
La t! De la información experimentó una evolución. El estudio de un sistema de transmisión implica
consideraciones acerca de las recodificaciones de la información. La función del TRANSMISOR consiste en
aceptar un mensaje y codificarlo en una señal. Y la del RECEPTOR en decodificar la señal. Pero el transmisor
puede realizar operaciones complejas.
La consecuencia de la disquisición sobre el desarrollo de la tª de la información es que esta acabó
confluyendo con la tª del procesamiento de la información. Así, los investigadores que se habían inspirado en
la tª de la información, adopataron modelos simbólicos del funcionamiento de la mente, Pero no hubo
choques de paradigmas, sino una transición suave de marcos. No obstante, la consideración de la mente
como un sistema compartimentado en subsistemas siguió vigente. El programa de investigación pasó a
consistir en caracterizar esos subsistemas.