Vous êtes sur la page 1sur 37

Tema 1.

- Histora y método de la Psicología moderna 1

Tema 1.- Historia, Concepto y Método en Procesos Psicológicos Básicos

1.- Evolución histórica del interés por el estudio de los Procesos Psicológicos
1.1.- Los orígenes remotos de la Psicología
1.2.- La influencia de la Filosofía
1.3.- La influencia de las Ciencias Naturales
1.4.- La conformación de la Psicología como disciplina científica
1.4.1.- Del elementalismo al estudio del proceso
1.4.2.- Enfoque molar versus análisis molecular
1.4.2.1.- La Psicología de la Gestalt
1.4.2.2.- Conductismo y Neoconductismo
1.4.3.- Énfasis en la organización funcional: el paradigma cognitivo
1.4.3.1.- Influencias en el nuevo paradigma
Aportaciones de la Teoría de la Información
La influencia de la ingeniería humana
Contribuciones de la Teoría de la Computación
La Teoría General de Sistemas y su influencia
El influjo de la lingüística chomskyana
1.4.3.2.- El paradigma de la Psicología Cognitiva
1.4.3.3.- Procesos psicológicos, Psicología y Ciencia Cognitivas
2.- Métodos de investigación
2.1.- Métodos de contrastación de hipótesis
2.1.1.- Métodos no experimentales
2.1.1.1.- Métodos descriptivos
La observación
La introspección
Problemas de los métodos descriptivos
2.1.1.2.- Métodos correlacionales
2.1.2.- Métodos experimentales
2.2.- Procedimientos experimentales
2.2.1.- Tiempos de reacción: la duración de los procesos mentales
2.2.2.- La psicofísica: estudio de la sensibilidad
2.2.3.- La Teoría de la Detección de Señales
2.2.4.- Técnicas de neuroimagen
2.2.4.1.- Neuroimágenes topográficas
2.2.4.2.- Neuroimágenes funcionales
2.3.- Procedimientos computacionales
2.4.- La Neuropsicología Cognitiva como fuente de datos
2.4.1.- Los estudios clínicos de caso único

1.- Evolución histórica del interés por el estudio de los Procesos Psicológicos
Una historia de la Psicología, en general, no es otra cosa que una historia del intento, por parte del ser
humano, de explicar el funcionamiento de la mente humana (McCorduck, 1979/1991). A medida que los
filósofos, primero, y los psicólogos, posteriormente, fueron arrojando luz sobre distintas piezas del
“mecanismo”, unas veces por argumentos especulativos y otras por la evidencia empírica, el concepto de
mente, primero psique y alma, dio paso poco a poco al de función cerebral, asumiendo que el cerebro es un
órgano susceptible de ser explicado como cualquier otro órgano humano, aunque ciertamente la complejidad
del cerebro es incluso mayor que la de cualquier otro órgano (McCorduck, 1979/1991).

1.1.- Los orígenes remotos de la Psicología


Probablemente, desde el principio de la existencia del ser humano, éste ha intentado entenderse a sí
mismo. Obviamente no se puede retroceder tanto para iniciar una aproximación histórica a la Psicología. De
acuerdo con Boring (1950/1978), se requiere un sistema de cultura que utilice el lenguaje escrito como vehículo
de comunicación, que garantice la transmisión de los conocimientos de unas generaciones a otras. Así, en la
historia de cualquier disciplina se pueden establecer dos puntos de inflexión importantes, la Grecia Clásica y
el Renacimiento. En este sentido, se pueden considerar La Ilíada y La Odisea, de Homero, como los primeros
textos, aunque literarios, donde se abordan cuestiones psicológicas (Leahey, 1997/1998).
Será con Parménides y Heráclito (aunque hay polémica en cuanto a su acmé o sus 40 años, Kirk y
Raven, 1970, consideran posible que ambos lo hubiesen alcanzado en la Olimpiada 69, entre el 504 y el 501
a.C.) cuando se inicie una de las confrontaciones intelectuales más influyentes a lo largo de la historia de la
Psicología, la filosofía de ser vs. la del devenir y que está en el origen del racionalismo y del empirismo,
respectivamente. La filosofía del ser, iniciada por Parménides y desarrollada ampliamente por Platón, supone
que hay verdades y valores universales, independientes del ser humano, que se deben buscar y utilizar como
guías del comportamiento humano. Por contra, la filosofía del devenir, iniciada por Heráclito, defiende una
realidad cambiante, por lo que no se puede hablar de verdades y valores universales, sino, que éstos dependen
del constante cambio de la realidad, cambio que esta sometido a una serie de leyes que garantizarían el
2 Procesos Psicológicos Básicos: J.R. Alameda (Departamento de Psicología)
equilibrio (Kirk y Raven, 1970, Bueno, 1974). El trasfondo de esta oposición “Ser / Devenir”ha sido el origen
de las posiciones racionalistas (Platón), conocimiento universal e innato y de las posturas empiristas
(Aristóteles), donde el conocimiento surge de la interacción con la naturaleza (Copleston, 1969/1984a, Leahey,
1997/1998).
En Platón, propiamente no se puede hablar de teoría psicológica, su desconfianza hacia los sentidos,
considerándolos inexactos, provocó que le dedicase poco tiempo al funcionamiento de los procesos
psicológicos, salvo la motivación, si bien a lo largo de sus diálogos se pueden encontrar ideas acerca de su
funcionamiento, pero sin llegar a proponer en ningún momento una teoría sistemática. Platón sí describe una
teoría de la motivación como mecanismo de explicación de la actuación humana, articulando ésta en torno a
tres tipos de almas (Copleston, 1969/1984a, Leahey, 1997/1998), la racional que es la única inmortal; la
irascible que busca la gloria y la fama y por último la apetitiva, que describe como el recipiente de los deseos
irracionales dispares (comida, sexo, etc.). Pero probablemente el valor más importante de Platón sea su teoría
del conocimiento, donde diferencia entre el mundo inteligible y el de las apariencias (en el que vivimos los
humanos, el de la imaginación y las creencias). Para Platón, nuestro conocimiento avanza recuperando en la
conciencia aquello que, aunque conocemos, ignoramos que lo conocemos (Leahey, 1997/1998) y al ser las
sensaciones inexactas, como ya se comentó, él recomienda los procesos de razonamiento sobre las
sensaciones que permitan de deducción del conocimiento (Hothersall, 1995/1997). Se puede considerar que
Platón fue el primer pensador que indagó sobre el conocimiento, cómo es posible y cómo puede justificarse,
esto le ha valido ser considerado el fundador de la epistemología (estudio del conocimiento). Creía que el
conocimiento de la verdad era inherente e innato a toda persona, para ilustrar este extremo, hablaba del niño
esclavo que sin ninguna educación y con las preguntas adecuadas podía llegar a formular el teorema de
Pitágoras. Por tanto, para Platón el conocimiento es innato, y para llegar a él no es necesario partir de la
experiencia sensorial.
Aristóteles, discípulo de Platón, es según Boring (1950/1978) “la mente más grande que ha existido”
(pág. 26), se le atribuye la clasificación y sistematización de los conocimientos de la época, incrementándolos
con sus propias aportaciones. Para Aristóteles, al contrario que Platón, el conocimiento se inicia a partir de la
percepción de los objetos particulares terminando con el conocimiento de los universales, es decir, el
conocimiento se obtiene a través de los sentidos, en base a la experiencia. Así, en la estructura de alma que
propone Aristóteles la información sensorial, la imaginación y la memoria, junto con el sentido común
conforman la adquisición del conocimiento humano, mientras que el intelecto agente activa los contenidos del
paciente para generar el conocimiento universal (Figura 1).

Figura 1.- Estructura del alma en Aristóteles, adaptada de Leahey (1997/1998).

Para Aristóteles cada uno de los sentidos especiales o especializados, detecta un tipo diferente de
información proveniente de los objetos, además, la base fisiológica de cada sentido es diferente, y la vía
neuronal de cada uno es exclusiva, pero la percepción de la realidad es completa o integrada, ya que el sentido
común permite la construcción de una representación mental simple de la realidad percibida a través de los
sentidos.
En Aristóteles también se puede encontrar una teoría de la motivación. Considera que todas las
acciones de los seres vivos están motivadas por alguna forma de deseo, siendo la imaginación la responsable
de su activación. Así, distingue entre apetito, característico de los animales y orientado a obtener el placer
inmediato, y deseo, característico de las personas, capaz de estar orientado al placer (inmediato) y a la
obtención de beneficios a largo plazo guiados por el conocimiento de lo que es justo y lo que es erróneo.
En la evolución posterior y durante la denominada Edad del Oscurantismo (500-1200) y la Edad Media
(1200-1500), aunque se puede hablar de avances científicos, sobre todo en la cultura Bizantina, en Europa
predominaron los intereses teológicos. Los pensadores estaban más ocupados en conocer la verdad revelada
por Dios, lo que les hacía buscar dogmas que guiasen el proceder humano (Boring, 1950/1978). En esta
filosofía se pueden identificar dos orientaciones diferentes: la de Agustín de Hipona (San Agustín), bajo
influencia neoplatónica y (Santo) Tomás de Aquino, influenciado por la filosofía aristotélica.
Agustín de Hipona (354-430), se sitúa en el límite entre la Edad Antigua y la Media. Mantenía una
concepción dualista del hombre tal y como se refleja en su teoría sobre el conocimiento (Copleston,
1969/1984b; Pérez, 1989). Para él conocer es una actividad propia del alma estableciendo dos clases de
conocimientos: el sensitivo y el intelectivo o racional, a su vez también con dos clases: ciencia o razón inferior
para las cosas materiales que presentan los sentidos y sabiduría o razón superior para las verdades y razones
eternas. Así, para llegar a descubrir la realidad hay que mirar hacia la propia interioridad humana (análisis
Tema 1.- Histora y método de la Psicología moderna 3
introspectivo).
Para Tomás de Aquino (1224-1274), alma y cuerpo están unidos formando un único sujeto que piensa
y siente. Así, mediante la intervención de las facultades sensitivas y de los órganos corporales, el cuerpo
participa en las actividades del alma (Copleston, 1969/1984b; Pérez, 1989). Tomás de Aquino, considera que
el proceso cognoscitivo tiene su inicio en los sentidos y finaliza en el entendimiento interviniendo, en dicho
proceso otras facultades como son el sentido común, la imaginación y la memoria, es decir, el conocimiento
se obtiene a partir de la realidad.
Habrá que esperar hasta lo que Boring (1950/1978) denomina la nueva erudición, motivada por una
serie de descubrimientos e inventos que causan que el interés por los dogmas divinos se sustituya por una
vuelta al estudio del conocimiento, el estudio de la evidencia a partir de los hechos. Para Boring (1950/1978),
en este cambio de orientación, han sido fundamentales los siguientes acontecimientos históricos:
- La utilización de la pólvora en la guerra (s. XV). Lo que contribuye al fortalecimiento de las distintas
identidades nacionales frente a los estados feudales de la época.
- La invención de la imprenta. Facilitando la producción de libros y la transmisión del conocimiento.
- La conquista turca de Constantinopla en 1440. Provoca la emigración de los intelectuales griegos a
tierras italianas provocando un nuevo interés por la civilización griega.
- El descubrimiento de América. Como resultado del interés de la exploración geográfica motivada por
la obtención de ganancias, coincidiendo con una mayor preocupación por el comercio y los negocios,
en detrimento del interés por el alma o los dogmas teológicos.
- La teoría heliocéntrica del universo de Copérnico. Con el desplazamiento de la teoría geocéntrica
también se minimiza la importancia del hombre. Se pasa de una teoría que establece que el universo
gira alrededor del hombre sobre la tierra (la geocéntrica) a otra que relativiza esta visión, al colocar al
hombre en un planeta de todos los posibles, abriendo la posibilidad de la existencia de otras almas en
otros planetas. En definitiva, el planeta tierra y el hombre dejan de ser el centro del universo y ser un
elemento más de los que giran alrededor del sol.

1.2.- La influencia de la Filosofía


Han sido varias las influencias que ha tenido la Psicología en su desarrollo histórico, ya el propio Wundt
(1883/1999) consideraba que la Psicología experimental nacía en una posición privilegiada al aprovecharse
de los trabajos previos realizados por la física y la fisiología. Leahey (1997/1998) señala que el origen de la
Psicología es el resultado de un matrimonio entre filosofía y fisiología, es decir, la Psicología surge por la unión
de los problemas heredados de la filosofía con los métodos, técnicas e instrumentos que se toman prestados
de otras ciencias, como la fisiología (Caparrós, 1986).
Los antecedentes filosóficos inmediatos en el origen de la Psicología, como disciplina científica, se
pueden situar en el Renacimiento. Está presente la confrontación racionalismo/empirismo, ya iniciada en la
Grecia Clásica, debatiéndose entre el innatismo y el empirismo en el origen del conocimiento. Estas dos
posiciones estarán representadas por las posiciones contrapuestas de Descartes (racionalismo) y Locke
(empirismo).
Descartes (1596-1650), puede ser considerado padre de la Psicología Fisiológica y de la Reflexología
(Boring, 1950/1978; Sahakian, 1975/1987) y además, antecedente de la Ciencia Cognitiva (Gardner,
1985/1987). Sus aportaciones más importantes a la Psicología serán, por un lado, su concepción dualista del
ser humano con dos dimensiones: mente y cuerpo. El cuerpo es el aspecto físico del ser humano y está regido
por las leyes de la física, mientras que la mente supone la dimensión espiritual y sólo es propia de los humanos,
ambas interactúan en la glándula pineal, de esta distinción surge la clasificación de los actos humanos en
mecánicos (propios del cuerpo) y racionales (propios del alma). Por otro lado, la teoría del arco reflejo, que
puede ser considerada como un sistema simple de procesamiento de la información, ya que consta de tres
elementos, una entrada o input, un punto (del cerebro o de la médula espinal) donde se procesa el impulso
entrante y es convertido en respuesta o impulso de salida, y el impulso de salida. La conducta refleja estaría,
según Descartes relacionada con el cuerpo, y por tarto regulada por las leyes de la física. Además, el ser
humano también tendría conductas basadas en la razón, propias del alma y controladas por la voluntad,
contemplando la existencia de ideas innatas. Relacionado con todo esto, Descartes considera que hay dos tipos
de ideas, las derivadas, propias de la experiencia sensorial directa y las innatas, independientes de la
experiencia sensorial y elaboradas fuera de la conciencia.
Las ideas racionalistas de Descartes fueron recogidas a finales del siglo XVII por Kant. Para Kant la
mente estructura activamente la experiencia para producir una forma organizada y cognoscible (Leahey,
1997/1998). Además incorpora una noción de esquema, que actúa como representación intermedia entre los
sentidos y las categorías a priori, así, el esquema representaría el mundo de los hechos (experiencia) y la lógica
de los conceptos. Estas ideas coinciden, en parte, con la idea actual de esquema como entidad conceptual,
que interviene en procesos perceptivos, de comprensión, memoria o pensamiento. Esta concepción racionalista
tuvo influencia posteriormente en la Gestalt y la Escuela de Würzburgo, incluso Chomsky (1965/1976) le ha
reconocido cierta influencia en sus teorías. La concepción cartesiana de la mente como instrumento racional
sigue estando todavía vigente en muchos de los planteamientos cognitivos. La figura de Kant resulta importante
para la conformación de la Psicología como disciplina científica (Fernández, 1996), así, en los orígenes de la
Psicología científica existía un clima intelectual de recuperación Kantiana que permite redefinir el sujeto
trascendental en sujeto natural, es decir, como conjunto de procesos empíricos (Sánchez, Fernández y Loy,
1995).
Como antítesis de Descartes, Locke defendía que al nacer el ser humano es una tabula rasa y, por
tanto, todo el conocimiento se origina por la experiencia, es decir, no hay conocimiento innato. Locke,
4 Procesos Psicológicos Básicos: J.R. Alameda (Departamento de Psicología)
consideraba que había dos tipos de ideas, las de la sensación que estarían suscitadas por los objetos del
mundo real (percibir color o escuchar música) y las de la reflexión que se basarían en las sensaciones sin
depender de ellas. Así, para comprender el conocimiento debemos estudiar las sensaciones que producen los
estímulos y cómo reflexiona la persona sobre sus sensaciones previas, ya que para él todas las ideas, por
complejas que fuesen, se derivan de combinaciones de sensaciones y reflexiones. La influencia del empirismo
inglés continúa con Berkeley, Hume y Hartley, y culmina en el asociacionismo británico del siglo XIX (Leahey,
1997/1998). Los asociacionistas abundan en la importancia de la experiencia, afirmando, de forma explícita,
que el conocimiento se adquiere por medio de asociaciones, Hume, propuso tres leyes asociativas, la ley del
parecido, la de contigüidad y la de causa y efecto, que pretenden describir el modo en que se crean y combinan
los contenidos mentales, el conocimiento. La asociación, como principio fundamental, está presente en Wundt
y es uno de los presupuestos teóricos del conductismo. La influencia asociacionista también puede apreciarse
en desarrollos actuales como la Inteligencia Artificial.
La filosofía ha permitido delimitar el problema psicológico, la naturaleza del conocimiento humano. Si
bien desde la filosofía se pueden encontrar posturas enfrentadas, como los planteamientos kantianos que
consideraban que la Psicología no podía alcanzar el status de ciencia, o los de Herbart, defendiendo que los
procesos mentales podían ser medidos y, en consecuencia, estudiados de forma empírica (Boring, 1950/1978;
Sahakian, 1975/1987; Leary, 1978; Legrenzi, 1986; Leahey, 1997/1998). Así, la Psicología ha de plantearse
desgajarse de la filosofía y para ello, ha de cambiar la lógica y los métodos argumentativos por el método
científico, del que ha de tomar la metodología, técnicas e instrumentos (Caparrós, 1986).

1.3.- La influencia de las Ciencias Naturales


Los orígenes de la Psicología como disciplina científica no van más allá de la segunda mitad del siglo
XIX, de la mano de los fisiólogos, ya que empezaban a utilizar por primera vez los métodos científicos para
estudiar el cerebro, los nervios, los órganos sensoriales, etc.. Boring (1950/1978) fecha la fundación de la
Psicología experimental en 1860, precisamente el año en el que se publica el libro de Fechner “Elementos de
Psicofísica”. La importancia de Fechner radica en que desarrolló nuevos métodos de medición, inaugurando
así la Psicología Experimental cuantitativa. Sin embargo, todos los historiadores reconocen en Wundt al primer
psicólogo, a partir del cual la Psicología alcanza su status de ciencia independiente, con el mérito de haber
establecido sus fundamentos paradigmáticos (Caparrós, 1980), y hacen coincidir el origen de la Psicología con
el año 1879, cuando Wundt fundó el primer laboratorio de Psicología en Leipzig, dedicado al estudio
experimental de los procesos mentales, aunque ya unos años antes, en 1873, Wundt había definido en su obra
“Principios de Psicología”la Psicología científica (Leahey, 1997/1998).
Weber (1795-1878) fue uno de los primeros científicos que intentó medir los límites de la sensibilidad
de los órganos sensoriales con técnicas propias de la física, utilizando a observadores bien entrenados,
considerando que se podrían aplicar leyes a la percepción psicológica de la misma forma que se aplicaban al
mundo físico, planteando la que sería la Ley de Weber, que comentaremos más adelante. La formulación de
esta ley tuvo gran influencia en Fechner (Baird y Noma, 1978) y abría la posibilidad de estudiar los procesos
psicológicos con métodos científicos.
Con estos antecedentes, Fechner (1801-1887), en consonancia con la filosofía y el vocabulario de su
época, intentó definir la relación entre cuerpo y mente y establecer una teoría exacta de esa relación (Forgus
y Melamed, 1989). Fechner entendía la percepción como un proceso que iría desde la estimulación externa
hasta la producción de actividad cerebral y, desde esta actividad cerebral a la producción de una sensación
consciente. Una de sus contribuciones más importante es la ley logarítmica, donde básicamente se establece
que todo incremento en el continuo estimular va a provocar aumentos en el continuo sensorial.
Tanto Weber como Fechner pusieron de manifiesto que los métodos científicos se podían aplicar al
estudio de los procesos mentales, especialmente al estudio de la relación entre la estimulación física y la
sensación. Si bien su influencia fue importante en los orígenes de la Psicología, no podemos olvidarnos de otra
influencia, no menos importante, también proveniente de las ciencias naturales, la teoría de la evolución de
las especies de Darwin.
La tesis imperante, a lo largo de la historia, sobre el origen de la biodiversidad del planeta ha sido la
de la creación divina, aunque, también es cierto, que siempre ha habido pensadores aislados que creían en
una alternativa a la creación sobrenatural, en la Grecia Clásica dominaba la noción de que las especies se
transformaban de unas a otras. Esta idea fue retomada en el siglo XVIII por pensadores como Maupertuis,
Erasmus Darwin (abuelo de Darwin) o Lamarck, siendo ya habitual en el siglo XIX, especialmente en los
ambientes geológicos (por los fósiles encontrados), aunque siempre de forma vaga y sin que existiera una
visión clara del mecanismo que podía originar estas modificaciones. Fue Darwin quien, incitado por la
publicación del descubrimiento de Wallace de su principio de la selección natural, estableció finalmente la
teoría de la evolución (Boakes, 1984/1989). A partir de 1859 se fue consolidando la teoría de la evolución y la
idea de que todas las especies vivas habían evolucionado de otras. Incluso la biología molecular moderna
parece confirmar la idea de un antecesor común ya que todas las formas de vida conocidas comparten el
mismo código genético, siendo improbable que hubiesen evolucionado de forma independiente, como señalan
Tooby y Cosmides (1989), en la tierra hay millones de especies animales, cada una presenta una
“programación”cognitiva diferente a partir del mismo tejido neural básico, al tiempo que podría soportar otras
programaciones diferentes.
La idea de estudiar la conducta animal para comprender la mente humana y su evolución fue
propuesta, al mismo tiempo, por Darwin y Spencer (Boakes, 1984/1989). La teoría de la evolución supuso la
aportación de un nuevo enfoque en el estudio de la conducta humana, planteando ésta como el resultado de
un proceso de adaptación al medio. Así, la teoría evolucionista, plantea que los recursos limitados del medio
Tema 1.- Histora y método de la Psicología moderna 5
en el que vive una especie, llevan una lucha por la supervivencia, tanto inter-especies como intra-especie, de
la que sólo los más aptos salen airosos. Por tanto, esta lucha por la supervivencia diseña una selección natural
de aquellas especies, en general, e individuos, en particular, que mejor adaptados al medio se encuentran. La
teoría evolucionista resultará importante para la Psicología al establecer un continuo entre los animales y el
hombre. Así, el cuerpo y la mente del ser humano son fruto de su evolución filogenética, por lo que su estudio
debe tener en cuenta esa evolución. Las obras más importante de Darwin y de la teoría de la evolución, son
El origen de las especies, publicado en 1859 (traducido al castellano en 1988), aunque en 1844 ya había
publicado un resumen de sus ideas evolucionistas. También es destacable El origen del hombre y la selección
en relación al sexo, publicado en 1871 (versión castellana de 1982), y, La expresión de las emociones en los
animales y en el hombre, publicada por Darwin en 1872 (traducida al castellano completa en 1984), donde
desarrolla y aporta evidencias sobre la continuidad entre la mente de los animales y la del ser humano (Boring,
1950/1978). La importancia de Darwin en la ciencia, en general, es indiscutible, su mayor aportación fue
estimular el pensamiento de su época y despertar el interés por la herencia, especialmente la herencia mental.
Sus aportaciones teóricas también fueron la llave para abrir campos de investigación nuevos, como la
Psicología animal.

1.4.- La conformación de la Psicología como disciplina científica


La polémica es algo que caracteriza a la historia de la Psicología. Las discusiones han versado sobre
todo tipo de planteamientos y, por supuesto, la consideración de la Psicología como ciencia natural o ciencia
social. Ésta surgió a finales del siglo XIX, como ciencia natural y desligada de la especulación. En sus inicios
como enfoque científico y definida dentro del marco del positivismo, esta ciencia se puede considerar una
síntesis entre la Física, la Fisiología y la Filosofía del Conocimiento (Delclaux, 1994). Posteriormente, el
conductismo optó por continuar en la línea de este enfoque positivo-natural. En ambos casos, no estuvieron
libres de críticas y oposición desde la propia Psicología científica. Una vez constituida como ciencia la
Psicología parecía insuficiente restringir sus investigaciones a los problemas mente-cuerpo y sus relaciones
físicas con el exterior. Como señaló Pinillos (1981) la Psicología adopta el modelo epistemológico de la ciencia
natural (especialmente de la física) lo cual ha supuesto la imposición de una serie de restricciones
metodológicas y teóricas impropias de su objeto de estudio. Por esta razón, la Psicología científica intentó ir
más allá, preocupándose también por los problemas sociales, culturales y, en definitiva, personales del
comportamiento humano que constituyen su objetivo principal, lo cual implica la necesidad de un pluralismo
epistemológico y de criterios flexibles para la integración del campo de estudio (Pinillos, 1980, 1994; Seoane,
1981; Mayor y Pérez Ríos, 1989; Pérez, 1990).

1.4.1.- Del elementalismo al estudio del proceso


La fundación del que se considera el primer laboratorio de Psicología, en Leipzig, en 1879, señala el
punto de partida formal en que la Psicología se convierte en ciencia experimental. En este laboratorio se
llevaron a cabo estudios sobre la percepción y atención, como describir y analizar las experiencias sensoriales
según su modalidad (vista, oído, tacto, gusto, olfato) y sus cualidades (intensidad, duración, extensión, etc.);
clasificar sensaciones según distintas dimensiones; medición de los tiempos de respuesta; descubrir y explicar
ilusiones ópticas, contrastes visuales y diferenciación de colores, etc.. Algunos resultados de estas
investigaciones fueron publicados en la revista Philosophische Studien, fundada en 1881 y considerada como
la primera revista de Psicología experimental (Ballesteros y García, 1995), cuya función principal fue la de
publicar los trabajos del laboratorio de Leipzig, de hecho, en los 22 años de duración de la revista, más del 75%
de los trabajos publicados fueron escritos por Wundt, alumnos, colaboradores o asistentes (Sáiz, Sáiz y
Mülberger, 1990, 1999). Sus trabajos son, en cierto sentido, un anticipo de algunos temas que forman parte
de la Psicología Cognitiva actual, y especialmente la sensación y la percepción (Sáiz et al., 1990, 1999).
Wundt concebía la Psicología como el estudio científico de la conciencia, de la experiencia inmediata.
La tarea del psicólogo sería analizar, a través de técnicas introspectivas, los elementos de la conciencia y las
leyes por las que se rigen. Así, la atención sería el proceso que podría sintetizar los elementos en unidades
globales, además, las ideas atendidas o que entran en el foco de la atención (son apercibidas) son la base de
formas superiores del pensamiento, razonamiento o lenguaje, dimensiones que no se podían estudiar
correctamente mediante técnicas introspeccionistas, ya que es difícil establecer si el sujeto tiene acceso a sus
propios procesos mentales (Nisbett y Wilson, 1977; Ericsson y Simon, 1980), por ello, para Wundt los procesos
superiores sólo podían estudiarse sobre la base de las realizaciones sociales y culturales y por ello para su
estudio habría que recurrir a la historia y al método histórico. Fue Ebbinghaus, a finales del XIX, quien intentará
el análisis experimental, mediante procedimientos fechnerianos, de procesos mentales, especialmente de la
memoria, un tema tomado del asociacionismo británico. Su principal contribución fue la utilización de una
aproximación sistemática, rigurosa y objetiva al estudio de la memoria, inaugurando con ello toda una tradición
en el estudio experimental de la memoria.
Para Wundt y el estructuralismo, fundado por su discípulo Titchener, el objeto de estudio de la
Psicología era el estudio analítico de la mente humana, especialmente las operaciones mentales centrales
(intenciones, valores, motivos, sensaciones, etc.) y sus combinaciones y relaciones. Consideraban la mente
como procesos y trataban de buscar su estructura elemental, sus elementos básicos y sus atributos, es decir,
el análisis de los procesos básicos, descubrir sus combinaciones y conexiones y localizar estructuras afines en
el sistema nervioso. Estas posturas fueron acumulando gran número de críticas que se dirigen a su objeto de
estudio, a su enfoque y/o al método introspeccionista. Titchener es un personaje clave en la institucionalización
de la Psicología en Estados Unidos (Tortosa et al., 1994, 1995) sin embargo, su importancia ha sido
relativamente minimizada, Boring (1959/1978) comenta que cuando Titchener habla o escribe sobre Wundt
6 Procesos Psicológicos Básicos: J.R. Alameda (Departamento de Psicología)
realmente utiliza las mismas palabras que si estuviese hablando de sí mismo, lo que hace que algunos
historiadores consideren que Boring utiliza la figura de Titchener para estudiar y explicar a Wundt,
presentándolo aislado de las principales corrientes psicológicas (Tortosa et al., 1994, 1995).
La Escuela de Würzburgo, que surge en torno al psicólogo y filósofo alemán Külpe, supone un
enfrentamiento a los planteamientos de Wundt. Se consideró que el pensamiento se podía estudiar en el
laboratorio, de forma experimental, al igual que Ebbinghaus con la memoria. Sus investigaciones, utilizando
técnicas introspectivas, ponían de manifiesto la existencia del pensamiento sin imágenes (en contra de lo
afirmado por Wundt) y de un pensamiento directivo (en contra de los planteamientos asociacionistas). La
contribución fundamental de esta escuela, más que en sus resultados experimentales, está en haber supuesto
un tránsito desde una Psicología elemental a una Psicología del proceso o Psicología funcional (Sahakian,
1975/1987; Leahey, 1997/1998).
El funcionalismo es otro de los movimientos que surgen contra los planteamientos estructuralistas,
sistema al que consideran artificioso, estrecho y esencialmente inexacto. Para James la conciencia es única
y personal, cambia constantemente, evoluciona con el tiempo y es selectiva con los estímulos que la asedian
para ayudar al ser humano a adaptarse a los distintos ambientes. Así, los funcionalistas critican el
elementalismo titcheriano y centran su interés ya no en el estudio de los elementos de la conciencia, sino en
las funciones de los procesos mentales, entendiéndolos como procesos dinámicos y no como contenidos
estáticos, en definitiva, están interesados en el estudio de la “utilidad”de la conciencia. Cuando James escribió
en 1890 su Principles of Psychology le dedicó capítulos a la atención, la memoria, las imágenes mentales y
el razonamiento, pero como objeto principal de la investigación funcionalista también se consideraban la
sensación, la motivación, el pensamiento y, fundamentalmente, el aprendizaje. Para James la conciencia
presenta dos tipos de funciones, las primarias (los instintos, los hábitos y las emociones) y las secundarias
(funciones selectivas y de adaptación al medio). Una de sus contribuciones más significativa a la Psicología
actual es su modelo de memoria (Matlin, 1983), en la que propone dos tipos de memoria y diferencia entre
estructuras y procesos, planteamientos que volverán a estar presentes ochenta años más tarde.
El tránsito del estructuralismo al funcionalismo, supone lo que algunos autores han identificado como
la primera gran crisis en la historia de la Psicología (Caparrós, 1979). Cada vez es mayor la insatisfacción que
produce el elementalismo teórico de los estructuralistas y las deficiencias de sus procedimientos introspectivos.
En el Cuadro 1 (página siguiente) se presentan resumidas las principales características de ambas escuelas.
En el siglo XX, surgen dos movimientos que se alzan en contra del estructuralismo: uno en Alemania, la
Gestalt, y otro en América, el Conductismo.

Estructuralismo Funcionalismo

La escasa investigación psicológica, a mediados del siglo XIX, se Se caracteriza por el estudio de los aspectos funcionales o
caracterizaba por centrarse en temas elementales y muy específicos. adaptativos de la conciencia y no los aspectos estructurales y su
Wilhelm Wundt (1832-1920), gracias a su formación en filosofía, enfoque teórico. En consecuencia, América y Europa tienen objetivos
química, fisiología y psicología, elaboró un sistema científico diferentes y, así en EE.UU. el modelo de Darwin es aceptado.
psicológico. En este sentido, publica en 1873-1874 el primer gran
tratado de psicología científica y, algunos años más tarde (1879)
funda el primer laboratorio de psicología experimental en Leipzig
donde tuvo lugar la formación de psicólogos de todo el mundo. Con
la muerte de Wundt en 1920, la Gestalt (escuela fundada en 1912)
reemplaza el estructuralismo.

MÉTODO Y TÉCNICAS DE INVESTIGACIÓN

El objetivo de Wundt era convertir la psicología en una ciencia. Así, El interés del funcionalismo es la utilidad de sus resultados, por ello
observando los avances de la química debidos al método que utiliza, utiliza todos aquellos procedimientos científicos que le ayuden. De
adopta este método. En este sentido, analiza la conciencia para esta forma, se importan las técnicas psicométricas de F. Galton que
encontrar los últimos elementos, siendo la introspección con sirven para detectar la magnitud de las habilidades y clasificar de
controles experimentales muy precisos la única vía de acceso. forma comparativa a las personas entre sí. Así, destaca el artículo de
También se enseña a identificar los contenidos de la mente. McCattell “Mental test”(1890) y la adaptación americana de la escala
La escuela de Würzburgo analiza la conciencia mediante un análisis de inteligencia de Binet y Simon (1904) realizada por L. Terman
retrospectivo para identificar los elementos y estudiar el proceso (1917).
mental. Este procedimiento es criticado por Wundt, ya que la persona
puede olvidar o inventar al tener que informar sobre la totalidad del
proceso.

SÍNTESIS DOCTRINAL

La búsqueda se dirige a la estructura elemental del proceso de El objetivo consiste en estudiar los procesos mentales en su
conciencia. Según Wundt y Titchener, los últimos elementos de ésta dimensión funcional. Dicho en otras palabras, como instrumentos de
son las sensaciones, imágenes, sentimientos, sus atributos, la persona con el fin de conseguir una mejor adaptación al ambiente.
cualidad, duración, intensidad y claridad. Por otra parte, los Se estudia la conciencia, el proceso de pensar, el hábito, el control de
fenómenos complejos de la mente (percepciones, conceptos, la emoción partiendo de un enfoque evolucionista y pragmatista y bajo
emociones, voliciones, etc.) son el resultado de la combinación de la dirección del decano de la psicología norteamericana William
diversos elementos simples. James.
La escuela de Würzburgo ha defendido que el pensamiento también El trabajo en la psicología diferencial por medio de los tests influyó
es un último elemento de la conciencia, por ello, se interesa por el decisivamente en el desarrollo de la psicología aplicada en diferentes
proceso de pensar. Este proceso se explica en base a un proceso campos (pedagógico, industrial y militar). En el ámbito evolutivo, el
activo en el cual la persona pasa de un contenido a otro de enfoque de Baldwin hará más sencillo el estudio de las diferentes
pensamiento siguiendo una serie de normas o principios etapas de desarrollo del niño. La psicopedagogía se enriquecerá con
establecidos, y no sólo mediante el principio general de asociación la aplicación de las investigaciones relativas a la ley del efecto de
por contigüidad. Thorndike en el rendimiento escolar.
Cuadro 1.- Principales características del Estructuralismo y del Funcionalismo. Adaptado de García y Moya (1989).
Tema 1.- Histora y método de la Psicología moderna 7
1.4.2.- Enfoque molar versus análisis molecular
Gestalt y Conductismo, como sistemas psicológicos, tienen en común su protesta contra el
estructuralismo, pero mientras que los primeros provienen de la tradición racionalista, los segundos, presentan
una base netamente asociacionista. Lo que hace que la Gestalt muestre su desacuerdo con el análisis de la
conciencia en elementos, mientras que el conductismo arremete contra la inclusión de datos de la conciencia
en Psicología (Boring, 1950/1978; Leahey, 1997/1998).

1.4.2.1.- La Psicología de la Gestalt


La Psicología de la Gestalt supuso una reacción contra el análisis molecular de los estructuralistas y
contra la aproximación reduccionista de los asociacionistas. Se suele considerar como acta fundacional de la
escuela el artículo de Wertheimer, publicado en alemán en 1912 y traducido al inglés en 1961, Estudios
experimentales sobre la visión del movimiento, donde se describe el fenómeno phi o movimiento aparente y
cómo la percepción del movimiento no puede explicarse en función de los elementos sensoriales que lo
componen. Los campos de investigación de la Gestalt fueron, fundamentalmente, percepción, pensamiento
y solución de problemas, abordando su estudio desde un enfoque global (holístico) frente a los estructuralistas,
y con énfasis en la molaridad frente al análisis molecular, que propugnaban estructuralistas y conductistas.
Tradicionalmente, al nombre de Wertheimer, se asocia los nombres de Köhler y Koffka, como máximos
representantes de la Psicología de la Gestalt.
Desde la Gestalt se formularon una serie de leyes sobre la organización perceptiva (proximidad,
semejanza, cierre, pregnancia, etc.), resultando ya clásica su concepción sobre la estructura perceptiva, que
en síntesis, postula, que la percepción surge de un análisis holístico, que no se puede reducir a la suma de sus
componentes, es decir, el todo es algo más que la suma de sus partes.
Köhler (1917/1989) aplicó el enfoque molar y los principios gestálticos de la percepción al estudio de
solución de problemas, especialmente con animales. En su obra Experimentos sobre la inteligencia en
chimpancés, publicada en 1917 (versión castellana de 1989), plantea que los chimpancés llegan a encontrar
la solución de un problema cuando realizan una reestructuración del campo perceptivo, con lo cual se obtiene
una nueva estructura medio-fin (objeto-meta), es decir, los chimpancés son capaces de percibir relaciones entre
estímulos y no-estímulos aislados.
Este planteamiento choca con las posturas conductistas contemporáneas, donde, por ejemplo, para
Thorndike, el animal aprende por ensayo y error. Por ello, la Gestalt supone una alternativa al enfoque
conductista, iniciando la controversia relativa al carácter continuo o discontinuo del aprendizaje (Legrenzi,
1986).
El enfoque de Köhler es aplicado por Wertheimer (1945/1959) al estudio de los procesos del
pensamiento humano, proponiendo que existen dos formas de resolver un problema. En un caso existiría una
reorganización del campo (pensamiento productivo), mientras que en el otro se llegaría a la solución sin dicha
organización y, por consiguiente, sin comprensión (pensamiento reproductivo). En definitiva, el pensamiento,
especialmente la solución de problemas, es considerado como un proceso de resolución de tensiones, a través
del cual el sujeto es capaz, en un momento de insight (pensamiento productivo) de eliminar la fijeza funcional
y llegar a encontrar una solución al problema.
Como problemas de la escuela de la Gestalt, se señala la escasa precisión de los conceptos postulados
(Carpintero, 1976; Anderson y Borkowski, 1978; Caparrós, 1980), el carácter descriptivo y la falta de evidencia
empírica de sus constructos -como la fijación perceptiva- (Weisberg y Alba, 1981, 1982), así como su
eclecticismo metodológico. Esto hace que no resulte fácil evaluar su contribución a la Psicología actual. Si bien
su acierto puede ser el aportar una visión arriba-abajo guiada por la cognición, propia del racionalismo, y su
énfasis en la molaridad, frente a enfoques moleculares, una de sus aportaciones importantes puede ser la de
incorporar nuevos problemas al campo psicológico, más que por sus aportaciones teóricas. Para Marr
(1982/1985), el hundimiento de la Gestalt fue motivado, básicamente, por su ignorancia matemática y por
carecer de la noción de proceso (procesamiento), pero esto no resta valor a que algunas de sus ideas
originales fueran valiosas y se hayan vuelto a plantear en diferentes momentos y desde diferentes perspectivas.
Algunos autores señalan la influencia en el marco conceptual de la Psicología Cognitiva (Wessells, 1982), así,
en planteamientos actuales se pueden ver reflejadas ciertas influencias gestálticas, desde los modelos
conexionistas (Rumelhart y McClelland, 1986) hasta teorías de la percepción, como el enfoque ecológico
(Gibson, 1950/1974, 1966, 1979; Carpintero, 1976) o la teoría computacional de Marr (Marr, 1982/1985; Bruce
y Green, 1990/1994) otros, consideran que no ha tenido una audiencia adecuada entre los psicólogos actuales,
probablemente por sus teorías de contenido casi místico (Leahey 1997/1998), pero, sin duda, sus
descubrimientos perceptivos, como el movimiento aparente, han de incorporase a cualquier tipo de teoría
perceptiva de carácter psicológico. Su influencia fue más notable en áreas como la Psicología Social (teoría
del campo de Lewin), de la personalidad o la fenomenología experimental (Caparrós, 1979). En el Cuadro 2
se presenta un resumen de los principios de la escuela de la Gestalt.

1.4.2.2.- Conductismo y neoconductismo


El estudio de los procesos cognitivos sufre un punto de inflexión con la aparición del programa
conductista en América. El nacimiento del nuevo paradigma conductista está marcado por el artículo
programático de Watson (1913) “Psychology as the Behavioral views it”, lo cual supone lo que se conoce como
revolución conductista que, desde sus orígenes norteamericanos, llegará a dominar el panorama de la
Psicología durante varias décadas.
El conductismo clásico (ver Cuadro 2) surge en torno a la figura de Watson, presenta raíces
asociacionistas y del pragmatismo (combinación de asociacionismo y planteamientos darwinistas) y se puede
8 Procesos Psicológicos Básicos: J.R. Alameda (Departamento de Psicología)
considerar una evolución del funcionalismo. El nuevo planteamiento conductista puede considerarse
revolucionario por dos razones: por su concepción de la Psicología y por todo aquello que excluyó del campo
de estudio de la Psicología, tachándolo de no-científico, excluyendo todo aquello que no pueda ser sometido
a un análisis objetivo, es decir, todo lo que no puede ser explicado en términos de estímulos y respuestas.
Aunque Watson, es considerado un ambientalista radical, por su famosa frase de los 12 niños, durante
la mayor parte de su vida defendió la interacción de la herencia y el ambiente, es decir mantuvo posiciones
interaccionistas (Tortosa, Calatayud y Pérez-Garrido, 1996). Sus aportaciones fueron importantes para que
los intereses de la Psicología girasen hacia un funcionalismo más centrado en la conducta, por ello, algunos
autores proponen que Watson debiera ser considerado como epónimo de conductismo (Tortosa et al., 1996;
Tortosa, Pérez-Garrido, Civera y Pastor, 2001).
Watson (1913) define la Psicología como la rama de la ciencia natural que tiene como meta teórica
la predicción y el control de la conducta y cuyo objeto ha de ser el análisis de la conducta. Así, Watson concibe
la Psicología como ciencia objetiva y experimental, por ello, la introspección no forma parte de sus métodos
de investigación, ni sus datos experimentales han de interpretarse en términos de conciencia, lo que supone
un rechazo del mentalismo y el introspeccionismo. Así, el psicólogo, o el conductista, en analogía a la teoría
de la evolución de Darwin, debe conseguir un esquema unitario de la conducta, sin establecer divisiones entre
los animales y el hombre. Por tanto, la conducta humana, con todo lo compleja que puede parecernos, es una
parte del interés del psicólogo (Watson, 1913). De ahí que una fuente importante para el conductismo sea la
Psicología animal, ya que Watson no establece ninguna diferencia entre Psicología animal y Psicología
humana, asumiendo los principios darwinistas del evolucionismo (Leahey, 1997/1998). En concreto, asumen
la hipótesis fijista del evolucionismo (de Vega, 1981, 1984), es decir, los principios de la conducta son leyes
generales que se pueden aplicar en toda la escala filogenética.
El conductismo, como teoría de la tradición empirista (asociacionista), defiende el metapostulado
terminal (Bever, Fodor y Garret, 1968; Anderson y Bower, 1973/1977; Anderson, 1976; Delclaux, 1982), por
ello, los principios que lo caracterizan son:
- Reduccionismo: Toda conducta o experiencia humana se puede descomponer en un conjunto de
elementos simples (estímulos y respuestas).
- Conexionismo: Los elementos básicos, potencialmente observables, de toda conducta se asocian
mediante conexiones entre ellos.
- Sensorialismo: Todo conocimiento tiene una base sensorial.
- Mecanicismo: Todo comportamiento se puede interpretar en función de leyes asociacionistas; la
conducta está controlada por contingencias del ambiente.
- Causalidad lineal: Todo puede ser explicado en términos de causa-efecto.
Al asumir el conductismo, como presupuesto teórico, que todo comportamiento surge de contingencias
ambientales, el aprendizaje pasa a desempeñar un papel principal. Así, el estudio del aprendizaje y el
condicionamiento clásico (que toma de la Reflexología -ver Cuadro 2-) serán los temas que centren,
fundamentalmente, el interés de toda la investigación conductista. Obviamente, los procesos cognitivos no
escapan de esta situación, la memoria se considera como una recuperación de un hábito y tanto el
pensamiento como el lenguaje son tratados como meros hábitos periféricos, así, los lingüistas abandonaron
el mentalismo y asumieron la visión conductista del significado, es decir, las palabras sustituyen a los objetos.
“La mente” fue expulsada del objeto de estudio de la Psicología considerándose que no desempeña ningún
papel en la determinación de la conducta. El tabú sobre la mente se reforzó con un argumento seductor, el
“dilema del teórico”, que se plantea en los siguientes términos:
- Supongamos que hay estados mentales que intervienen entre un estímulo (Input) y una respuesta
(Output). Ante la pregunta ¿los estados mentales intervienen de forma expresable mediante leyes?,
la respuesta puede ser:
- Si. Entonces los estados mentales pueden ignorarse y formular una ley que relacione
directamente el input con el output.
- No. Entonces el investigador no debe referirse a los estados mentales.
- En conclusión, para definir una ley psicológica, no hay necesidad de referirse a los estados mentales,
ya que estos son o innecesarios, o indescriptibles.
Para Johnson-Laird (1988/1990), este dilema plantea un argumento atractivo, pero se basa en dos
supuestos falsos. El primero es que la ciencia persigue explicar fenómenos, no sólo describirlos mediante leyes.
Por ello, si existen los estados mentales, estos han de formar parte de una explicación psicológica completa,
aunque pudieran expresarse a partir de leyes de comportamiento. El segundo es que algunas conductas no
están controladas, necesariamente, por los estímulos ambientales, por ejemplo, el habla espontánea, la
solución de problemas, etc.. Del mismo modo, que no siempre hay una conducta observable, por ejemplo, la
percepción. Así, para explicarse estos procesos (la percepción, la comunicación, etc.) deben, necesariamente,
invocarse procesos mentales (Johnson-Laird, 1988/1990).
Esta visión de la conducta sufrió muchas críticas, incluso internas dando lugar a lo que se conoce como
neoconducismo, especialmente a partir de los años treinta, centrado en Hall, Tolman, Guthrie y Skinner. Este
movimiento busca sus fuentes metodológicas en el neopositivismo lógico y operacionismo, así, cualquier
enunciado, psicológico, sólo es científicamente válido si hace referencia a hechos (o conductas) que pueden
explicarse en lenguaje fisicalista y si utiliza conceptos operativizables (Boring, 1950/1978; Caparrós, 1980;
Legrenzi, 1986; Leahey, 1997/1998). En el caso del estudio de los procesos psicológicos, Fodor (1968/1991),
afirma, que el conductista, en sentido amplio, realmente sólo se atiene a una máxima o verdad necesaria, la
de que todo predicado de corte mental susceptible de ser empleado en una descripción o explicación
psicológica ha de guardar una conexión lógica con al menos una descripción de la conducta (observable). Pero,
Tema 1.- Histora y método de la Psicología moderna 9
si se considera que entre los predicados mentales y conductuales (observables) hay una conexión lógica que
permite definir los predicados mentales a partir de manifestaciones conductuales, estamos ante la verdad
necesaria del conductismo radical. En esta línea, pueden distinguirse dos tendencias en el neoconductismo,
el conductismo metodológico y el radical (skineriano). El primero utiliza la conducta como fuente de datos o
indicador de objetividad metodológica para establecer una teoría general que incluya también las variables
intervinientes, por contra, el conductismo radical considera la conducta como un contenido temático propio (y
exclusivo) de la Psicología por lo que recurrir a variables no conductuales se hace innecesario (Fuentes, 2001).
La incorporación más importante, por parte del neoconductismo, es la introducción de variables
intervinientes de carácter hipotético, inobservables, entre el estímulo y la respuesta. La introducción de este
nuevo dispositivo teórico les permite introducir los procesos mentales internos, sin que parezca que se
abandona la objetividadad. Estos cambios suponen admitir la existencia de procesos mentales y, a excepción
de Skinner, los neoconductistas van a defender su funcionalidad, si bien el esquema básico sigue siendo el de
estímulo-respuesta, con la incorporación esas variables intervinientes. Para Skinner (1953/1970) los procesos
mentales no pueden ser objeto de estudio de la Psicología por no ser observables directamente, y considera,
que si pudiesen ser estudiados se regirían por los mismos principios y leyes que la conducta manifiesta. Si bien
los neoconductistas presentan varias características comunes, aceptación de una matriz disciplinar unitaria,
énfasis en un conductismo metodológico, el aprendizaje como problema central en el estudio del
comportamiento humano, la utilización de animales como sujetos experimentales en sus investigaciones, etc.,
también hay discrepancias entre los planteamientos y desarrollos de los distintos autores.
La introducción de variables intervinientes u organísmicas entre el estímulo y la respuesta permitió
recuperar conceptos de corte mentalista (propósito, motivo, expectativa, mapa cognitivo, etc.). También
incorporaron a su teoría y metodología los estudios de aprendizaje verbal (una de las corrientes relacionadas
con el origen de la Psicología Cognitiva), llegando incluso a monopolizarlos. Así, por ejemplo, para este
enfoque neoconductista, el recuerdo se organiza en base a asociaciones estímulo-respuesta y para su estudio
empleaban el aprendizaje serial y el de pares asociados, centrándose más en descubrir las causas del olvido
(mecanismos de la interferencia) que en los procesos de codificación de la información o de recuerdo.
En el estudio de las variables intervinientes destaca especialmente Tolman, incluso, por ello, algunos
autores consideran que Tolman anticipó la Psicología Cognitiva (Leahey, 1997/1998), pudiendo ser considerado
como un puente entre conductismo y cognitivismo (Caparrós, 1980). La teoría de Tolman se conoce como
conductismo propositivo, conductismo intencional e incluso como conductismo cognitivo (Leahey, 1997/1998).
En ella contrapone un enfoque molar a la línea analítica-molecular propuesta por Watson (Leahey, 1997/1998;
Pedraja, 2001), de hecho, sus posicionamientos teóricos están más cerca de las posturas gestaltistas de Lewin
o Brunswik que del conductismo (Pedraja, 2001). A partir de la experimentación con animales, llega a la
conclusión de que el animal aprende un mapa mental, que guía su conducta a través del laberinto, es decir,
la conducta es propositiva, intencional y se dirige a la consecución de ciertas metas (Tolman, 1948).
En la década de los cincuenta el conductismo entra en crisis. Se inicia un período marcado por
profundos cambios, dentro y fuera de la Psicología, que desembocaron en un nuevo paradigma: el de la
Psicología Cognitiva (Lachman, et al., 1979; Caparrós, 1980; Mayor, 1980; Yela, 1980; de Vega, 1984; Rivière,
1987). La crisis conductista ha sido analizada por diversos autores reflejando que el paradigma conductista se
vio afectado por un amplio conjunto de críticas respecto a (Koch, 1959; Bever, Fodor y Garret, 1968;
Mackenzie, 1977; Caparrós, 1980; Pinillos, 1980; Yela, 1980):
- sus presupuestos teóricos, tanto asociacionistas (Chomsky, 1959/1977; Bever et al., 1968) como
atomistas (Lasley, 1951)
- la inadecuación de la interpretación conductista del evolucionismo (Hebb, 1949/1985, 1965; Lasley,
1949, 1951; de Vega, 1981, 1984, Legrenzi, 1986; Leahey, 1997/1998)
- desmoronamiento de su base epistemológica, al ser atacada la imagen positivista y fisicalista de la
ciencia, recogida del positivismo lógico (Fodor, 1968/1991; Pinillos, 1980; Leahey, 1997/1998).

En términos de zeitgeist, el conductismo fue el fruto de una época. Así, el tipo de ciencia que se
promulgó desde el paradigma conductista, el énfasis en la conducta observable y el rechazo a la inferencia de
conceptos de contenido mental (y no observables), pueden ser considerados como un fiel reflejo de cómo era
entendida la ciencia a principios del siglo XX. Siguiendo a Leahey (1997/1998), el principal objetivo del
paradigma conductista fue otorgar la consideración de “ciencia”para la Psicología, y en este empeño tuvieron
que seguir y amoldarse a los modelos científicos imperantes. De hecho el énfasis en mantener el desarrollo
de la Psicología ligado a manifestaciones conductuales observables se puede considerar como un rasgo
característico de la Psicología Cognitiva, obviamente se han producido cambios en la filosofía de la ciencia y
han aparecido desarrollos científicos y nuevos aparatos (ordenadores, pruebas metabólicas, etc.) que permiten
inferir procesos mentales a partir de datos conductuales. Siguiendo esta linea argumental, algunos psicólogos
(v.g. Leahey, 1997/1998) consideran que en el paso del conductismo al cognitivismo se ha producido por
evolución, pero, en cambio otros (v.g. Gardner, 1985/1987) consideran que sí se ha dado una auténtica
revolución paradigmática.
Para analizar el paso del conductismo al cognitivismo, hay que tener en cuenta que en aquella época
se produjeron una serie de acontecimientos y formulaciones teóricas externas a la Psicología, que han influido
claramente en los desarrollos posteriores de la Psicología, como son (Lachman, et al. 1979; Ballesteros y
García, 1995):
- La teoría de la información.
- El desarrollo de la informática y las técnicas y procedimientos de simulación.
- La teoría general de sistemas.
10 Procesos Psicológicos Básicos: J.R. Alameda (Departamento de Psicología)

- La influencia de la teoría de la gramática generativa transformacional de Chomsky (1957, 1959/1977,


1965/1976).
Estas influencias contribuyen a que la conducta observable pase de ser el objeto de estudio a
convertirse en el medio para inferir la organización y funcionamiento interno del sistema cognitivo humano
(Santiago, Tornay y Gómez, 1999).

1.4.3.- Énfasis en la organización funcional: el paradigma cognitivo


Para algunos autores (v.g. Gondra, 1998) la Psicología Cognitiva es una realidad del presente, lo que
puede hacer difícil su análisis histórico, pero, sí es posible estudiar sus orígenes, relacionados, no sólo con la
Psicología, sino también con otros campos afines.
El declive conductista está unido a un nuevo interés por el estudio de los procesos mentales, siendo
reincorporados como parte del objeto de estudio de la Psicología. Del énfasis en el análisis de la conducta
observable se pasa al interés por el estudio de los procesos mentales, y aunque esto sólo suponga un cambio
de orientación, implica cambios profundos motivados por la necesidad de una reestructuración interna en la
Psicología, ya que este nuevo paradigma implica un cambio en la concepción del sujeto objeto de estudio
(Rivière, 1987). Además, se tendrán que tener en cuenta una serie de factores externos a la Psicología que
aportan las bases o cimientos de la actual Psicología Cognitiva (Weimer y Palermo, 1973; Lachman, et al.,
1979; Delclaux, 1982; de Vega, 1984; Gardner, 1985/1987).

1.4.3.1.- Influencias en el nuevo paradigma


Como ya se comentó, las nuevas teorías de la información, el desarrollo de la informática o tecnología
del ordenador e inteligencia artificial, la teoría general de sistemas, de la ingeniería humana y de las
comunicaciones y las aportaciones de la Lingüística y la Psicolingüística, así como las aportaciones propias
de la Psicología, inciden en la configuración del nuevo paradigma cognitivo.
La Reflexología (Pavlov) El conductismo La Gestalt
(Watson y Skinner)

Pavlov, en sus investigaciones sobre el Watson y Skinner intentan hacer una Para un grupo de psicólogos encabezados por
conductismo descubre un procedimiento psicología objetiva que permita controlar la Max Wertheimer en Alemania, el fenómeno
para explicar la activación de los conducta de los organismos. psicológico supone un todo que, analizando sus
mecanismos excitador e inhibidor. Esto partes pierde su identidad. La demostración de
contribuye a descubrir el origen de este hecho se realiza en base a experimentos
cualquier comportamiento. En definitiva, sencillos como el del movimiento aparente
el condicionamiento es considerado una (fenómeno phi).
pieza clave en el desarrollo de la
psicología.

MÉTODO Y TÉCNICAS DE INVESTIGACIÓN

Mediante la experimentación con perros, J.B. Watson y R. Rayne observan cómo Esta escuela se opone al procedimiento de Wundt
Pavlov explica el aprendizaje de los un bebé (Albert) aprende reacciones de del análisis del todo en sus partes. En sus
reflejos condicionados que posibilitan miedo a través del condicionamiento experimentos se sigue el principio de totalidad y el
una mejor adaptación al medio. Llega a clásico. principio del isomorfismo.
descubrir ocho condiciones diferentes B.F. Skinner afirma que el aprendizaje se
para que se forme un reflejo produce por condicionamiento operante;
condicionado: coincidencia o sucesión así, la probabilidad de una respuesta
temporal de los reflejos incondicionados, aumenta si le sigue un refuerzo. Utiliza
estado de alerta, salud, hambre del diferentes programas de refuerzo:
animal, etc. continuo o intermitente.

SÍNTESIS DOCTRINAL

Pavlov, a través del condicionamiento, Watson pretende explicar la conducta y la Según esta doctrina, la experiencia perceptiva es
explica la actividad cerebral mediante clasifica en función de los órganos que más que la suma de las sensaciones de las que
tres procesos cerebrales: excitación, intervienen en la respuesta. Por el parte, por ello interesa la relación que existe entre
inhibición, desinhibición y las leyes que contrario, Skinner, atiende únicamente al las cualidades o elementos sensoriales.
expresan la dinámica de estos procesos. resultado de los experimentos. El refuerzo
Así, llega a explicar la tipología del ha de acompañar de forma inmediata a la
sistema nervioso. respuesta y la extinción de la respuesta va
a depender del programa utilizado. Así,
por ejemplo, cuando se utilizan programas
de refuerzo combinados, el aprendizaje es
más lento y la extinción más difícil.
Cuadro 2.- Principales características de la Reflexología (Pavlov), El Conductismo (Watson y Skinner) y la
Psicología de la Gestalt. Adaptado de García y Moya, 1989).

Aportaciones de la Teoría de la Información


La teoría de la información o comunicación, formulada por Shannon (1948) desempeña un papel
importante en el surgimiento del paradigma cognitivo. Ya Shannon en 1938 estableció el paralelismo entre los
circuitos electrónicos y la lógica booleana, asociando los estados de "encendido" y "apagado" con "verdadero"
y "falso", lo cual implica que la información (traducida a código binario) podría implementarse en máquinas,
así, la programación pasa a ser un problema de lógica formal. Más tarde, McCulloch y Pitts (1943)
establecieron, en el mismo sentido, la analogía entre los circuitos electrónicos y los del sistema nervioso,
Tema 1.- Histora y método de la Psicología moderna 11
presentando un modelo lógico-matemático de la organización funcional de las redes neuronales del sistema
nervioso, estableciendose un paralelismo entre “verdadero/encendido”y “falso/apagado”con la propiedad del
“todo” o “nada” del impulso nervioso. Esta concepción del cerebro como conjunto de circuitos neuronales
(eléctricos) funcionando conforme a los principios de la lógica lo convertía en algo análogo a un ordenador
digital (Gardner, 1985/1987).
Posteriormente Shannon (1948) propuso una teoría matemática para medir la cantidad de información
transmitida por un canal, entendido como un sistema que recibe un input y genera un output. Esta teoría
permite explicar, de forma matemática, con independencia del canal de trasmisión e incluso del contenido del
mensaje, bajo qué circunstancias ocurre la transmisión de una señal en presencia de ruido y la cantidad de
información que se requiere para seleccionar un mensaje entre varios igualmente probables (Shannon y
Weaver, 1949/1981).
La teoría de la información proporciona a los primeros cognitivos lo que algunos autores denominan
la primera metáfora de la Psicología Cognitiva (Miller, 1956/1983; Broadbent, 1958/1984) “la mente como canal
de información”aunque se puede decir que ésta estuvo vigente un período de tiempo breve, aún permanecen
algunas de sus aportaciones, sobre todo las relativas a las limitaciones cognitivas (límites atencionales, de la
memoria, etc.), la recodificación como mecanismo para superarlas, o la idea de procesamiento serial y paralelo.
La teoría de Shannon tuvo gran repercusión para los primeros psicólogos cognitivos, pero la analogía de la
mente como canal de información era imperfecta, al carecer los canales de atención selectiva o por haber
dimensiones de la actividad mental que escapaban al cálculo probabilístico (Gondra, 1998).
La influencia de la ingeniería humana
La Ingeniería humana o Ergonomía proporciona a la Psicología Cognitiva la Teoría de la Detección de
Señales y la consideración de la atención como uno de los problemas centrales de estudio, estando en la base
de la formulación del primer modelo atencional propuesto por Broadbent en 1958 (Broadbent, 1959/1984).
Surge en la década de los 50, procedente de la investigación matemática y electrónica como método
alternativo para la solución de problemas prácticos sobre detección (aviadores, controladores de radar, etc.).
Su origen está en el establecimiento de una teoría normativa para el funcionamiento de aparatos sensores, y
está especialmente ideada para la detección de señales débiles sobre un fondo de ruido que puede ser
confundido con la señal. Por ello, puede usarse como un patrón normativo con el que comparar el proceder
humano. Los primeros trabajos que intentan introducir esta nueva metodología en Psicología provienen del
campo perceptivo (Smith y Wilson, 1953; Munson y Karlin, 1954; Tanner y Swets, 1954).
Contribuciones de la Teoría de la Computación (la metáfora del ordenador)
Hoy en día el ordenador es un elemento casi cotidiano en la mayoría de los hogares, su utilización
arranca de la Segunda Guerra Mundial con fines claramente belicistas (McCorduck, 1979/1991) como el calculo
rápido relacionado con la balística o el doble fin de descifrar los mensajes del enemigo al tiempo que se cifran
los propios para que éste no pueda descifrarlos.
Las ideas pioneras del matemático Alan Turing (1936, 1950) se materializarán, posteriormente, en una
de las tecnologías más revolucionarias: la del ordenador. Básicamente, un ordenador es un sistema, capaz de
autorregulación, que recibe y transforma información. Turing (1936) avanzó la idea de una máquina universal,
que mediante una programación en código binario fuese capaz de realizar cálculos (distinción
hardware/software), abriendo las puertas a la comparación con la mente humana. Posteriormente, propuso el
conocido “test de Turing”(Turing, 1950) que permite determinar si una máquina podía ser inteligente o no. Las
ideas de Turing fueron retomadas por Von Neumann que desarrolló en Estados Unidos los primeros programas
almacenables y diseñó la arquitectura de los ordenadores pioneros de los actuales (McCorduck, 1979/1991).
Wiener (1948/1961) fue el primero en construir sistemas artificiales, con capacidad de autorregulación,
y se le considera el fundador de la Cibernética. Su clásica obra, Cybernetics, se publicó en 1948 (reeditándose
en 1961), y supone un cambio a nivel explicativo, pasando del concepto de energía (fundamental en la
mecánica newtoniana) al de información, así, se asume que las ideas de la teoría de la información,
(codificación, almacenamiento, ruido, etc.) pueden proporcionar una explicación razonable a multitud de tipos
de eventos (desde la conducta al funcionamiento de circuitos electrónicos). En 1948 también es destacable la
celebración del simposio de Hixon, en el que se trataron aspectos de vinculación y relación entre el cerebro
y el ordenador. Además, en este simposio, varios autores comienzan a plantear posiciones divergentes
respecto a las ideas conductistas imperantes en la época (Gardner, 1985/1987). Se van a incorporar conceptos
propios de la informática, se utilizarán diagramas de flujo para ilustrar procesos y modelos de procesamiento
y se iniciará el empleo de técnicas de simulación para establecer y verificar modelos computacionales de los
procesos psicológicos, en definitiva, la posibilidad de simular tareas inteligentes puede empezar a considerarse
una realidad (Newell, Shaw, Simon, 1957a; 1957b, 1958), y en 1972, Newell y Simon presentan el Solucionador
General de Problemas, un programa de propósito general con un procedimiento heurístico de “análisis medios-
fines”, es decir, reducir sucesivamente la diferencia entre la situación presente y la meta deseada (Newell y
Simon, 1972). En este sentido, la nueva Psicología puede considerarse como la expresión “... de una
compulsión hacia la información, la computación y la representación”(Rivière, 1987, pág. 16).
Esta tecnología ofrece a la Psicología Cognitiva, su segunda metáfora, la analogía del ordenador o
metáfora computacional, según la cual la mente (el ser humano), se concibe como un sistema activo
(representacional) de procesamiento de la información cuyo funcionamiento es análogo al de otros sistemas
artificiales de cómputo.
La mente humana, lo mismo que el ordenador, como sistemas manipuladores de símbolos, se conciben
al mismo tiempo como un sistema físico y simbólico (v.g. Newell, Shaw y Simon, 1958; Newell y Simon, 1972;
Newell, 1981/1987). Un sistema físico realizado en un mecanismo biológico (cerebro) o hardware (PC), y
simbólico identificado en los programas (PC) y algoritmos o pautas conductuales (cerebro) ejecutados o puestos
12 Procesos Psicológicos Básicos: J.R. Alameda (Departamento de Psicología)
en marcha, para realizar las tareas que le son propias. Por ello, la metáfora del ordenador no es más que un
símil entre la estructura y el funcionamiento entre el ordenador y la mente. Desde este punto de vista, se insiste
en que los procesos de la mente funcionan de forma idéntica a las operaciones de un ordenador, pero esta
simetría funcional se limita necesariamente a la descripción de los procedimientos formales empleados por una
y otro, y no a la forma empírica en que tales procesos se hacen efectivos. Ésta sería la versión débil de la
metáfora (de Vega, 1982), pero, desde la Ciencia Cognitiva se aboga por la teoría computacional de la mente
(o versión fuerte de la metáfora), de manera que mente y el ordenador son considerados casos particulares
de los sistemas de procesamiento de propósito general con status de equivalencia (Newell y Simon, 1972; de
Vega, 1982; Newell, 1981/1987; Pylyshyn, 1984/1988; Gardner, 1885/1987). Así, los defensores de la versión
fuerte de la metáfora postulan que el ordenador, además de una herramienta para estudiar la mente (versión
débil), programado adecuadamente, puede ser una “mente”, por ello, los programas que conforman esa mente
pueden ser una explicación válida de los procesos realizados por la mente (Bajo y Cañas, 1991).
Pero, la metáfora computacional también ha recibido críticas que han evidenciado sus insuficiencias,
sesgos y limitaciones (Neisser, 1967/1976; Anderson, 1978/1983; Claxton, 1980; de Vega, 1982, 1983; Carello,
et al., 1984; Kolers y Smythe, 1984). Estas críticas giran, entre otros, en torno a cuatro aspectos:
1) El concepto mismo de ordenador o sistema artificial de procesamiento.
El ordenador es un ideal algorítmico que representa una manipulación formal de símbolos de acuerdo
a criterios de consistencia lógica, sin limitaciones físicas o biológicas, así, determinadas operaciones
formales, aunque lógicamente posibles y realizables, desde una perspectiva biológica pueden no ser
útiles para el organismo, ya que mientras el ordenador, con recursos prácticamente ilimitados, tiene
que atender una única demanda -la computación-, el organismo debe hacer frente, con recursos
limitados, a las múltiples demandas del medio (Carello, et. al., 1984). Además, los circuitos construidos
de silicio son más rápidos que los neuronales, aunque los neuronales pueden adecuarse a una
configuración más larga y flexible que los de silicio.
2) Tipo de símbolos que procesa el sistema cognitivo humano.
Hace referencia a que las operaciones mentales puedan ser representadas como un conjunto de reglas
que operan sobre símbolos discretos, cuando el funcionamiento de los sistemas naturales precisa de
un modo dinámico de explicación más que de un modo discreto ya que no requieren instrucciones
explícitas para efectuar sus actividades naturales. Una única descripción simbólica en términos
discretos sería insuficiente para explicar los sistemas naturales, de la misma forma que no es posible
explicar el significado del código genético tan sólo a través de la descripción de códigos discretos del
ADN (Carello, et. al., 1984). El tipo de simbolización que se defiende desde la analogía computacional
sería apropiada para el ordenador, pero inadecuada para justificar todas las capacidades humanas
simbólicas ya que la ejecución humana y la experiencia nunca pueden ser copiadas o repetidas
exactamente (Kolers y Smythe 1984). El sistema cognitivo elabora y manipula al menos tres tipos de
representaciones mentales; proposicionales, que son conjuntos de símbolos que corresponden al
lenguaje natural; modelos mentales, que son analogías estructurales del mundo; e imágenes, que son
los correlatos perceptivos de los modelos desde un punto de vista particular (Johnson-Laird, 1983). La
limitación de la aproximación computacional vendría dada porque sólo toma en consideración uno de
los posibles tipos de símbolos con lo que realiza un análisis meramente lógico, formal y sintáctico.
3) Peculiaridades específicas de la mente humana frente al ordenador.
Ordenador y mente son sistemas de procesamiento, pero, mientras el ordenador es capaz de resolver
problemas simbólicos bien definidos y apenas tolera la ambigüedad (o imprecisión), el sistema
cognitivo humano se enfrenta eficazmente a un medio en el cual debe detectar regularidades a partir
de una información ambigua, difusa, inestable e interactiva (de Vega, 1981, 1982, 1983).
Los parámetros temporales (cambio y evolución) son específicos de los sistemas animados, abiertos
a la adquisición de complejidad y experiencia, mientras que los sistemas artificiales tienen limitada su
posibilidad de auto-complejidad (Norman, 1981/1987b; Carello et al.,1984).
Los aspectos conativos, afectivos y emocionales están interconectados con el sistema cognitivo
(Norman, 1981/1987a, 1981/1987b; Mandler, 1975, 1984; Clark y Fiske, 1982). Pylyshyn (1984/1988)
considera que la emoción, motivación e intención son efectos no-computacionales, es decir, que no
operan en base a reglas y representaciones.
El sistema cognitivo no puede reducirse a un sistema de procesamiento que opere exclusivamente a
partir de los datos (procesos abajo-arriba), ya que las funciones de conocimiento están también
determinadas por procesos arriba-abajo (Norman y Bobrow, 1975; Neisser, 1967/1976).
El ordenador no está construido para actuar sobre el medio, la falta de una relación natural entre
ordenador y medio ambiente no puede ser sustituida por una historia artificial (Carello et al., 1984).
4) El problema de la conciencia y la intencionalidad.
Las limitaciones de la analogía computacional se ponen especialmente de manifiesto cuando se aborda
el fenómeno de la conciencia que “no es todo el hombre, pero es necesaria para serlo”(Pinillos, 1983,
pág. 126), así, por ejemplo, la intencionalidad de los actos psíquicos (Pinillos, 1980), los aspectos
fenomenológicos de la conciencia y su carácter autorreferencial son específicos del sistema de
procesamiento humano (de Vega, 1983; Mandler, 1985). La aproximación computacional tiene poco
que decir sobre estos temas (Pylyshyn, 1984/1988).
Que un ordenador actúe como si “entendiese” no implica necesariamente que “entienda”, ya que
realmente no puede entender al carecer de intencionalidad (Bajo y Cañas, 1991). Los símbolos que
maneja el ordenador tienen un significado proporcionado por el programador, es decir, su
intencionalidad es prestada como extensión de la del ser humano (creencias, deseos, miedos,
Tema 1.- Histora y método de la Psicología moderna 13
intenciones, etc.). Los estados intencionales pueden ser definidos en base a un componente
representacional y a un modo psicológico, inaccesible al ordenador (Searle, 1980, 1984/2001,
1997/2000), por lo que si un ordenador ha sido programado en base a los mismos principios formales
que el sistema cognitivo humano, que ante un mismo input proporcionen un mismo output, no es
condición suficiente para decir que el ordenador “entiende”. Para ilustrar esto Searle (1980, 1997/2000)
proporciona un ejemplo de cómo, incluso un humano, puede realizar correctamente tareas de
manipulación de símbolos (ideogramas chinos) sin entender los símbolos manipulados. El problema
de fondo es de la atribución de la intencionalidad, ya que incluso con humanos, ésta se realiza en base
a observaciones externas, es decir, se puede entender la intencionalidad como conducta observable,
como por ejemplo la utilización correcta del lenguaje o proporcionar respuestas adecuadas, por lógica,
esta perspectiva también puede ser aplicable al comportamiento de la máquina, siendo posible explicar
y predecir su comportamiento atribuyéndole estados intencionales (Dennet, 1978), sin que signifique
que, realmente, tenga creencias y deseos. Para Searle (1984/2001) un programa de ordenador nunca
puede ser una mente, ya que el programa sólo es sintáctico, mientras que la mente tiene además
componentes semánticos.
5) El problema de la cajalogía.
La metáfora del ordenador, en sus versiones fuerte y débil, ha estado muy presente en el desarrollo
de la Psicología Cognitiva provocando una amplia gama de modelos teóricos estructurados en fases
de procesamiento entre una entrada (input) y una salida (output), que especifican los procesos
mentales en términos de sistemas de procesamiento de información, pero, que en algunos casos no
llegan a ofrecer ninguna explicación de cómo funcionan las supuestas fases de procesamiento
(Sutherland, 1989). Esto ha provocado que algunos de estos modelos hayan sido clasificados como
“cajalogía” por caracterizarse en palabras de Sutherland (1989) como “la construcción y exhibición
ostentosa, por parte de los psicólogos, de diagramas de flujo sin sentido que sustituyen al pensamiento”
(pág. 58).

Pensar es computar (v.g. Fodor, 1975/1984; Johnson-Laird, 1983; Pylyshyn, 1984/1988; Pinker,
1997/2000) pero ello no ha de significar que el ordenador sea la metáfora más adecuada para el
funcionamiento de la mente humana. Sería más apropiado caracterizar la mente, manteniendo la comparación
informática, como un conjunto de módulos o sistemas de procesamiento (Pinker, 1997/2000).
La Teoría General de Sistemas y su influencia
De la biología se tomará la teoría general de sistemas que proporciona un marco conceptual que
considera incorrecto el análisis mecanicista para interpretar los fenómenos de la vida (Bertalanffy, 1969/1976).
Su idea básica es que los fenómenos de la naturaleza están conformados por elementos interrelacionados,
presentando cierta tendencia a configurarse como sistemas, lo que implica abandonar la noción de causalidad
lineal (causa-efecto), ideas que son recogidas por la Psicología Cognitiva.
Estas incorporaciones conceptuales permiten pasar a considerar la conducta humana como propositiva
(no siempre provocada determinísticamente por causas o estímulos, sino guiada por metas), idea que ya había
sido apuntada por Tolman. La influencia de la teoría general de sistemas es evidente en los planteamientos
gibsonianos (Gibson, 1950/1974, 1966, 1979).
El influjo de la lingüística chomskyana
Por último, la Lingüística tiene una aportación relevante en la configuración del nuevo paradigma
cognitivo. Los planteamientos teóricos de Chomsky (v.g. 1957, 1965/1976) sobre el lenguaje revolucionaron
el mundo de la lingüística, y proporcionó a los primeros cognitivos el desarrollo de un sistema formal enraizado
en la tradición racionalista y logicista, muy presente en la Psicología Cognitiva (Miller, 1962b). Chomsky (1957)
propone la idea de la gramática generativa y transformacional, teoría que es remodelada en una obra posterior
(Chomsky, 1965/1976), propone el lenguaje como un sistema que obedece una serie de reglas o leyes de
carácter generativo, lo cual supone una crítica al asociacionismo presente en las teorías del lenguaje por
rechazar la complejidad de su estructura lingüística. Además, Chomsky considera al asociacionismo conductista
incapaz de explicar el aprendizaje del lenguaje y su uso cotidiano, o no tener en cuenta aspectos como la
creatividad lingüística, la novedad o la productividad (Chomsky, 1959/1977). Los planteamientos teóricos de
Chomsky (1957), postulan la existencia de unas estructuras profundas (de carácter innato) que mediante la
aplicación de reglas se transforman en oraciones inteligibles (estructuras superficiales), mientras que en el
receptor se produce un proceso de descodificación del mensaje. Estas ideas chomskyanas implican
procesamiento de la información, encajando con la metáfora del ordenador, además de alejar el lenguaje de
las simples contingencias de reforzamiento. En los orígenes de la Psicología Cognitiva se asimilaron, muchos
de los planteamientos chomskyanos, lo que provocó un mayor interés por una profundización en el estudio del
lenguaje. También resulta relevante la incorporación de la dualidad chomskyana competencia/actuación a todo
el ámbito de la Psicología Cognitiva (García Albea, 1983), sirviendo incluso de fundamento a ciertos
planteamientos actuales sobre el razonamiento (Guyote y Stemberg, 1981).

1.4.3.2.- El paradigma de la Psicología Cognitiva


La nueva Psicología Cognitiva surge como superación del paradigma conductista imperante en la
época, suponiendo este cambio un giro considerable en el objeto de estudio de la Psicología, pero, también
presenta rasgos de continuidad con otro marco conceptual precedente, el Aprendizaje Verbal, escuela coetánea
del neoconductismo que entronca con la tradición asociacionista de Ebbinghaus y el funcionalismo americano
(Lachman, et al., 1979; Delclaux, 1982; de Vega, 1984; Leahey, 1997/1998). La Psicología Cognitiva emergente
incorpora a los teóricos del Aprendizaje Verbal sin grandes dificultades, proporcionándoles una matriz
14 Procesos Psicológicos Básicos: J.R. Alameda (Departamento de Psicología)
disciplinar de la que carecían (Lachman, et al., 1979). Así, distintos autores (por ejemplo, Paivio, Tulving,
Postman, Estes, etc.) empiezan a considerarse psicólogos cognitivos. La Psicología Cognitiva incorpora una
sólida y amplia tradición experimental sobre memoria humana, procedimientos, técnicas y paradigmas
experimentales, además, incorpora a sus investigadores y una serie de datos científicos, fruto de su tradición
experimental. Son procedimientos experimentales adoptados de esta escuela el método de los pares
asociados, utilizado en investigaciones sobre imágenes mentales (Paivio, 1971; Bower, 1972; Postman, 1978;
Kosslyn, 1980) o el de aprendizaje serial, en la base de los primeros modelos estructurales de memoria
propuestos en la década de los 60 (Murdock, 1962; Glanzer y Cunitz, 1966; Atkinson y Shiffrin, 1968/1983;
Mandler, 1981/1983).
Todas estas influencias comentadas anteriormente configuran el zeitgeist o las circunstancias que
contribuyeron a generar un movimiento en Psicología, entre 1955 y 1960, que adoptó la perspectiva de ser
humano como sistema de procesamiento de la información y que dio en llamarse Psicología Cognitiva.
Este nuevo marco teórico va a retomar el interés por el estudio de los procesos cognitivos, en los
procesos mentales internos inobservables, que habían sido eliminados del objeto de estudio de la Psicología
por los conductistas. Obviamente, no sólo cambia el objeto de estudio de la Psicología, con la reincorporación
de los procesos psicológicos, sino, que se pueden observar cambios en el proceder experimental de ambos
paradigmas, se puede afirmar que, aunque con matices, conductismo y cognitivismo pretenden descubrir las
leyes empíricas generales explicativas de la conducta, pero, para ello, los conductistas parten de un análisis
de parámetros externos (estímulos y respuestas), mientras que los cognitivistas recurren al estudio de
componentes empíricos internos, con el fin de llegar a conocer la organización funcional de la mente (Arnau,
1982) y se recurre, para ello, a conceptos de carácter interno y mental (entidades, estados, procesos o
disposiciones) para la explicación de la conducta (Riviere, 1987). Así, sólo podemos dar una explicación
satisfactoria de la conducta si tomamos en cuenta la “base de datos” sobre la que operamos y las
representaciones mentales que construye o elabora dicha base de datos, las operaciones que el sujeto tiene
que realizar sobre las representaciones mentales y el orden en que se dan esas operaciones. En estas
características está implícita la idea de la existencia de un procesador central común con una finalidad
generalista o indiferenciada, por ello, se puede considerar que la finalidad de la Psicología podría identificarse
con el aislamiento y la caracterización precisa de cada uno de los elementos anteriores.
Hay cierto consenso en establecer 1956 como la fecha de inicio de la Psicología Cognitiva y por
extensión la de la Ciencia Cognitiva (Neisser, 1967/1976; Newell y Simon, 1972; Gardner, 1985/1987; Bruner,
1983/1988). En 1956 se publican una serie de trabajos fundamentales que, se podría considerar, marcan un
punto de inflexión con la tradición anterior, además, el nuevo interés por lo cognitivo hace que se organicen
encuentros interdisciplinares.
Miller, en 1956, publica en la Psychological Review el trabajo “El mágico número 7±2...”(traducido al
castellano en 1983), aunque formaba parte de un discurso pronunciado por Miller como Conferencia Inaugural
ante la Eastern Psychological Association en 1955. En este trabajo, se recoge la idea de que los humanos
poseemos una capacidad limitada para procesar la información, pero esta limitación no está en el volumen de
la información, sino en el número de elementos. Estos elementos se pueden recodificar en unidades mayores
(que él denomina chunks), así, la recodificación permite superar esta limitación. El trabajo de Miller se basa
en la metáfora del hombre como canal de información-transmisión, canal relacionado con la teoría de la
información y la ingeniería de telecomunicaciones. Dos años después, en 1958, Broadbent publica su libro
Percepción y comunicación, traducido al castellano en 1984, en el que ya se propone un modelo de
procesamiento de la información con diferentes sistemas, implicando procesos de percepción, atención y
memoria.
El mismo año del trabajo de Miller, Bruner, Goodman y Austin (1956, traducido al castellano en 1980)
publican A Study of Thinking, una interpretación cognitiva de la formación de conceptos en la que introducen
el constructo teórico de estrategia. Y poco después, Miller, Galanter y Pribram (1960/1983) publican su libro
Planes y estructura de la conducta, donde postulan que la conducta humana es comparable al programa de
un ordenador al considerar que tanto el programa de ordenador como la conducta humana han de planificarse
con antelación, haciendo especial hincapié en las estrategias del sujeto.
En el verano de 1956 se celebró la conferencia de Darmouth, donde una serie de científicos (Simon,
Newell y Minsky, entre otros) se reunieron para analizar la posibilidad de elaborar programas de ordenador
inteligentes, sentando las bases de la Inteligencia Artificial. Y, en septiembre del mismo año se celebró en el
MIT (Instituto de Tecnología de Massachusetts) un simposio sobre Teoría de la información, de gran relevancia
y que motivó trabajos de la importancia de Tres modelos de Lenguaje, de Chomsky, o La máquina de la teoría
lógica, de Newell y Simon (Gardner, 1985/1987). De esta reunión en el MIT los asistentes salen con la
sensación de que la Psicología experimental, la Lingüística o la simulación de los procesos cognitivos formaban
parte de un contexto más amplio (Bruner, 1983/1988), de hecho, se puede afirmar que de esta alianza entre
profesionales de distintas procedencias nació la Psicología Cognitiva.
Otra fecha importante es 1960, año en el que se funda en Harvard el Centro de Estudios Cognitivos,
por Miller y Bruner y con Galanter (psicólogo matemático) y Pribram (neurofisiólogo) como promotores, lo que
abunda en la importancia que ha tenido la interdisciplinariedad en los orígenes y el posterior desarrollo de la
Psicología Cognitiva. Una de sus líneas de trabajo fue demostrar que entre el estímulo y la respuesta suceden
más cosas de las que se pueden explicar desde postulados asociacionistas (Miller et al., 1960/1983). Se
evidencia el nuevo paradigma, y se anuncia el fin de la predominancia conductista, aunque algunos
investigadores se autodenominen conductistas subjetivos (Miller et al., 1960/1983), aunque como indicó Bruner
(1983/1988) poniéndolo en palabras de Miller, muchos psicólogos se llamaron cognitivistas sin cambiar sus
hábitos de pensamiento y de trabajo. El Centro de Estudios Cognitivos, jugó un papel importante en la difusión
Tema 1.- Histora y método de la Psicología moderna 15
e institucionalización del cognitivismo, además de punto de encuentro entre profesionales de distintos campos,
facilitó el contacto con la Psicología Cognitiva de Piaget o la Escuela Rusa (Posner y Shulman, 1979).
En 1967 Neisser publica el primer libro de texto, Cognitive Psychology, (traducido al castellano en 1976)
en el que se pretende demostrar que es posible el estudio científico de los procesos mentales, con métodos
e instrumentos propios, los de la Psicología Cognitiva. El ritmo de las publicaciones se incrementa
vertiginosamente y en 1970 se crea la primera revista especializada, Cognitive Psychology, a la que seguirán
otras como Cognition, en 1972, y Memory and Cognition, en 1973.
El nuevo discurso cognitivista va calando también en España, y en la década de los setenta se inicia
la traducción a nuestro idioma de textos y manuales, y en la década de los ochenta se inicia la publicación de
libros en castellano, como el de Delclaux y Seoane (1982), Psicología Cognitiva y Procesamiento de la
Información, y la aparición del primer manual en castellano, Introducción a la Psicología Cognitiva, (de Vega,
1984), obviamente se sigue la publicación de un número cada vez mayor de trabajos, al mismo tiempo que
crece el interés editorial por promover libros de lecturas o traducciones de textos. También irán surgiendo
revistas especializadas, pudiendo ser considerada Cognitiva, fundada en 1988, la primera revista española
especializada para dar cauce de expresión a los trabajos de investigación sobre los procesos mentales.
El objeto de estudio de la Psicología Cognitiva es antiguo, remontándose al nacimiento de la Psicología
científica, pero, ha modernizado o cambiado el plano conceptual (la mente se concibe como sistema
representacional capaz de recibir, elaborar y transformar información), y el plano metodológico, que ya nada
tiene que ver con el de los inicios de la Psicología experimental. La Psicología Cognitiva no sólo ha recuperado
lo cognitivo, sino que lo cognitivo ha pasado a ser una parte central del objeto de estudio de la Psicología sin
ser posible su eliminación, a no ser, como señala Fernández Trespalacios (2001), que la Psicología renuncie
a ser Psicología.
Sin embargo, la Psicología Cognitiva también ha recibido críticas. Según Skinner (1985, 1990), la
Psicología Cognitiva supone un retroceso al mentalismo de Wundt y los estructuralistas al situar las causas de
la conducta dentro del individuo, sin tener una metodología adecuada para su estudio. Otros conductistas la
acusan de vaguedad conceptual y unilateralidad en sus planteamientos, ya que se limita a la cognición
prescindiendo de la conducta, siendo destacable la proliferación de múltiples modelos sin haber propuesto aún
una teoría general de la conducta (Sánchez-Barranco, 1994), que no existe un marco conceptual unitario ni una
única aproximación cognitiva al estudio de los procesos cognitivos complicándose con la existencia de diversas
tendencias, perspectivas, enfoques o subparadigmas cognitivos (epistemología genética y constructivismo,
psicolingüística chomskyana, Vygotski y la Escuela de Moscú, análisis neurocognitivos, conexionismo, etc.),
que difícilmente pueden caracterizarse por rasgos o atributos comunes a todos ellos (Mayor, 1980; de Vega,
1984; Riviere, 1987; Fernández, 1996). Algunos autores también resaltan el trabajo en pequeñas parcelas
específicas (Sebastián, 1983), o el ansia de acumular datos (Fodor, 1968/1991; Sebastián, 1983), en este
sentido, Fodor (1975/1984) escribe “... en principio los datos no determinan de forma suficiente las teorías; de
hecho tenemos más datos de los que sabemos utilizar -más datos de los que pueden manejar nuestras teorías.”
(pág. 173) crítica que comparte también Neisser al afirmar, hablando de la Psicología Cognitiva que “...
aparecían cientos de modelos y se realizaban experimentos para ver cuál de ellos era el mejor. Los
experimentos mostraban que ninguno de los siete existentes era adecuado, pero que el octavo modelo
propuesto por el autor encajaba perfectamente. Encontré que no me gustaba la mayor parte de lo que se
publicaba”(entrevista publicada por Baars, 1986, pág. 281).
A pesar de las críticas, la Psicología Cognitiva sigue pujante y se ha extendido a otros campos de la
Psicología e incluso la Psicología animal.
De forma esquemática, teniendo en cuenta la pluralidad de enfoques, tendencias y perspectivas, y aún
sabiendo que resulta difícil establecer las características comunes a la Psicología Cognitiva (v.g. Valiña y
Martín, 1997; Gondra, 1998), se pueden señalar unas características generales comunes que permiten
diferenciar la Psicología Cognitiva de otros movimientos psicológicos, las siguientes:
- Pretende conocer la naturaleza y funcionamiento del sistema cognitivo humano, es decir, la
organización y funcionamiento de los procesos cognitivos. Si el conductismo se centró en el estudio
de la conducta, la Psicología Cognitiva se centra en la conducta y sus procesos subyacentes,
considerando que la actividad humana no sería comprensible si no se apela a las cogniciones y demás
constructos internos (Riviere, 1987).
- El ser humano es sujeto activo, constructivo y planificador, participa en la elaboración del
conocimiento, atendiendo diferencialmente a ciertos aspectos de la experiencia, registrando en la
memoria los más interesantes y elaborando estrategias para resolver problemas (Mayor, 1985).
- Los procesos mentales son computacionales. La Psicología Cognitiva acepta y utiliza el lenguaje y
conceptos de las ciencias de la computación, pero, Psicología y Ciencia Cognitiva no deberían
confundirse (Ruiz Vargas, 1994).
- Adopta una perspectiva funcionalista de la mente, al interesarse por su funcionamiento prescindiendo
de la neurofisiología, considerando que en la explicación de la conducta existen diferentes niveles de
análisis.
- Como corriente teórica está próxima al racionalismo, postulando estructuras o esquemas lógicos para
explicar la organización del sistema cognitivo.
- Las diferentes tendencias que conviven dentro de la Psicología Cognitiva motiva la defensa de un
pluralismo metodológico. Así, los psicólogos cognitivos pueden obtener datos a partir de los
experimentos, la investigación psicobiológica, los estudios de caso o incluso los autoinformes, la
observación naturalista y la simulación con ordenadores (Sternberg 1996).
16 Procesos Psicológicos Básicos: J.R. Alameda (Departamento de Psicología)
1.4.3.3.- Procesos psicológicos, Psicología y Ciencia Cognitivas
La Psicología Cognitiva pretende estudiar la organización y los principios funcionales del sistema
cognitivo humano, así, los procesos y las representaciones mentales sobre las que operan, constituyen su
núcleo de interés. Se puede afirmar que existe consenso en considerar el estudio de los procesos como rasgo
definitorio de la Psicología Cognitiva, al menos, la mayoría de las definiciones de la Psicología Cognitiva hacen
referencia, explícita o implícita, a estos. La mayoria de las definiciones destacan por la adopción de un plano
de explicación funcionalista de la mente, propio de la Psicología y distinto del nivel de análisis microestructural
de sus correlatos neurofisiológicos (Longuet-Higgins, 1981; de Vega, 1984; Riviere, 1987), en otras palabras,
en tanto que las operaciones internas (o mentales) se puedan describir de forma lógica, el soporte físico no es
relevante (Pinker, 1997/2000; Santiago et al., 1999) aunque como señala Searle (1980, 1984/2001, 1993,
1997/2000) la mente es un programa computacional en el que el cerebro puede resultar irrelevante, pero los
cerebros son motores biológicos por lo que su biología importa. Además, información y computación se basan
en datos y sus relaciones lógicas que son independientes del medio físico (el mensaje no cambia si se
transmite directamente o por teléfono). Esto equivale a postular que es posible estudiar el funcionamiento
cognitivo sin necesidad de ocuparse directamente del nivel neurofisiológico o bioquímico; es decir, mente y
cerebro pueden estudiarse independientemente (Johnson-Laird, 1983, 1988/1990), incluso afirmando que los
estados mentales y cerebrales son contingentemente idénticos, no ha de implicar que la Psicología sea
reducible a neurología, sino, que ambas constituyen niveles de análisis científico complementarios (Putnam,
1973; Miller et al., 1960/1983; Fodor, 1968/1991, 1975/1984, 1981; Harnad, 2000). En términos de la metáfora
computacional, la Psicología se encargaría del software (o nivel simbólico), mientras que la neurología se
encargaría de hardware (Fodor, 1968/1991). Esta complementariedad en los niveles de análisis ha facilitado
que psicólogos y neurólogos se hayan beneficiado mutuamente por la convergencia de sus investigaciones en
áreas como percepción, atención, aprendizaje o memoria (Donchin, 1982; Gale y Edwards, 1983; Gazzaniga,
1984/1985; Johnson-Laird, 1988/1990).
El interés por el estudio de la mente desde distintas perspectivas va conformando el campo de estudio
de la Ciencia Cognitiva como campo interdisciplinar. Siendo destacables nombres como los del matemático
Turing, los cibernéticos Newell y Minsky, el economista Simon o los filósofos Putman y Fodor, incluso el
lingüista Chomsky, entre todos han ido conformando la teoría computacional de la mente o Ciencia Cognitiva.
Se podría afirmar que los orígenes de la Psicología y la Ciencia Cognitivas son prácticamente los
mismos, Simón (1987) los sitúa en 1956, otros, como Norman (1981/1987b) consideran que la Ciencia
Cognitiva comienza a perfilarse, más tarde, a finales de los setenta y comienzos de los ochenta ya que
anteriormente no existía la estructura general de la Ciencia Cognitiva, en cambio, Gardner (1985/1987), al estilo
de la Grecia Clásica, establece la mayoría de edad en torno a 1985, y por último, Johnson-Laird (1983) afirma
que la Ciencia Cognitiva no existe y precisamente por ello hay que inventarla, ya que no hay un enfoque
(Psicología, Lingüística, Antropología, Inteligencia Artificial, etc.) que de forma aislada pueda desvelar el
funcionamiento de la mente (Johnson-Laird, 1981/1987, 1988/1990).
La Ciencia Cognitiva va a caracterizarse como campo multidisciplinar, organizado en torno a una
convergencia de intereses entre los investigadores (filósofos, lingüistas, informáticos, psicólogos y
neurocientíficos, etc.) interesados en el estudio de la cognición desde diferentes puntos de vista (Norman,
1981/1987a) y específicamente, en entender el funcionamiento de cualquier sistema inteligente, bien natural,
bien artificial (Simon, 1981/1987). Así, el objeto de estudio de la Ciencia Cognitiva es más amplio que el de
la Psicología Cognitiva. Además, la Psicología Cognitiva mantiene unos objetivos, un nivel teórico y una
metodología propios, basados en la utilización del método experimental, frente a la predilección por las técnicas
de simulación computerizada (Bajo y Cañas, 1991; Ruiz Vargas, 1994), ya que desde la Ciencia Cognitiva se
propone la versión fuerte de la metáfora del ordenador, así, el sistema cognitivo debe entenderse y estudiarse
por su analogía con el ordenador (Bajo y Cañas, 1991). Este posicionamiento de la Ciencia Cognitiva se
fundamenta en tres supuestos básicos (Bajo y Cañas, 1991):
- Todo sistema cognitivo es un sistema simbólico capaz de alcanzar “inteligencia” por la conversión
a símbolos, tanto de hechos internos, como externos, y de la manipulación, transformación y
combinación de éstos (Winograd y Flores, 1986; Norman, 1981/1987b; Boden, 1988).
- Los sistemas cognitivos (humano y artificial) presentan un conjunto básico de procesos
computacionales que permiten la construcción, organización, interpretación y transformación de
símbolos o representaciones mentales (Winograd y Flores, 1986; Boden, 1988).
- A través del formalismo simbólico adecuado toda teoría sobre la cognición puede ser programada
(implementada en un programa informático), así, cuando el programa se ejecute en unas
circunstancias concretas reproduce la conducta observada. Es decir, toda teoría sobre la cognición
humana puede ser simulada (Winograd y Flores, 1986). Así, mediante simulación computerizada se
pueden proponer y verificar teorías más complejas, difíciles de abordar desde una metodología basada
en experimentos y sin abandonar el rigor empírico (Stilling et al., 1987).
A pesar de no poder dudar que existen solapamientos entre las diversas ciencias cognitivas, no existe
una postura unánime respecto a si los objetivos, presupuestos teóricos y metodologías de estas disciplinas han
llegado a ser tan coincidentes como para que sus límites se hayan difuminado en el ámbito de la Ciencia
Cognitiva (Mandler, 1984, 1985; Miller y Gazzaniga, 1984; Miller, Polson y Kintsch, 1984; Gardner, 1985/1987;
Stilling et al., 1987; Claxton, 1988), sino, que dentro de unos intereses comunes existen diferencias
substanciales entre unas y otras disciplinas de la Ciencia Cognitiva. Todas van a tener en común su interés por
el estudio de la mente humana, así, por ejemplo, los informáticos (científicos de la computación) han intentado
simular computacionalmente distintos procesos cognitivos (percepción, aprendizaje, etc.); lingüistas y
psicolingüistas comparten su interés por el lenguaje, su adquisición y su desarrollo; los neurofisiólogos han
Tema 1.- Histora y método de la Psicología moderna 17
establecido relaciones entre funciones de las células nerviosas con procesos psicológicos y motores;
neurólogos y neuropsicólogos han partido de los datos aportados por pacientes con lesión cerebral para
entender el funcionamiento “normal” del sistema de procesamiento de la información, en definitiva, como
señala Johnson-Laird (1988/1990), podemos encontrar un ingeniero investigando la percepción del habla o a
un etólogo trabajando sobre las relaciones entre representaciones mentales y relaciones espaciales.
La teoría computacional de la mente resuelve la paradoja de las relaciones entre mente y cuerpo, ya
que como se comentó anteriormente la mente es lo que hace el cerebro, es decir, procesar información o
computar, en este sentido, realidades tan complejas como las “creencias” y los “deseos” son considerados
como información, entendida como símbolos que reflejan estados físicos o cosas del mundo.

2- Métodos de investigación
El ser humano está buscando respuestas a lo que le rodea, piensa o simplemente a las circunstancias
de su vida; bien para ofrecer una solución, bien por curiosidad. Este deseo de conocer es, sin duda, una
característica fundamentalmente humana y el conocimiento al que se llega se ha ido transmitiendo
acumulativamente a través de las generaciones, por lo que el conocimiento humano se traduce en el conjunto
de conocimientos objetivos de la naturaleza, la sociedad, la persona y su pensamiento, experiencias generadas
a lo largo de la historia (Bunge, 1985; Bisquerra, 1990; León y Montero, 1993), así, son fuentes del
conocimiento humano el sentido común, la magia, la religión y la ciencia, teniendo todas un objetivo común:
ofrecer soluciones a los problemas pero, obviamente partiendo de distintos valores y con resultados y
respuestas claramente diferentes, incluso contradictorios.
A la hora de solucionar problemas, el ser humano puede utilizar métodos como la autoridad, la
experiencia personal, la deducción, la inducción, o el método científico (v.g. Van Dalen y Meyer, 1979/1981),
pero aunque la ciencia no constituye la única fuente de conocimiento del ser humano, la Psicología, y
especialmente en el estudio de los procesos psicológicos, se decanta por el conocimiento científico,
precisamente por las reglas y procedimientos que hacen posible un conocimiento objetivo, susceptible de ser
criticado, revisado y renovado, confiriendo a la ciencia su carácter progresivo al no poseer absoluta seguridad
en sus resultados (Cohen y Nagel, 1934).
En consecuencia, el estudio de la conducta humana se ha realizado desde muy diferentes puntos de
vista; de hecho, en la propia literatura se puede encontrar material en relación con el ser humano y su
comportamiento.
Obviamente, cada parcela de la Psicología ha de decidir y seleccionar aquellos métodos que sean más
adecuados para su objeto de estudio, ya que la variabilidad de éstos hace imposible establecer una
metodología única.
Ninguna disciplina experimental se desarrolla independientemente de técnicas específicas de
investigación. En el caso del estudio de los Procesos Psicológicos se ha comprobado que la tecnología ha
influido de forma determinante en la concepción que sobre éstos ha tenido la Psicología. Esto se hace más
evidente en los planteamientos de los años 50, con las metáforas que se desarrollaron sobre la mente,
especialmente la metáfora del ordenador. En el caso de la Psicología, el desarrollo de las técnicas de
investigación ha sido determinante desde los primeros momentos en que se planteó el estudio experimental
de los procesos mentales. Así pues, a continuación se realizará un estudio sobre los métodos que utilizó la
Psicología para estudiar los procesos psicológicos, centrándose fundamentalmente en las técnicas de
investigación que se han ido aplicando a lo largo de la historia de la Psicología.
Cualquier consideración acerca del concepto y el objeto de una disciplina científica conduce necesaria
e inevitablemente a la consideración del método que se utiliza para llegar al conocimiento de ese objeto. Los
métodos de investigación constituyen el camino para llegar al conocimiento científico; son procedimientos que
sirven de instrumento para alcanzar los fines de la investigación. El método de trabajo es el procedimiento o
receta que se sigue para hacer algo (Arnau, 1980, 1986; Bunge; 1980; Bunge y Ardila, 1988), en este caso
obtener datos. O lo que es lo mismo aquel procedimiento sistemático utilizado por una ciencia particular,
mientras que la metodología sería el estudio sistemático de los principios generales y los métodos de
investigación utilizados. Si bien algunos autores tienden a utilizar los conceptos de metodología y método como
si fueran sinónimos, suele asumirse de forma generalizada que la metodología determina los métodos y
constituye el soporte sobre el posible uso de los mismos. Por otro lado, los métodos -más específicos- son los
casos particulares de un estudio concreto utilizados en un determinado campo de investigación, indicando su
significado, utilidad, racionalidad y aplicación en diferentes circunstancias o situaciones (Bisquerra, 1990).
Las ciencias empíricas pretenden explorar, describir, explicar y predecir los acontecimientos que tienen
lugar en el mundo en que vivimos. Por tanto, sus enunciados o leyes son aceptables en tanto en cuanto
descansen sobre una base empírica; esto es, en datos extraídos de la realidad. Esta dependencia de los datos
distingue a las ciencias empíricas de las ciencias formales, como la lógica y la matemática pura, que
constituyen sistemas consistentes, completos e independientes, cuyas proposiciones se demuestran a partir
de axiomas o postulados básicos sin necesidad de hacer referencia a los datos empíricos. Como la Psicología
es una ciencia empírica, es necesario relacionar los enunciados o leyes que se establecen con los hechos del
mundo real. Sin embargo, hay que tener en cuenta que también interviene un componente racional importante.
En cierta manera, puede decirse que el método de las ciencias empíricas se caracteriza, por un lado, por partir
de la percepción de la realidad y terminar con la contrastación de sus leyes y conceptos en la realidad, y por
otro lado, por ser necesarios ciertos conocimientos racionales para dar cierta consistencia lógica a los datos
empíricos. Dentro de esta estrategia general que garantiza el conocimiento científico, se pueden utilizar
diferentes métodos de trabajo en el momento de la contrastación de las teorías o leyes (o más bien de sus
consecuencias empíricas) con la realidad.
18 Procesos Psicológicos Básicos: J.R. Alameda (Departamento de Psicología)
El objetivo principal del método científico será la comprensión de los fenómenos que estudia,
atendiendo a cómo se estructuran, organizan, las relaciones entre ellos y las leyes que los regulan (Bunge,
1985). Obviamente, para alcanzar dicho objetivo es necesario seguir una serie de etapas, como ejemplo,
Popper (1974/1993) afirma que el método científico se articula en la sucesión de cuatro etapas, las siguientes:
1) Formulación de hipótesis o teorías.
2) Análisis lógico de la estructura interna de dichas hipótesis o teorías.
3) Comparación con otras hipótesis o teorías.
4) Contrastación empírica de las consecuencias derivadas de las hipótesis.

2.1.- Métodos de contrastación de hipótesis


El método científico por antonomasia es el hipotético-deductivo, se parte de la observación de datos,
se proponen hipótesis explicativas y se deducen conclusiones que han de ser contrastadas (Fernández
Trespalacios 2001), por ello, este método se caracteriza por partir de la experiencia y concluir en la experiencia.
En cuanto a la investigación concreta, no deben ser los objetivos de la investigación sino la naturaleza
de las variables a investigar lo que debe determinar el método a emplear. Una investigación puede ser
exploratoria, confirmatoria o explicativa, básica o aplicada, y ello, por supuesto, condiciona la elección del
método; pero el que el objetivo sea uno, otro, o varios de los anteriores no impide, a priori, que se manipule
o simplemente se observe el efecto de unas variables sobre otras, o que se utilicen características no
manipulables de los sujetos, como la edad o el grado de agudeza visual, para diseñar investigaciones que se
llevan a cabo como si fueran experimentos. La operativización de los constructos causales puede dar lugar a
variables manipulables o no manipulables, e incluso variables que, pudiendo ser manipuladas, no deban serlo
para no caer en un reduccionismo o para mantener unos mínimos requisitos éticos.
La clasificación de los diferentes métodos de investigación puede hacerse atendiendo a diversos
criterios, de los cuales los más frecuentes se refieren al control que ejerce el investigador sobre la situación
ya la representatividad de la muestra. Así, tradicionalmente, sobre todo a partir de Cronbach (1957/1979), se
opuso el método experimental al método correlacional, si bien el criterio de clasificación resulta aquí un tanto
confuso ya que, por un lado, se hace referencia a una forma de llevar a cabo la investigación (experimental
versus no experimental) y, por otro, a la técnica empleada para el análisis de los datos (análisis de varianza
versus correlación).
La dicotomía, también utilizada con frecuencia, entre métodos cuantitativos y cualitativos va un poco
en esa misma línea, en el sentido de que hace referencia más al tipo de datos que se obtienen en la
investigación que al proceso seguido en su obtención. A este respecto, hay que tener en cuenta que si bien lo
habitual es que el método experimental proporcione datos de tipo cuantitativo, no quiere decir que se limite
exclusivamente a éstos, ni los métodos no experimentales deben considerarse limitados a la obtención
exclusiva de datos cualitativos, ni son las escalas de medida las que determinan el método. Al abordar la
problemática metodológica es fundamental una óptica flexible: debemos partir de la idea de que no hay
métodos buenos ni malos, lo que hay son programas de investigación que seleccionan estrategias conducentes
al avance del conocimiento en una disciplina y otros programas que fracasan al determinar el método apropiado
a los objetivos que persigue (sea por razones paradigmáticas o de otro tipo). De ahí que, superada la
concepción exclusivista de lo científico propia del positivismo, lo razonable sea considerar la bondad de los
enfoques cuantitativo y cualitativo a la luz de otros criterios (Howe y Eisenhart, 1990).
En la concepción cuantitativa de la ciencia el objetivo de la investigación, consiste en establecer
relaciones causales que supongan una explicación del fenómeno, siguiendo para ello una perspectiva
nomotética, mientras que en el enfoque cualitativo interesa la interpretación desde una perspectiva ideográfica.
Si bien esta controversia responde a concepciones diferentes de la ciencia y del papel que ésta desempeña
en la vida de los hombres, desde el punto de vista metodológico sus aportaciones pueden llegar a ser
complementarias o, al menos, no excluyentes, de modo que las hipótesis y hallazgos puedan servir para su
mutua fecundación y no para su anulación recíproca (Cook y Reichardt, 1982/1986). Lo realmente importante
es conseguir la adecuación entre las hipótesis que guían la investigación y las técnicas de recogida y análisis
de datos, y aplicar después dichas técnicas con el máximo rigor, de forma que se facilite la generalización y
réplica de los resultados por cualquier otro miembro de la comunidad científica.
Una clasificación bastante diferente de las anteriores mencionadas (antigua pero poco frecuente en
la literatura psicológica) es la que se popularizó a partir del libro de Festinger y Katz (1953), en el cual se habla
de experimentos de laboratorio, experimentos de campo y estudios de campo. La diferencia fundamental entre
los distintos tipos de investigaciones se hace a partir del diferente grado de control que puede ejercer el
investigador. Así, en el laboratorio el control es máximo, mientras que en los estudios de campo el investigador
se limita a observar. Los experimentos de campo, por su parte, se consideran simplemente como experimentos
que se realizan en situaciones de la “vida real”(donde hay un control pero menor que en el laboratorio). En el
libro de Festinger y Katz no se establecen diferencias según los objetivos de la investigación y se dice
claramente que los estudios de campo pueden ser tanto exploratorios como de verificación de hipótesis, igual
que los experimentos, y que tienen unas etapas también muy similares a las del trabajo experimental, sólo que
en vez de manipular se observa.
Una clasificación de los métodos de investigación que ha tenido gran aceptación es la que
generalizaron Campbell y colaboradores (Campbell y Stanley, 1966/1973, Cook y Campbell, 1979 y Cook,
Campbell y Peracchio, 1990), quienes, entendiendo el diseño de investigación como el plan a seguir en la
misma, hacen una estructuración atendiendo tanto al control del investigador sobre el tratamiento dado a los
sujetos (el cuándo y el quién de la exposición y la capacidad de aleatorizarla) como a la posibilidad de hacer
inferencias válidas (validez interna y externa). Los diseños en los que hay algún grado de control (ordenados
Tema 1.- Histora y método de la Psicología moderna 19
de mayor a menor control y de mayor a menor validez) son los experimentales propiamente dichos, los cuasi
experimentales y los pre-experimentales; frente a ellos, con un tratamiento “natural”o ningún control, se sitúan
los correlacionales y los “ex post facto”, siendo los últimos los menos satisfactorios de todos.
Ballesteros y García (1995) realizan una clasificación dicotómica de los distintos métodos de
contrastación de hipótesis, métodos experimentales y métodos no experimentales. Su diferencia radica en el
grado de control que ejerce el investigador sobre el fenómeno que se está estudiando. El investigador realiza
experimentos con el fin de poner a prueba hipótesis relativas a las relaciones que se dan entre dos tipos de
variables: la variable dependiente y la variable independiente. La variable que se manipula es la independiente
mientras que la variable que se refiere a la conducta registrada para conocer el efecto de la variable
independiente es la variable dependiente. Por otra parte, también es necesario controlar todas las posibles
variables extrañas que puedan influir en los resultados obtenidos en el experimento.
Cuando se utilizan métodos no experimentales no es posible manipular el fenómeno que se está
estudiando, sólo se puede medir. A continuación, partiendo de esta división entre métodos experimentales y
no experimentales, se verá con un poco de detalle cada uno de estos métodos, así como lo principales
procedimientos utilizados dentro de cada uno de ellos.

2.1.1.- Métodos no experimentales


La característica fundamental de los métodos no experimentales es que el investigador se limita a
recoger y medir los fenómenos tal y como se producen en la naturaleza, sin realizar una manipulación
intencional sobre las causas de los mismos. Resulta muy difícil controlar todas las posibles variables que
influyen en los resultados. Los métodos no experimentales pueden ser: a) métodos descriptivos, y b) métodos
correlacionales.

2.1.1.1.- Métodos descriptivos


Generalmente, en Psicología se utilizan estos métodos para clarificar y definir el problema que se está
investigando, de forma que quede perfectamente estructurado para estudios posteriores más rigurosos en los
que, siempre que sea posible, se aplicarán otros métodos más poderosos (correlacional o experimental). Con
respecto a las funciones que pueden desempeñar estos métodos, Underwood y Saughnessy (1978) señalan
cuatro:
- Ayudan a identificar fenómenos conductuales importantes.
- Sugieren posibles factores a manipular en estudios experimentales posteriores.
- Sugieren posibles conductas susceptibles de ser estudiadas posteriormente a través de experimentos
adecuados.
- Se pueden utilizar como instrumentos de estudio cuando no son viables los métodos correlacionales
o experimentales.
Métodos descriptivos característicos son la observación y la introspección o autoobservación.

La observación
Una de las formas más útiles de llegar a saber algo sobre un objeto desconocido es, al menos
inicialmente, mirarlo simplemente y describirlo con el mayor detalle posible. Se llama observación a la situación
en la cual un investigador espera a que el fenómeno que le interesa se produzca y entonces consigue los datos
que necesita sobre este fenómeno. Este tipo de observación empírica natural tiene grandes inconvenientes,
se puede perder mucho tiempo esperando que el fenómeno se produzca naturalmente, y, además, puede darse
el caso de que cuando se dé el fenómeno esperado no se esté en condiciones de observarlo. En estas
circunstancias es muy difícil que el investigador sea capaz de evaluar y tener en cuenta todas las variables que
resultan relevantes para su problema y lo que es más importante aún, una situación de este tipo es casi
imposible que se dé en las mismas condiciones otra vez porque, aunque se produzca el mismo fenómeno, muy
difícilmente la situación que le rodee será la misma que en la ocasión anterior, por lo que cualquier
comparación entre fenómenos es muy difícil.
A pesar de lo anterior, algunas de las grandes teorías que han revolucionado el mundo moderno están
exclusivamente basadas en la observación: la mecánica celeste y la teoría de la evolución son un claro
ejemplo. En el primer caso, no es posible la manipulación experimental pero, la hipótesis de la gravitación
universal fue suficiente para que los movimientos de los astros y planetas quedaran explicados. En el segundo
caso, Darwin utilizó la analogía de la selección natural y los hechos observados previamente adquirieron su
significado a través de esta analogía. La observación, guiada por una buena teoría, puede tener la misma
validez explicativa que un experimento, apoyando el planteamiento inductivista del conocimiento. Pero, estos
dos casos son más la excepción que la regla. La mecánica celeste opera en situación de cierre completo, pero,
la mayoría de los fenómenos objeto de estudio científico son tan complejos que la mera observación no pone
en evidencia las propiedades causales de las estructuras que los provocan. No obstante, es evidente que sin
un planteamiento teórico desde el que buscar, la observación no adquirirá ningún significado; en esto,
observación y cualquier otro método de investigación son idénticamente iguales. La observación nos permitirá
una descripción de los fenómenos pero no una explicación causal de los mismos. Esta es la razón por la que
debe recurrirse a la experimentación siempre que sea posible.
A pesar de todo lo anteriormente dicho, conviene tener en cuenta que las nuevas tecnologías han
evolucionado de tal forma que, en la actualidad se pueden obtener datos de alta sofisticación y rigurosidad
utilizando técnicas observacionales. Entre las nuevas técnicas observacionales que han contribuido a
enriquecer nuestros conocimientos sobre los procesos psicológicos cabe destacar las siguientes:
- El registro de los movimientos oculares, mediante los que obtenemos una gráfica de la dirección de
20 Procesos Psicológicos Básicos: J.R. Alameda (Departamento de Psicología)
la mirada mientras se contempla, por ejemplo, un dibujo, una fotografía o leemos un texto. En este tipo
de registro quedan reflejados dos componentes: las fijaciones oculares y las sacadas o movimientos
sacádicos. A partir de esta técnica Yarbus (1967) determinó que cada fijación dura 300-900 ms. y cada
sacada 10-80 ms., de manera que un observador medio realiza entre 1-3 fijaciones por segundo,
separadas por rapidísimos movimientos oculares. Otro aspecto de interés que ha revelado esta técnica
(Mackworth y Morandi, 1967; Loftus y Mackworth, 1978) es la relativa a señalizar los elementos
informativos contenidos en la escena observada. Esta técnica también puede utilizarse en contextos
experimentales, donde la variable dependiente serian las fijaciones y las sacadas.
- El registro de los movimientos corporales y, en particular, los movimientos de la cabeza realizados
por el sujeto cuando se le enfrenta a un estímulo visual, por ejemplo, de rotación de patrones con
diferente ángulo de orientación (aunque, aquí reviste mayor interés la rotación mental o interna que
realiza el sujeto).
- La pupilometría permite registrar la dilatación pupilar (pupilógrafo) y con ello los elementos o partes
de la escena en que fija la mirada con mayor atención el sujeto.

La introspección
Un gran número de interesantes fenómenos para la Psicología han sido puestos de manifiesto sin
necesidad de recurrir a la metodología experimental. En muchos de estos casos se ha demostrado la existencia
del fenómeno mediante el informe subjetivo de la experiencia perceptiva del observador. Recordemos a modo
de ejemplo el movimiento “phi”o las descripciones de agrupamiento perceptivo realizadas por la Gestalt.
Muchas respuestas o actividades humanas, por ser sólo observables de modo privado, es decir, por
ser una respuesta mental en la que las experiencias resultan intrapersonales en lugar de interpersonales, se
impone la necesidad de acceder a su estudio indirectamente. Probablemente, este hecho condicionó que la
metodología preferentemente utilizada en las primeras fases de la Psicología científica (estructuralismo) fuese
la introspección y el informe subjetivo o descripción de la experiencia interna del sujeto.
Las críticas clásicas a estos procedimientos introspectivos fueron muchas, algunas de ellas ya
formuladas incluso por el propio Wundt, de tal manera que no faltaban razones para que en torno a principios
del presente siglo la introspección fuese rechazada por la Psicología experimental predominante como método
de obtención de datos; de todos modos, tampoco desapareció por completo de la Psicología científica la
utilización de la experiencia interna como método de conocimiento durante el largo período de hegemonía
conductista, por ejemplo, la escuela de la Gestalt, Bartlett, Piaget, Vigotsky, etc., que después del manifiesto
conductista siguieron utilizando información de origen subjetivo, si bien el método introspectivo analítico y la
concepción asociativa de la conciencia fueron, efectivamente, rechazados (Pinillos, 1983, 1985). Además,
haciendo referencia a los argumentos críticos presentes en la Psicología actual, puede decirse que la posición
predominante se basa en la dicotomía producto-proceso (versión actual de la crítica clásica sobre la
inaccesibilidad de los fenómenos psíquicos a la conciencia), de tal modo que lo que resulta accesible a la
conciencia del sujeto son únicamente los productos del procesamiento, pero no los procesos mismos en cuanto
tales (de Vega, 1984; Froufe, 1985). En este sentido, Miller (1962a) apunta que es el resultado, y no el proceso
el que aparece espontáneamente en la conciencia. Es bien conocido el artículo de Nisbett y Wilson (1977), en
el que conceden muy poco valor a los procedimientos introspectivos, argumentando, a partir de una serie de
experimentos, que los sujetos no describen con fidelidad las experiencias internas que les han ocurrido
realmente sino que se basan en teorías causales implícitas vigentes en su medio cultural. Estos y otros puntos
críticos (por ejemplo, Pinillos, 1985) obligan a un replanteamiento del valor de la evidencia introspectiva en
nuestra disciplina, pero no parecen suficientes para considerar la introspección genéricamente inválida, por lo
que se hace necesario proporcionar criterios que permitan decidir cuándo puede usarse la introspección.
Precisamente, Ericsson y Simon (1980, 1984), con motivo de sus respuestas a Nisbett y Wilson,
argumentan que hay diversas clases de procedimientos introspectivos (algo que ya había sido señalado por
Radford, 1974) y proponen criterios para tratar de determinar los usos válidos de la misma. Entre estos se
incluyen la preferencia por la obtención de los autoinformes durante el transcurso de la tarea mejor que
retrospectivamente, la probabilidad de mayor precisión cuando se requiere de los sujetos una descripción que
cuando se les pide interpretar una situación y, especialmente, la utilidad de los procedimientos introspectivos
sólo para aquellos procesos controlados que reciben el foco de la atención consciente y que permiten
verbalizaciones concurrentes, como en el caso de los protocolos verbales. La mayoría de los trabajos
analizados por Nisbett y Wilson (1977) no satisface ninguno de los criterios anteriores.
No cabe duda que la introspección tiene ciertas limitaciones en cuanto a su utilización como recurso
metodológico para el estudio de los procesos cognitivos; de ahí los citados criterios y otras advertencias o
precauciones que se recomienda tomar (Froufe, 1985, Pinillos, 1985). Pero ello no impide que los
procedimientos introspectivos resulten esenciales para obtener información y, en cualquier caso, como señala
Pinillos (1983, 1985), la información subjetiva es susceptible de tratamiento científico siempre que se asuma
a título hipotético, generando predicciones cuya verificación conductual sea posible.

Problemas de los métodos descriptivos


Son muchos los problemas que plantea el uso de estos métodos, de entre los cuales se pueden
destacar los siguientes:
- No proporcionan información sobre las relaciones existentes entre los diversos fenómenos
observados, precisamente por su naturaleza descriptiva.
- Debido a la falta de control sobre las condiciones y los hechos que se han observado, es muy difícil
conseguir réplicas de los datos obtenidos.
Tema 1.- Histora y método de la Psicología moderna 21
- Resulta especialmente difícil mantener la objetividad en la aplicación de estos métodos y no pasar
a un nivel interpretativo.
- Se pueden producir sesgos en las observaciones como consecuencia de la propia influencia del
observador. Este problema no es exclusivo de los métodos descriptivos sino que afecta a todos los
métodos científicos.
Sin embargo, no debe concluirse la existencia de un antagonismo metodológico entre descripción
fenoménica y contrastación empírica puesto que no sólo no son excluyentes sino que ambos procedimientos
son complementarios. La oposición entre descripción y explicación es falsa y esto, fundamentalmente, por dos
razones: primero, toda ciencia empírica aspira tanto a describir como a explicar los fenómenos que estudia;
y, segundo, la descripción es el prerrequisito de la explicación científica (Musso, 1970). En efecto, la
descripción, correctamente realizada, debe suministrarnos los datos relativos a los fenómenos y las condiciones
iniciales que han de darse para la aparición de un determinado fenómeno. Y estos datos son necesarios para
que se puedan explicar algunos de esos fenómenos en función de los otros. En otros términos, sólo después
de responder a la pregunta sobre ¿cómo es tal fenómeno?, lo que se logra describiéndolo, tiene sentido
plantearse la pregunta sobre ¿por qué es como es?, la cual se responde explicándolo. Por consiguiente, la
descripción proporcionada por las técnicas descriptivas, rigurosamente controladas, es un estadio previo e
inevitable en la elaboración de una explicación científica, derivada de investigación experimental.

3.1.1.2.- Métodos correlacionales


En la mayoría de las ocasiones, cuando nos planteamos el estudio científico de un determinado evento,
no es suficiente la mera descripción de los hechos que observamos al aplicar los métodos descriptivos. La
observación de las situaciones proporciona información relativa a una serie de variables que parecen jugar un
papel determinante sobre lo que se observa. Pero el interés debe ir más allá e intentar llegar a obtener
información relativa a cómo estas variables se pueden relacionar entre sí, para ello, se necesita aplicar un
método que permita llegar a establecer dicha relación; esto es, se debe acudir a los métodos correlacionales.
Los métodos correlacionales son superiores a los descriptivos en la medida en que permiten no sólo
describir una situación determinada, sino además establecer si existen relaciones de concomitancia entre
diferentes aspectos (variables) de esta situación y la magnitud de la misma, así como llevar a cabo una
predicción de los resultados que se pueden encontrar en una variable (criterio) a partir de los resultados
obtenidos en la otra (predictora), en función del grado de correlación entre ambas variables.
En cuanto a la aplicación de estos métodos correlacionales hay que decir que se utilizan mucho en
Psicología. Una de las principales aplicaciones de estos métodos consiste en su utilización para establecer la
fiabilidad y la validez de las pruebas y de los instrumentos observacionales. También son útiles para estudiar
aquellos casos en los que los fenómenos no pueden manipularse, bien por dificultades técnicas, bien por
razones éticas. Otras veces, la investigación es difícil y costosa y las técnicas correlacionales pueden constituir
un primer paso para conocer si existe, o no, relación entre los fenómenos.
Por último, uno de los problemas asociados al método correlacional es el hecho de que en algunas
ocasiones, se extraen conclusiones de causalidad cuando, con estos métodos, sólo se llega a obtener niveles
de relación entre las variables objeto de estudio. Aunque en rigor no se debería interpretar una covariación en
términos causales, algunas circunstancias hacen que, de hecho, se avancen hipótesis causales a partir de datos
correlacionales. Resumiendo, lo que nos dice el método correlacional es si hay, o no, relación matemática entre
dos o más variables. Muchas veces, éste es el primer paso para la investigación experimental.

2.1.2.- Métodos experimentales


Cuando se quiere llevar a cabo una investigación experimental se utiliza como estrategia de trabajo
el experimento, es decir, una situación provocada por el experimentador para que se produzca un fenómeno
determinado, en un momento determinado, que le permita observar, bajo condiciones controladas, los efectos
de ese fenómeno. Las ventajas de este tipo de planteamiento de investigación son:
- El investigador provoca en el momento deseado el fenómeno que pretende estudiar y, por lo tanto,
está preparado para observarlo.
- Para provocarlo, el investigador debe especificar todas y cada una de las condiciones en que se da
este fenómeno, de manera que, cualquier otro investigador o él mismo, pueda repetirlo.
- Al tener bajo control las condiciones en las que se da el fenómeno debe resultar más fácil, para el
observador, evaluar sus resultados.
El método experimental tiene como objetivo estudiar la posible relación de causalidad existente entre
dos variables, es decir, trata de llegar a establecer hasta qué punto una determinada variable que se manipula
(variable independiente, VI) es la causa de los cambios que se observan en otra variable (variable dependiente,
VD) que se mide siguiendo un criterio previamente establecido. Para poder llegar a establecer dicha relación
de causalidad, el investigador no sólo se limita a manipular la variable que quiere estudiar (la VI), sino que
además debe mantener constantes los efectos de las restantes variables (variables contaminadoras) que
pueden afectar al fenómeno que está estudiando, lo que, de ocurrir, podría sesgar los resultados obtenidos.
Este objetivo se consigue gracias a la aplicación de toda una serie de técnicas de control experimental.
Así pues, el control que el experimentador ejerce sobre las variables del experimento estará en función
del tipo de variable que se desee controlar. Respecto a la VI el experimentador deberá conocer exactamente
qué valor de dicha variable está presente en la situación experimental. El control que se ejerce sobre la VD se
refiere al instrumento de medida que permita evaluarla de la mejor forma y la más exacta. En cuanto al control
de las variables extrañas es mucho más complejo pero el interés del experimentador se centra en que
desaparezcan de la situación experimental y, si ello no es posible, que no influyan de una forma sistemática
22 Procesos Psicológicos Básicos: J.R. Alameda (Departamento de Psicología)
sobre la misma.
La principal ventaja que presenta el experimento con respecto a otras técnicas de investigación es la
de proporcionar un mayor control sobre la situación que se investiga, lo que permite obtener conclusiones más
definitivas sobre el problema investigado (v.g. Pereda, 1987).
En el experimento ideal, todas las variables, excepto la que se manipula, se mantienen constantes, esto
es, no afectan diferencialmente a los resultados obtenidos. Cuando esto se cumple, todas las diferencias que
se encuentren en la variable dependiente pueden ser achacadas a la manipulación que ha tenido lugar en la
variable independiente, esto es precisamente lo que permite establecer relaciones de causalidad entre ambas
variables, es decir, la variable independiente es la causa y los cambios en la variable dependiente son el efecto.
La investigación experimental es posible y, además, imprescindible para explicar la naturaleza de la
conducta humana. Así, el experimento es una de las mejores herramientas de explicación del funcionamiento
de los procesos psicológicos.
En la realización de un experimento se pueden establecer, al menos tres fases o pasos (Anguera,
1988; Rudestan y Newton, 1992; Martínez-Arias, 1994; Zaccagnini, 1994):
- Determinación del problema: Parece obvio que no todos los problemas son susceptibles de ser
analizados haciendo uso del método experimental. Sólo con aquellos problemas en los que sea posible
ofrecer una definición operativa y que puedan ser resueltos en términos de causalidad se puede aplicar
este método.
Una vez delimitado el problema es necesario definirlo operativamente (aspecto esencial en el método
experimental) de forma que sea posible su manejo. En otras palabras, definir el problema en forma de
pregunta empíricamente contestable. Por último, es preciso revisar la información existente sobre dicho
problema.
- Planteamiento de la hipótesis: La hipótesis ha de afirmar una relación causal entre la variable
independiente y la variable dependiente. A partir de la hipótesis de trabajo se diseña el experimento
o situación en la que éste se va a poner a prueba. Por otro lado, es importante el control de las
variables extrañas.
- Análisis de resultados y Comprobación de la hipótesis: Los resultados han de interpretarse. En
este sentido, la discusión compara los resultados obtenidos con la hipótesis planteada. En el caso de
que coincidan se puede confirmar la hipótesis de trabajo, en caso contrario no se confirma. Aunque
siendo rigurosos nunca se confirma la hipótesis de trabajo sino que sólo es posible el rechazo de la
hipótesis nula. Por último, se ha de comparar los resultados con las teorías o modelos propuestos.

2.2.- Procedimientos experimentales


En el momento actual se utilizan diferentes estrategias experimentales para el estudio de los procesos
mentales. Inicialmente y desde el enfoque del procesamiento de la información se recurrió a la medida de dos
aspectos característicos de la conducta observable complementarios entre sí: El Tiempo de Reacción (TR) que
permite inferir la complejidad de los procesos, y la Precisión de las Respuestas, determinada generalmente
mediante el número de aciertos y errores, que permite inferir la sofisticación de los procesos subyacentes a una
tarea y su dificultad. Por otro lado, el desarrollo alcanzado por la tecnología en las últimas décadas permite el
estudio directo del funcionamiento neurofisiológico proporcionando a la Psicología nuevos datos, tanto
estructurales como funcionales, de los procesos mentales. Por último, el planteamiento computacional ha
proporcionado a la Psicología otra base excepcional para explicar cómo funciona la mente.
A continuación se realizará un análisis de los procedimientos experimentales y estrategias de
investigación más utilizados en el estudio de los procesos psicológicos.

2.2.1.- Tiempos de reacción: la duración de los procesos mentales


El tiempo de reacción o latencia de respuesta es uno de los índices empíricos más usuales en la
investigación experimental cognitiva, hasta el punto de que se ha llegado a decir que, junto con el número de
aciertos, son las dos posibles variables dependientes en Psicología (Posner, 1978). La lógica de toda tarea
experimental, basada en los tiempos de reacción es que el tiempo necesario para responder está en relación
directa con la naturaleza y complejidad del proceso a estudiar, es decir, a mayor complejidad se hace necesario
un mayor tiempo de respuesta.
El estudio de los procesos mentales a través del análisis cronométrico cuenta en Psicología con una
amplia tradición. El origen histórico de las técnicas cronométricas se encuentran en los trabajos pioneros de
Helmholtz, Donders, Wundt, la escuela de Wurtzburgo, etc., llegando a ser tal el interés por este tipo de técnica
que las últimas décadas del pasado siglo se conocen como el período de la cronometría mental (Boring,
1950/1978). Su utilización, como medida experimental, se remonta a la primera mitad del siglo XIX con Bessel
y la ecuación personal, ya que como afirma Boring (1950/1978) ésta, la ecuación personal, en realidad es una
observación del tiempo de reacción. Donders, ya en la segunda mitad del XIX revisó toda la bibliografía sobre
la ecuación personal y la reacción simple. Su punto teórico de partida era considerar que mediante las medidas
cronométricas de distintas tareas se podría establecer la medida de los eventos mentales. Así en 1868 diseñó
experimentos de reacción más complejos, donde utilizó varios estímulos y sus respuestas fijas (Boring,
1950/1978). Al introducir nuevos estímulos hizo que los tiempos de respuesta aumentasen, considerando que
este aumento era debido al tiempo necesario para realizar la elección, por lo que si al tiempo total de respuesta
se resta el tiempo necesario para una reacción simple, tendríamos la medida del tiempo de elección. Así surgió
el llamado procedimiento sustractivo que junto con la medición de los tiempos de reacción fueron una parte
fundamental en el laboratorio de Wundt. Así, el tiempo de reacción, se va a interpretar, desde Donders, en la
mayoría de los casos como una medida más o menos directa de la duración de los procesos mentales
Tema 1.- Histora y método de la Psicología moderna 23
(Wasserman y Kong, 1979), si bien, también hay interpretaciones contrarias, en el sentido de considerar que
el tiempo de reacción no es una salida computada del mismo proceso cognitivo, y que tampoco es una medida
de la duración de un suceso mental (Pylyshyn, 1979, 1984/1988). En Ciencia Cognitiva se ha llegado a
considerar el tiempo de reacción, al igual que otras medidas (la respuesta galvánica de la piel, los registros de
un pletismógrafo, etc.), como un índice o correlato observable de alguna propiedad agregada de los procesos
psicológicos, o como un índice de complejidad computacional, relacionado con propiedades tales como el
número de operaciones realizadas (Pylyshyn, 1984/1988).
Después de la pérdida de vigencia durante la etapa conductista, la medición del tiempo de los procesos
mentales adquiere de nuevo gran interés con el surgimiento de la Psicología Cognitiva (Posner, 1978; Bernia,
1981; Rechea, 1981a; Tudela, 1981). Como cabe suponer, el hecho de que el predominio de esta medida
coincida con las etapas históricas en las que se da un especial énfasis a los procesos mentales se debe,
fundamentalmente, a que el tiempo de reacción se considera como un índice objetivo de la complejidad del
proceso interno implicado en la ejecución de una determinada tarea. Ahora bien, no debe olvidarse que el
tiempo de reacción es simplemente una medida, no un proceso ni un mecanismo. Así su análisis e
interpretación va ligado a ciertos supuestos teóricos y determinados artefactos experimentales (Soler y
Pitarque, 1998); en general, la asunción del modelo lineal de estadios discretos y el uso de diseños de tipo
convergente han dado lugar, como ya es sabido, a los dos métodos de análisis del tiempo de reacción más
conocidos en la investigación cognitiva, el método sustractivo propuesto originalmente por Donders y el método
de factores aditivos, desarrollado un siglo después por Sternberg (1969a, 1969b).
El método de sustracción, que tuvo gran éxito en los primeros años de la Psicología Experimental, ha
sido aplicado en diversas áreas de investigación cognitiva. La lógica básica del método, partiendo de la
generalización de los trabajos de Donders, es que la duración de una etapa de procesamiento puede medirse
al comparar el tiempo requerido para solucionar una versión de la tarea que incluye la etapa de interés con el
de una segunda versión que difiere de la primera sólo en la omisión de la etapa en cuestión; la diferencia en
el tiempo de solución para las dos versiones es el índice de la duración de dicha etapa.
Aparte de lo cuestionable del modelo lineal de etapas o estadios discretos en el que se basa, este
método lleva implícitos algunos problemas importantes, como son el apriorismo sobre los procesos
componentes implicados en la ejecución de una tarea y el supuesto de aditividad de los estadios -que también
es discutible-, según el cual es posible insertar o suprimir un estadio o etapa de procesamiento sin que afecte
a la duración de las otras etapas (Tudela, 1981; Rechea, 1982; Eysenck, 1984; de Vega, 1984).
El método de factores aditivos supera de algún modo el primero de los problemas mencionados, el
apriorismo, aunque no el segundo, el supuesto de aditividad, si bien trata de fundamentarlo. Dicho método no
pretende medir la duración de las etapas supuestamente implicadas en una tarea, sino descubrir empíricamente
cuántas y cuáles son las etapas que intervienen en la ejecución de la misma. Realmente se trata de una
modificación del método de Donders, utilizando la misma concepción lineal de estadios discretos, pero mucho
más explícita. Sternberg parte de la existencia de una serie de etapas de procesamiento independientes,
dispuestas serialmente, realizándose en cada una de ellas una operación o proceso específico. Utilizando
situaciones experimentales en las que se manipulan diversos factores, cada uno de los cuales se supone que
afecta a un proceso diferente entre los hipotéticamente implicados, y analizando el resultado del
correspondiente análisis estadístico sobre el tiempo de reacción, puede proporcionar información sobre la
aditividad o no de los efectos factoriales.
El método de factores aditivos no sólo ha sido aplicado por el propio Sternberg a diferentes tipos de
tareas experimentales, de las cuales la más conocida es la que él denomina “tarea de reconocimiento de
ítems”, sino que ha sido el más influyente desde la década de los 70 y el que ha generado mayor cantidad de
resultados experimentales, siendo ampliamente utilizado en las más diversas investigaciones de los procesos
cognitivos.
A pesar de los méritos del citado método, ha recibido críticas importantes como la realizada por
Pachella (1974), relativa a lo cuestionable que resulta el uso de efectos aditivos e interactivos para identificar
el número de etapas de procesamiento, siendo su limitación más importante la asunción explícita de la
concepción lineal del procesamiento. En este sentido, una alternativa a algunos de los supuestos más
problemáticos planteados desde dicha concepción la ofrece el método de los efectos específicos de Taylor
(1976, 1977) como modelo de etapas dependientes, si bien algunos autores (por ejemplo, Townsend y Ashby,
1983) lo consideran como una extensión del método de Sternberg a los casos en los que se viola el supuesto
de independencia de etapas. Un intento posterior de ofrecer ya una alternativa global al sistema de Sternberg
ha sido realizado por McClelland (1979) con su modelo de procesamiento en cascada, según el cual la
información fluye constante y continuamente por las etapas de procesamiento, no siendo contingente con la
terminación de cada una de ellas. Sin embargo, este modelo no ha tenido mucha aplicabilidad empírica,
principalmente por su falta de operatividad a la hora de aislar los procesos intervinientes en la ejecución de una
tarea; además, el propio McClelland, junto con Rumelhart, ha reconocido fallos importantes en dicho modelo,
como el suponer un flujo unidireccional de la información, proponiendo ellos mismos (McClelland y Rumelhart,
1981/1990, 1985) un modelo de procesamiento interactivo donde se defiende un procesamiento en paralelo
a distintos niveles de complejidad que pueden activarse simultáneamente.
Frente a todos los modelos anteriores que suponen un procesamiento en etapas, ya sea como sucesión
de estadios discretos o continuos, han surgido también modelos que asumen un procesamiento sin etapas, de
tal modo que la respuesta del sujeto se produce tras la superación de un umbral o criterio previamente
establecido, como el modelo del criterio variable de Grice, Nullmeyer y Spiker (1982); de todos modos, esta
alternativa en el análisis e interpretación de los tiempos de reacción no cuenta, al menos de momento, con
suficiente apoyo empírico (para una visión más detallada ver Soler y Pitarque, 1987).
24 Procesos Psicológicos Básicos: J.R. Alameda (Departamento de Psicología)
En cualquier caso, lo que sí parece claro es que el tiempo de reacción como variable dependiente se
ha utilizado y se sigue utilizando en cantidad de investigaciones, que no necesariamente asumen expresamente
una concepción lineal del procesamiento, aplicando muchas veces modelos de análisis e interpretación
determinados fundamentalmente por el contexto teórico en que tales investigaciones se realizan. Así, por
ejemplo, en los estudios cronométricos de rotación de imágenes mentales, la magnitud del tiempo de reacción
se ha considerado una medida directa de la duración de un proceso mental continuo (por ejemplo, Shepard y
Metzler, 1971; Cooper y Shepard, 1973; Metzler y Shepard, 1974; Cooper, 1975, 1976; Shepard, 1975); en las
tareas de categorización semántica se ha tomado como indicativo de la tipicidad de los elementos de una
categoría (por ejemplo, Rips, Shoben y Smith, 1973; Rosch, 1978; Smith, 1978; McCloskey y Glucksberg,
1979). Ahora bien, a pesar de su presencia en la mayor parte de las investigaciones de laboratorio sobre
procesos cognitivos, el uso como variable dependiente de los tiempos de reacción implica algunos problemas
de orden teórico-metodológico. Así, la correlación positiva entre la latencia y precisión, cuya función
característica operativa, supuestamente ajustada a una curva asintótica, fue establecida por Pew (1969), tiene
importancia a la hora de elaborar las instrucciones dadas a los sujetos para conseguir el equilibrio (“trade-off”)
adecuado; otro índice de medida, como es la seguridad del sujeto en su respuesta parece guardar, en cambio,
una relación inversa con la latencia de la misma. Hay también otros problemas como el de la variabilidad de
los tiempos de reacción y la forma de la distribución de los mismos, que pueden entrañar dificultades en la
interpretación de los datos empíricos, ante lo cual deben adoptarse algunas estrategias, ya sean relativas a la
recogida de dichos datos o al análisis de los mismos (Ratcliff y Murdock, 1976; Ratcliff, 1979, 1988; Murdock,
1982; Shoben, 1982; Hockley, 1984). En efecto, numerosos autores (p.e., Pachella, 1974; Wickelgren, 1977)
pusieron en evidencia una relación inversa o ajuste entre la velocidad y la precisión de las respuestas, ya que
es posible ejecutar muy rápidamente una tarea cometiendo muchos errores o lograr un elevado número de
aciertos empleando un tiempo inusualmente largo. Mediante sofisticados diseños cobraban significado teórico
tanto las latencias como la precisión. En la actualidad han sido diseñados nuevos procedimientos
experimentales que posibilitan obviar el problema del ajuste rapidez-precisión, bien forzando la respuesta en
un intervalo crítico (Wickelgren, 1977), bien extrayendo los TR que se adecuan a un determinado criterio de
exactitud de la respuesta, sobre la base de emitir los sujetos un valor subjetivo de certeza o grado de seguridad
con el que creen haber respondido (Ratcliff y Murdock, 1976; Lecocq y Tiberghien, 1981), e incluso obteniendo
un índice que exprese la relación entre ambos aspectos característicos de la respuesta, que se denomina
eficacia (Aznar, 1991) y se define operacional mente como la razón entre la tasa de aciertos y el promedio de
las medianas de los Tr.
Otra alternativa metodológica (Miller, 1982; Meyer, Osman, Irwin y Kounios, 1988) denominada
procedimiento de anticipación de la respuesta (Response-Priming-Procedure), consiste en medir el TR tras
adelantar al sujeto información parcial sobre la respuesta requerida antes de que emita su respuesta. Al
observar cómo la información parcial mejora la ejecución, en comparación con otra condición de
no-información parcial, pueden extraerse conclusiones acerca de las características de los procesos dinámicos
a los que sometemos la información.

2.2.2.- La psicofísica: estudio de la sensibilidad


El campo de la Psicofísica es muy amplio y abarca todo lo que concierne a las relaciones y
regularidades entre los estímulos físicos (intensidad del estímulo) y las respuestas sensoriales (Fontes y Fontes,
1994), y los juicios que el sujeto tiene sobre dicha relación (Añaños, 1999), su objetivo es conocer la relación
cuantitativa que se da entre las magnitudes del estímulo y de la respuesta. Como es obvio, ésta no es una
relación simple, refleja, entre otros, en los siguientes hechos (Añaños, 1999):
- Es difícil diferenciar dos estímulos de la misma naturaleza con intensidades similares.
- Dos estímulos físicos diferentes pueden producir sensaciones similares.
- Diferencias individuales en magnitud, es decir, no hay unanimidad en cuanto a la mínima magnitud
de estímulo detectable.
- Diferencias en un mismo sujeto en cuanto a la mínima magnitud de un estímulo detectable.
- Cambios de intensidad que en unas ocasiones son percibidos y en otras no.
Siguiendo a Fernández Trespalacios (1985, 2001) se puede hacer una división de la psicofísica en
Psicofísica Clásica o fechneriana y la Nueva Psicofísica o de Stevens (Psicofísica Moderna). En la primera,
al estudiar las relaciones estímulo-sensación se asume que el juicio que emite el sujeto sobre su experiencia
sensorial coincide con el valor de su sensación. En la segunda, se estudia la relación entre sensación-juicio del
receptor, estando el juicio determinado por el valor de la sensación y por la decisión del sujeto.
Uno de los primeros científicos que se dedicó al estudio de las relaciones funcionales psicofísicas fue
Weber (1795-1878), quien intentó medir los límites de la sensibilidad de los órganos sensoriales utilizando
técnicas de medida propias de la física y observadores bien entrenados. Este autor, consideró que a pesar de
que la medición del estímulo no era equivalente a la medición psíquica real, se podrían aplicar leyes a la
percepción psicológica de la misma forma que se aplicaban al mundo físico. Así, llegó a plantear la que sería
la primera función psicofísica, la ya conocida Ley de Weber, una función matemática que establece que para
que el sujeto note un cambio de sensación el estímulo físico tiene que aumentarse en una proporción constante
de su magnitud real. Además, según Weber, esta relación dependía de la modalidad sensorial que se
considerara y venía a ser un índice aproximado de la finura o de la sensibilidad discriminativa de los distintos
sentidos. La formulación operativa de esta ley es: K=? E/E, donde, ? E es el incremento mínimo del valor del
estímulo necesario para que los individuos perciban una diferencia mínima en la sensación (llamado diferencia
apenas perceptible, d.a.p.); E hace referencia a la magnitud del estímulo; y K es un valor constante, conocido
como Constante de Weber.
Tema 1.- Histora y método de la Psicología moderna 25
El establecimiento de esta ley fue importante por varios motivos. En primer lugar, como señalan Baird
y Noma (1978), debido a la gran influencia posterior de Fechner, quien la asumió para deducir su función
logarítmica; en segundo lugar, porque abría la posibilidad de estudiar los procesos psicológicos, especialmente
la percepción humana, mediante métodos científicos; además, proporciona un índice válido de la sensibilidad
relativa de cada canal sensorial; y por último, al no depender el cociente de la unidad de medida permite
comparar dos continuos sensoriales diferentes (Ponsoda, 1986). Sin embargo, esta ley no estuvo exenta de
problemas en su aplicación, sobre todo en cuanto a la deficiencia de los ajustes de las distintas intensidades
estimulares cuando se manipulaban estímulos de alta y baja intensidad (Fernández Trespalacios, 1985, 2001).
Además, no parecía válida para todos los sentidos. Estos problemas llevaron a la aparición de algunas
funciones alternativas y reformulaciones.
Con estos antecedentes, será Fechner (1801-1887), a quien se considere verdadero fundador de la
Psicofísica al acuñar el término en su obra de 1860 “Elemente der Psychophysic”(Boring, 1950/1978). Fechner,
en consonancia con la filosofía y el vocabulario de su época, definió la psicofísica como una teoría exacta de
la relación entre cuerpo y mente. Esta definición se ajusta más a lo que él llamaba psicofísica interna que a
lo que hoy se estudia como psicofísica. Desde su punto de vista, esta última podría clasificarse más bien como
psicofísica externa (Forgus y Melamed, 1989). Para Fechner había tres conceptos básicos:
- el ambiente físico externo
- la actividad cerebral
- la percepción consciente (sensación).
Entendía la percepción como un conjunto de dos pasos sucesivos que irían, en primer lugar, desde la
estimulación externa (energía física) hasta la producción de una determinada actividad cerebral (definible
también en términos meramente físicos) y, en segundo lugar, desde esta actividad cerebral a la producción de
una sensación consciente. La psicofísica interna se encargaría por tanto de esclarecer la relación existente
entre la actividad cerebral y la actividad mental (la sensación), mientras que la psicofísica externa obviaría este
paso intermedio y se interesaría directamente por la relación existente entre la estimulación exterior y el nivel
psicológico de la sensación. De hecho, este último concepto es el que finalmente ha dominado la disciplina
psicofísica aunque, también es cierto que el estudio de la relación entre la actividad fisiológica y la percepción
ha producido resultados muy interesantes para la comprensión del proceso perceptivo (Forgus y Melamed,
1989).
Una de sus contribuciones más importante es la ley logarítmica. Según ésta, existiría una determinada
intensidad en la estimulación (umbral absoluto) que provoca sensaciones nulas (no provoca sensación),
además, también se establece que todo incremento en el continuo estimular va a provocar aumentos en el
continuo sensorial, es decir, razones iguales entre estímulos provocarán intervalos iguales en sensación.
Formalmente, la ley se expresa: S=K LogE; donde, S es la intensidad de la sensación; E, la magnitud del
estimulo; y K el valor constante.
La ley logarítmica es una medida indirecta y acumulativa. Es indirecta porque mide la sensibilidad a
través de las unidades de la escala física con la que se mide el estímulo. Este hecho ha sido criticado por
algunos autores, argumentando que establece una relación entre dos entidades que no son iguales. Otros van
más allá y consideran que la sensación, al no poseer magnitud física, no puede ser medida (Fontes y Fontes,
1994). Esta ley es acumulativa, porque la sensación se cuantifica por la acumulación de diferencias apenas
perceptibles, relacionadas mediante esta ley, con una escala física. Esto ha sido duramente criticado utilizando
dos argumentos: el primero considera que, a nivel subjetivo, sólo existen saltos cualitativos y, por tanto, una
sensación grande es una experiencia nueva y no la suma de muchas sensaciones pequeñas (de Castro, 1982);
el segundo está relacionado con las diferencias mínimas en el continuo sensorial, concretamente con su
variabilidad tanto a nivel intra como interindividual, lo que implica que éstas no se pueden considerar como
unidades fijas sino que puede variar dependiendo de algunos factores como la sensibilidad del organismo, la
actitud del sujeto y los errores de medida (Green y Swets, 1966). Actualmente esta ley no es considerada como
una afirmación exacta sobre la relación entre la intensidad del estímulo y la magnitud de la sensación
(Gescheider, 1985); y sólo tiene validez, igual que la de Weber, en la gama media de los valores del estímulo.
Como es evidente, la psicofísica clásica se construyó sobre la idea de que existen umbrales
sensoriales. En esta época, se aceptaba, casi sin discusión, que para cada continuo sensorial existía un cierto
nivel de intensidad del estímulo que separa las intensidades que pueden producir una activación en el órgano
sensorial y provocar, en consecuencia, una sensación, de aquellas otras que no pueden; esta intensidad es el
concepto psicofísico de umbral. El umbral es algo físico (se refiere a un determinado estímulo) y psicológico,
implica un cambio en la actividad mental (sensación/no sensación). Se distinguen dos tipos de umbral: el
absoluto (la cantidad de energía mínima necesaria que debe tener un estímulo para que pueda ser detectado),
y el diferencial (el incremento mínimo en la energía de un estímulo necesario para que éste produzca un
cambio en la sensación que provoca).
La psicofísica clásica, además, proporciona una serie de métodos experimentales (psicofísicos)
indirectos, para medir los umbrales. Fechner describió, en su texto clásico, tres métodos diferentes para
determinar los umbrales sensoriales: a) el método de los límites; b) el método del error promedio o de ajuste;
y c) el método de los estímulos constantes. Todos tienen en común que se le pide a los observadores que
emitan un juicio acerca de cuándo dos estímulos parecen diferentes y cuándo parecen iguales.
El Método de los límites, también conocido como método de los cambios mínimos o método de las
diferencias apenas perceptibles (d.a.p.) se utiliza para medir los cambios que se pueden detectar en
dimensiones físicas o temporales de los estímulos. Ha sido uno de los métodos más utilizados por su
flexibilidad y adaptación a estímulos y situaciones diversas. Su misma aplicación ilustra muy bien el concepto
de umbral, obteniéndose directamente los puntos críticos de cambio o inflexión perceptiva, no en vano es el
26 Procesos Psicológicos Básicos: J.R. Alameda (Departamento de Psicología)
origen de las d.a.p.. Algunos de sus problemas principales se derivan del hecho de que la situación de
determinación del umbral se convierte en altamente predecible. Como fuentes de error más frecuentes (aunque
pueden ser evitadas utilizando diferentes variantes del método) pueden citarse las siguientes (Muñiz, 1991):
- Error de habituación, consistente en la tendencia del sujeto a seguir dando la misma respuesta
durante un período amplio.
- Error de expectativa, es la tendencia del sujeto a cambiar anticipadamente de juicio en las series,
precisamente por su expectativa de cambio. Ello tiende a incrementar la d.a.p. al separar el límite del
punto de igualdad subjetiva. El uso de las series ascendentes y descendentes contribuye a controlar
los efectos de ambos errores.
- Errores de estímulo, son todos aquellos cometidos por el sujeto debido a que basa sus juicios en
determinados aspectos irrelevantes (no pertinentes) del estímulo, como puede ser en el ritmo de
crecimiento o decremento de los estímulos más que en su intensidad.
- Final de la serie, hace referencia a cuándo dar por terminada una serie. Esta cuestión ha sido muy
debatida; el problema está en que si la terminamos en la primera inflexión o cambio (al aparecer el
primer “menos”en las series descendentes o el primer “más” en las ascendentes) nada nos asegura
que posteriormente no vaya a aparecer una incongruencia.
Un segundo tipo de método es el Método del error promedio o de ajuste, que tiene como principal
característica que se le pide al observador que realice juicios sobre la igualdad o no de dos estímulos, siendo
él mismo quien manipula el estímulo. Este método tiene la ventaja de ser económico en tiempo y dar en cada
ensayo una medida. Además, resulta muy motivador para el sujeto al que no se asigna un papel pasivo, ya que
ha de manipular el estímulo de comparación. Con esto, no se quiere dar a entender que la actitud del sujeto
sea totalmente pasiva en los otros métodos, sino que en éste actúa directamente sobre los estímulos y ello se
refleja en la mayor colaboración que suelen mostrar los sujetos. Sin embargo, sus problemas se derivan,
precisamente, de esta misma ventaja, ya que en ocasiones se cometen errores de manipulación en lugar de
errores perceptivos, como, por ejemplo el problema de la “incertidumbre de la mano” o incapacidad de los
sujetos para ajustar el aparato de modo que represente exactamente el estímulo deseado. Otro problema
importante, característico de este método, es que hace referencia a un error temporal constante; si hay que
ajustar un estímulo de comparación a uno estándar, éste debe ir antes en el tiempo que aquél, pudiendo darse
un error temporal positivo (cuando las comparaciones posteriores tienden a infravalorarse) o negativo (cuando
las comparaciones posteriores se supervaloran). La ocurrencia de uno u otro depende de cada situación
estimular, lo que exige un especial cuidado en la generalización.
Un tercer método clásico es el Método de los estímulos constantes, que se basa en el supuesto de que
la percepción de un estímulo no es un fenómeno repentino, sino un proceso gradual probabilístico. El método
trata de medir estas probabilidades para cada valor del estímulo. Con este método se solucionan muchos de
los problemas atribuidos a los métodos previos, resultando motivador y fácil para los sujetos, y permitiendo al
experimentador obtener el máximo de información de todos los ensayos presentados. En su contra puede
argumentarse que no es muy económico, ya que requiere el uso de un número relativamente grande de
estímulos, cada uno de los cuales debe presentarse repetidamente en un número considerable de ocasiones
para obtener un valor fiable de probabilidad (para una visión más detallada ver Guilford, 1954).
Aunque el trabajo de Fechner generó una fuerte polémica dejó algunas aportaciones fundamentales
para los desarrollos de la psicofísica posterior, tales como el poner de manifiesto, entre otras muchas cosas,
la imperfección de los sujetos humanos como instrumentos de medida, la variabilidad del umbral y la variación
de la sensibilidad en función del continuo estimular, entre otras. Sin embargo, a pesar de estas críticas, la
importancia de la obra de Fechner es incuestionable. Desde el punto de vista teórico, fue uno de los primeros
en establecer una relación matemática entre el continuo físico y el psíquico. En el plano metodológico, supone
la aparición de los primeros métodos cuantitativos de medida en Psicología. Aunque estos tres métodos básicos
han sufrido numerosos refinamientos, han permanecido básicamente sin cambios hasta nuestros días. Además,
se podría decir que las ideas de Fechner marcaron el principio del enfoque experimental de la Psicología, ya
que él fue el primero en defender un enfoque sistemático riguroso para estudiar las experiencias psicológicas
(Matlin y Foley, 1992/1996). A partir de Fechner la psicofísica tomará dos caminos distintos en su desarrollo,
uno que culminará en el escalamiento directo de Stevens y, otro representado fundamentalmente por la figura
de Thurstone y basado en la variabilidad perceptiva. Esta última alternativa extenderá las ideas fechnerianas
a los continuos no físicos y es, además, un claro precursor de la Teoría de la detección de señales (TDS).
Stevens se planteó el problema psicofísico en un momento histórico de la ciencia muy diferente al de
Fechner, en pleno auge de las ideas del neopositivismo. Lógicamente, la psicofísica interna de Fechner ya no
es admisible para los científicos y la externa necesita una reformulación. Había que estudiar las relaciones
entre estímulos observables y respuestas observables, y no entre estímulos y sensaciones no observables. Así
lo exigía el conductismo y el operacionalismo tan influyentes en Stevens (Stevens, 1936, 1939). Stevens
interpreta la Ley de Weber de igual forma a como lo había hecho Fechner y, además, considera que las
diferencias apenas perceptibles son proporcionales a la magnitud de la sensación. Por lo tanto, el cambio en
la sensación ya no sería constante para todas las sensaciones sino proporcional a ella. Lo que ahora se
considera constante es la fracción entre la relación del incremento de la sensación y ésta, y el incremento del
estímulo y el estímulo (Fernández Trespalacios, 1985, 2001). Los estudios realizados por Stevens y
colaboradores les llevaron a la conclusión de que, en lugar de la ley logarítmica, la relación existente entre
estímulos y respuestas se ajustaría mejor a una relación potencial (R=KEn) que formularon en los siguientes
términos: razones iguales entre los estímulos producen razones subjetivas iguales (Equal stimulus ratios
produce equal subjective ratios) (Stevens, 1975, pág. 16). A esta ley también se la conoce como Ley General
de la psicofísica, pues incluye las leyes anteriores de Weber y Fechner. Según estas últimas, para que se dé
Tema 1.- Histora y método de la Psicología moderna 27
un cambio en la sensación tendría que haber un cambio mayor en la estimulación, es decir, la sensación crece
más lentamente que el estímulo. Según la ley de Stevens esto se cumple cuando “a”es menor que uno, lo que
significa que las leyes de Weber y Fechner son casos particulares de la ley de Stevens. La ley exponencial de
Stevens muestra cómo se relacionan el estímulo físico con la respuesta sensorial a través del valor del
exponente.
La función potencial se ajusta más a la evidencia empírica que a la logarítmica, aunque no está exenta
de problemas, sin embargo, a pesar de éstos, y siguiendo a Fontes y Fontes (1994), se puede decir que la ley
de Stevens no sólo se ajusta mejor a los datos empíricos sino que, además, dentro del campo psicológico es
de las que mejor fundamentadas están, aunque hoy en día es cuestionable afirmar que sea la verdadera ley
psicofísica. Las razones de ello se pueden resumir en tres puntos (Fontes y Fontes, 1994):
- La ley de Stevens está muy próxima a la de Fechner cuando el valor de su exponente es menor que
la unidad.
- Su teoría subestima los efectos del contexto y la importancia de las diferencias individuales.
- Asume la métrica euclidiana como característica del espacio perceptivo y no está tan claro que éste
se comporte según la misma.
A parte del establecimiento de la ley potencial, Stevens proporcionó a la psicofísica una serie de
métodos de medida directos que vinieron a sustituir a los métodos indirectos y que han sido ampliamente
utilizados en distintas áreas de la Psicología, y han aumentado el rango de aplicación de los principios de la
psicofísica más allá del campo perceptivo.

2.2.3.- La Teoría de la Detección de Señales


A partir de los años 50, procedente de la investigación matemática y electrónica, surgió un método
alternativo, la Teoría de Detección de Señales (TDS), como desarrollo natural de la Psicofísica clásica y el
escalamiento indirecto thurstoniano. Su origen es el de una teoría normativa para el funcionamiento de
aparatos sensores, puede usarse como teoría descriptiva, y, en determinadas condiciones proporciona un
patrón normativo con el que comparar el proceder humano. Su aplicación e introducción en Psicología se debe
a Tanner y Swets (1954) en experimentos de visión y Smith y Wilson (1953) y Munson y Karlin (1954) en
audición.
La TDS está ideada para la detección de señales débiles de cualquier modalidad (auditiva, visual, táctil,
etc.), sobre un fondo de ruido (R), o estímulos irrelevantes presentes en la situación y que pueden ser
confundidos con la señal. La situación de señal hace referencia a los casos en los que además de esos
estímulos irrelevantes ocurre también el estímulo señal, por lo que se suele denominar a esta situación como
señal+ruido (SR). Normalmente la intensidad de la señal permanece constante durante toda la sesión
experimental, a diferencia de lo que ocurría en los procedimientos psicofisicos clásicos. El experimentador
presenta la señal sólo en algunos ensayos, habiendo, por lo tanto, cuatro posibles resultados en cada ensayo,
se representan en la siguiente tabla:
Características de la respuesta

Situación del estímulo «Sí» (S) «No» (N)

Sólo ruido (sin tono) R Falsa alarma P (S/R) Rechazo correcto P(N/R)

Señal + ruido (Con tono) SR Acierto (S/SR) Error P (N/SR)


El núcleo básico y novedoso de la TDS radica en la distinción que establece entre el observador como
sensor y el observador como decisor, cuestión ésta que no había sido considerada en los procedimientos
psicofisicos tradicionales. En esta nueva concepción toda tarea de detección implica, al menos, dos procesos,
uno referente al funcionamiento del sistema sensorial y un segundo responsable de la decisión del sujeto. El
ambiente E (señal o ruido) actúa sobre el proceso sensorial y éste produce un determinado output (X): lo que
se plantea es que la respuesta del sujeto (R) no refleja directamente el valor de X, como pensaba Fechner, sino
que entre ambos se intercala un proceso de decisión que modifica el valor de X. Se trata, pues, de deducir el
valor de X a partir de la respuesta R y para poder hacerlo es necesario conocer cómo funcionan los dos
procesos implicados. Como esto es algo que tampoco se conoce, la estrategia de ataque consiste en asumir
una determinada forma de funcionamiento y ver qué supuestos son los que mejor explican los resultados
obtenidos empíricamente.
Con respecto al Proceso Sensorial, el punto fundamental de la TDS es que se prescinde totalmente
del concepto de umbral, suponiendo que el resultado del proceso sensorial consiste en una multiplicidad de
valores de sensación (s1, s2, s3, s4...sn) y que cada uno de estos estados sensoriales tiene una determinada
probabilidad de producirse cuando se da señal junto con el ruido (p1, p2, p3, p4...pn) y otra probabilidad distinta
cuando se presenta ruido solamente (q1, q2, q3, q4...qn). El sistema sensorial siempre está activado en mayor
o menor grado. Cuando se presenta el ruido, el valor particular de sensación evocado variará de ensayo a
ensayo, pero la probabilidad de unos valores será mayor que la de otros y, por tanto, aparecerá más veces a
lo largo del experimento. De la misma manera, al presentar la señal junto con el ruido la probabilidad de los
valores también variará, pero lógicamente la probabilidad de valores de sensación altos aumentará con
respecto a la situación de ruido. En resumen, aunque en un determinado ensayo sólo se produce de hecho un
valor de sensación, cada uno de ellos tiene una determinada probabilidad de ocurrir (pj) cuando el ensayo es
SR y otra (qj) cuando el ensayo es R. Las sensaciones que produce el ruido y la señal no se diferencian, pues,
28 Procesos Psicológicos Básicos: J.R. Alameda (Departamento de Psicología)
por su naturaleza, lo que las diferencia son sus distribuciones estadísticas.
En cuanto a la distribución de probabilidad de los valores de sensación, hay que decir que éste no es
un aspecto fundamental de la teoría; de hecho, ha sido desarrollada para distintos tipos de distribuciones (Egan,
1975), aunque lo habitual es considerar estas distribuciones como normales. Cuando las distribuciones del ruido
y de la señal están tan separadas una de la otra que no se solapan, entonces la situación de detección no
entrañaría ningún problema, sería muy sencillo discriminar los ensayos de ruido de los de señal y la ejecución
de los sujetos sería perfecta. El otro caso extremo se daría cuando ambas distribuciones fueran plenamente
coincidentes, en este caso, todos los valores de sensación tendrían exactamente la misma probabilidad de
proceder de la distribución del ruido o de la distribución de la señal, por lo que, sería imposible realizar la
detección. Sin embargo, las situaciones más comunes e interesantes son aquellas en las que ambas
distribuciones, la del ruido y la de la señal, tiene un cierto solapamiento; en este caso, hay una zona de
incertidumbre en la que los valores de sensación pueden provenir tanto de la distribución de la señal como de
la del ruido. Esta zona de solapamiento se relaciona con d', que será la medida de sensibilidad. Cuando d'
incrementa, lo hace también la sensibilidad y las situaciones de ruido y de señal+ruido se hacen más
distinguibles entre sí (no hay una superposición grande entre ambas distribuciones). Esto significa que es más
fácil discriminar los ensayos de ruido y de señal+ruido.
En síntesis, el proceso sensorial es iniciado por el entorno que estimula al observador, produciendo en
él una sensación de una determinada intensidad. Con ella se concluye el proceso sensorial y se pone en
marcha el proceso cognitivo. El proceso cognitivo se correspondería con la segunda fase del proceso
perceptivo y es el que, en última instancia, conduce a la selección de una respuesta por parte del observador,
que puede ser “Si, hay señal”o “No, no hay señal”.
Dado que el observador no sabe lo que ocurre en realidad, la teoría supone que el proceso de decisión
se realiza asumiendo un determinado valor (razón de verosimilitud) como punto de referencia y opta por
contestar “SI”siempre que la sensación producida tenga un valor asociado igual o mayor que el de referencia
y “NO”en caso contrario. Este valor de referencia es lo que se considera el criterio y se suele simbolizar por
la letra griega ? . Una vez establecido el criterio, el proceso actúa de una forma determinista diciendo siempre
“SI”o “NO”en función de que el valor del criterio sea o no sea sobrepasado.
Un punto importante a destacar en esta teoría es que la base de decisión no es el input sensorial bruto
sino una transformación de éste a un nuevo eje de decisión “la razón de verosimilitud” (Coombs, Dawes y
Tversky, 1970/1981).
La elección del criterio depende de una serie de factores, entre los que merecen ser destacados las
consecuencias que se derivan de los posibles resultados expresados en la matriz de confusión, de las
probabilidades a priori y de los objetivos del observador. La TDS ha elaborado la conexión entre estas variables
mostrando cómo se relacionan los incentivos con las probabilidades a priori para diferentes objetivos. Supuesto
un determinado objetivo, la teoría proporciona una regla de decisión y un valor óptimo del criterio. La teoría,
por tanto, se desarrolla en términos ideales y sirve de punto de referencia o línea base con la que comparar
la ejecución de un observador real. Además, el aparato conceptual de la teoría proporciona el instrumento
necesario para analizar dicha ejecución.
En síntesis, la TDS permite caracterizar con precisión las dos etapas del proceso, la sensorial y la
cognitiva. La primera queda determinada por las curvas de isosensibilidad o curvas ROC (receiver operating
characteristic) y el índice d'; la segunda por la curva de isocriterio y por el índice ? . Además, en la medida en
que los procesos sensorial y de decisión funcionan independientemente, la teoría predice que d' se verá
afectada por variables que afectan al proceso sensorial, tal como la intensidad de la señal y del ruido, y no por
variables motivacionales. A su vez, ? variará en función de los incentivos y de las probabilidades a priori, pero
no estará afectada por variables sensoriales.
La TDS ha resultado ser un instrumento útil de investigación por la amplitud de posibilidades de
aplicación, amplitud que radica en su capacidad para proporcionar índices de diferentes procesos. Además,
para su aplicación al análisis de cualquier medida de precisión no necesita más que la inclusión de ensayos
en blanco (o ruido) en el experimento para poder definir con claridad los “aciertos”y “falsas alarmas”. Una vez
conseguido esto, la ejecución de cualquier organismo, humano o no, es susceptible de un análisis basado en
la TDS (Tudela, 1983). De hecho, su influencia ha traspasado el área en que se originó y encuentra
aplicaciones en el análisis de tiempos de reacción (Pike, 1973), reconocimiento de estímulos (Nakatani, 1973),
Psicología fisiológica (Dore y Sutton, 1972), memoria (Banks, 1970), aprendizaje (Grice, 1972; Killeen, 1978),
Psicología animal (Boneau y Cole, 1967), diagnóstico médico (Lusted, 1971) y Psicología clínica (Grosslerg
y Grant, 1978).

2.2.4.- Técnicas de neuroimagen


Los últimos años han visto aparecer sofisticados instrumentos, altamente precisos, que permiten
acceder directamente al estudio de la actividad cerebral. Y, a partir de esta instrumentación se han desarrollado
diferentes técnicas para el estudio de los correlatos fisiológicos de los procesos que van desde la experiencia
emocional hasta los procesos más complejos de pensamiento, pasando por actividades relacionadas con la
percepción, la atención, el aprendizaje, la memoria, etc. Las técnicas de registro de la actividad neuronal tienen
como objetivo estudiar directamente la actividad y funcionamiento de las estructuras nerviosas y su relación
con el comportamiento. Una de las áreas de interés en este campo es la del registro de células individuales,
que puede ser intercelular o intracelular según el electrodo de registro esté situado en el espacio extracelular
próximo a la célula o insertado en su interior. Los registros unicelulares en animales no anestesiados han
permitido uno de los avances más relevantes ocurridos en las últimas décadas dentro de la Psicología
fisiológica. También se dispone de técnicas íntimamente relacionadas con los procedimientos de manipulación
Tema 1.- Histora y método de la Psicología moderna 29
psicobiológica, como las técnicas de localización histológica, dirigidas a proporcionar información precisa sobre
las zonas manipuladas (Ramos, Arnedo, Gallo, Morales y Puerto, 1981).
Actualmente, las técnicas de neuroimagen están teniendo un gran impacto en la investigación en
neuropsicología, y especialmente en los últimos 15 años, constituyéndose en una fuente de datos importante.
Son técnicas no invasivas que permiten la visualización cerebral in vivo. Aunque son técnicas provenientes
de campos ajenos a la Psicología, las lecturas que haga cada profesional que se acerque a ellas son diferentes
y tendrán un valor distinto. Así, en un mismo TAC la lectura que pueda hacer un neurólogo, un neurocirujano,
un intensivista o neuropsicólogo van a ser tan diferentes como maneras de tratamientos puedan surgir de dicho
TAC. Para el neuropsicólogo, estas técnicas, le van a permitir poder contrastar en el cerebro in vivo las áreas
cerebrales implicadas con las operaciones mentales internas (León-Carrión, 1995), así, las técnicas de
neuroimagen pueden aportar información convergente con los métodos de inferencias, y establecerse como
fuentes de datos, válidas y convergentes, para seguir el camino que va de lo conductual o mental al cerebro,
es decir, observar las relaciones entre procesos psicológicos y cerebro.
Pero, pese a su gran utilidad, al menos desde la perspectiva psicológica, estas técnicas presentan
problemas técnicos y metodológicos. Una de las limitaciones es la problemática de la inespecificidad
anatómica, así, cuando se pretende identificar los procesos implicados en una tarea por medio de las
neuroimágenes se puede observar que las áreas cerebrales activadas pueden ser masivas, ya que una tarea
por sencilla que sea, puede activar distintas áreas (memoria, visión, audición, etc.) relacionadas con la
compresión de las instrucciones y estímulos, emitir respuestas, etc.. Así, el futuro de la de las investigaciones
sobre el funcionamiento cerebral pasa por aislar los subprocesos cognitivos para poder identificar sus
concomitantes anatómicos y fisiológicos (Posner y Peterson, 1990; Dehaene y Changeux, 1994; Posner y
Dehaene, 1994; Barceló y Santomé-Calleja, 2000). Este problema de la inespecificidad neurológica, permite
dos lecturas (Barceló y Santomé-Calleja, 2000):
1.- Existe una inespecificidad en la especialización cerebral a la hora de desarrollar una función
concreta. Todo el cerebro trabaja para ejecutar una misma función. Hay pocos autores que expliquen
esta “aparente inespecificidad anatómica”desde planteamientos holísticos (Bunge, 1996).
2.- Se parte de que la tarea que el sujeto debe ejecutar es “pura”para una función concreta, cuando
lo que sucede es que van implicados muchos procesos paralelos que son a su vez controlados por
otras áreas cerebrales y éstas son activadas. Existe una distribución extensa de las redes neuronales,
que a su vez se rigen por unos principios organizativos.
Esto va a requerir un refinamiento metodológico en las tareas que nos permita medir de manera válida
y fiable el proceso cognitivo de interés, a la vez que un refinamiento en los instrumentos de medición en
neuroimagen en resolución espacial y temporal. Así, como las teorías y modelos que delimiten las estructuras
del funcionamiento cognitivo, poniendo en contacto, en la medida de lo posible, los procesos cognitivos
independientes con bases estructurales diferentes.
Existen dos fuente de datos básicas en lo referente al funcionamiento de estas técnicas (León-Carrión,
1995; Parkin, 1996/1999), las neuroimágenes topográficas y las funcionales.

2.2.4.1.- Neuroimágenes topográficas


Las neuroimágenes topográficas son técnicas anatómicas que nos muestran un cerebro estático, a
modo de fotografía, con ellas se puede obtener una imagen estructural del cerebro. Dentro de las técnicas
topográficas están, probablemente las más utilizadas.
TAC (Tomografía Axial Computerizada). Es una técnica basada en los rayos X (radiaciones
electromagnéticas) que permite generar una imagen tridimensional del cerebro. Es una técnica muy
utilizada, siendo prácticamente el examen diagnóstico que más se realiza después de la historia clínica
de la mayoría de pacientes con patología neurológica. Dada la facilidad de realización, la precisión
diagnóstica y la ausencia de riesgo, ha desplazado a técnicas clásicas más agresivas. Se puede llevar
a cabo con contraste intravenoso y sin éste, si bien con sustancia de contraste se visualizan las zonas
patológicas con mayor precisión, aunque no es inusual que pacientes con dificultades neurológicas
graves tengan un TAC nítido, ya que aunque sirven a muchos propósitos útiles, tienen limitaciones
respecto al nivel de detalle que presentan.
IRM o RMN (Imagen por Resonancia Magnética o Resonancia Magnética Nuclear). Es una técnica
relacionada con la TAC, pero con un desarrollo más reciente que permite obtener una imagen
estructural del cerebro, pero, con una resolución más fina que la del TAC. En esta técnica se utilizan
ondas de radio para obtener una alineación de átomos en una determinada dirección dentro de un
campo magnético, es decir, se basa en la capacidad de algunos núcleos para absorber ondas de
radiofrecuencia cuando son sometidos al efecto de un campo magnético. Cuando las ondas cesan los
átomos producen un voltaje (resonancia magnética) que se utiliza para construir una imagen, a partir
de la cual se pueden identificar las regiones dañadas del cerebro. Actualmente, se pueden medir
cambios fisiológicos y funcionales con una variación de esta técnica, la IRMf (imagen por resonancia
magnética funcional). La IRM se usa ampliamente por sus ventajas, como permitir cortes más finos,
y en varios planos, ser más sensible para demostrar accidentes vasculares cerebrales, tumores y otras
patologías, y no utilizar radiaciones ionizantes. Pero, presenta la desventaja del coste económico, el
prolongado tiempo para obtener las imágenes y el tener que excluir a portadores de marcapasos y
otros objetos intracorpóreos.

2.2.4.2.- Neuroimágenes funcionales


Frente a las imágenes estáticas o fijas de las técnicas topográficas, las neuroimágenes funcionales
30 Procesos Psicológicos Básicos: J.R. Alameda (Departamento de Psicología)
proporcionan imágenes del cerebro en funcionamiento o imágenes de un cerebro dinámico, en acción, es decir,
se registran cambios en la actividad del cerebro que han sido inducidos mediante la utilización de
procedimientos conductuales (Junqué, 1995). Son técnicas de carácter bioquímico, que miden el consumo
energético como señal de actividad de las zonas cerebrales, de este modo puede medirse la extensión de flujo
sanguíneo cerebral y las áreas con mayor o menor actividad quedan identificadas. Así, se añaden substancias
de contraste (isótopos radiactivos) a compuestos utilizados por el propio cerebro, como la glucosa (para
estudios de corte metabólico) o el oxígeno (para el estudio del riego sanguíneo) que son inyectados en una
disolución de agua. Tras unos pocos minutos los isótopos se concentran en el tejido cerebral, en una proporción
directa al flujo sanguíneo local; así cuanta más actividad haya, mayor emisión radiactiva habrá. Las más
utilizadas son:
IRMf (Imagen por Resonancia Magnética Funcional), como se comentó anteriormente es una
adaptación de las técnicas de IRM que permite medir cambios fisiológicos en el cerebro,
proporcionando al mismo tiempo la imagen de esos cambios.
PET (Tomografía por Emisión de Positrones). Es una de las técnicas más conocida, muy indicada para
localizar las áreas cerebrales implicadas en una determinada actividad, así como para detectar
anormalidades fisiológicas en el cerebro. En la PET se le inyecta al sujeto una solución de agua con
un isótopo radiactivo (emisor de positrones), generalmente de muy corta duración, que va desde los
2 minutos del oxígeno-15 y los 20 minutos del carbono-11. En un período breve de tiempo
(aproximadamente 1 minuto) el isótopo se acumula en el cerebro en proporción directa al flujo
sanguíneo local (a mayor actividad cerebral mayor emisión radiactiva), lo que permite comprobar el
nivel de activación de las distintas áreas cerebrales, mediante imágenes donde los colores más
brillantes indican mayores niveles de actividad. Entre las ventajas que se derivan de la aplicación de
estas técnicas se pueden destacar dos; por una parte ofrecen una medición objetiva de la magnitud
de la sensación correspondiente a una situación estimular y, por otra parte, permiten localizar y
determinar los aspectos cerebrales implicados en la actividad neural y, esto, independientemente de
la capacidad o posibilidad de que el sujeto emita un informe. Como principales inconvenientes hay que
señalar la sofisticación tecnológica que requieren y, por tanto, la carestía o coste experimental, el grado
de especialización que exige su manejo y el hecho de que aportan descripciones generales útiles, pero
a un nivel excesivamente molecular, desde el que se hace difícil explicar mecanismos más globales
que emergen en los procesos cognitivos.
Una de las ventajas más interesantes de la PET es que puede utilizarse con sujetos normales (sanos)
para investigar la localización funcional en cerebros normales. El procedimiento es sencillo, se aplica
el PET mientras el sujeto realiza una tarea cognitiva. Así, examinando los patrones de activación se
puede especificar qué estructuras cerebrales están activas durante la ejecución de la tarea.
SPECT (Tomografía Simple por Emisión de Fotones): Es una técnica que evoluciona a partir del PET.
Se utilizan isótopos que no requieren un ciclotrón para producirse. Un ejemplo de ello son aquellos que
contienen yodo. La filosofía que persigue es la misma que la del PET, basada también en la
introducción (por inyección o inhalación) de un isótopo radiactivo para ver su distribución por el
organismo, y que permiten obtener información funcional del sistema nervioso, en situación pasiva y
en acción, es decir, permite un análisis de las regiones tisulares donde haya un aumento de gasto
metabólico, inferido por un mayor riego sanguíneo.
RCBF (Medidas Cerebrográficas de Flujo Sanguíneo Cerebral Regional). Esta técnica es muy parecida
a la del SPECT y a la del PET. Es una técnica de carácter metabólico y mide el flujo sanguíneo en
zonas cerebrales. Estas técnicas parten de la hipótesis de la existencia de un mecanismo circulatorio
de retroalimentación que suministraría mayor flujo sanguíneo a aquellas áreas cerebrales en las que
está teniendo lugar un mayor nivel de actividad (Ruiz Soler, 1988a). En consecuencia, han surgido
métodos no invasivos para medir el flujo sanguíneo cerebral local o regional que consisten en inhalar
o inyectar en una arteria cerebral un radioisótopo (Xe133) y, posteriormente, observar las diferencias
en el RCBF. Así, se ha puesto de manifiesto la existencia de diferencias entre hemisferios cerebrales
en función de las tareas, que se reflejan en cambios locales en el flujo sanguíneo y en variaciones en
el índice metabólico neuronal.
Puede obtenerse una mayor precisión combinando el PET (prueba funcional) y la IRM (prueba
topográfica), lo cual permitiría cartografiar la actividad metabólica en una imagen estructural detallada del
mismo cerebro (Parkin, 1996/1999).
Obviamente existen muchas más técnicas de neuroimagen, pero probablemente las mas utilizadas
dentro del campo de la Psicología sean las anteriormente mencionadas. Así, también se puede disponer de
pruebas como la Arteriografía por Sustracción Digital, la Arteriografía Cerebral y Medular, y la Mielografía, que
requieren introducir un contraste por un vaso sanguíneo, y posteriormente obtener una imagen. La Ecografía
y el Eco-Doppler transcraneal, técnicas basadas en los ultrasonidos, que permiten, la primera obtener imágenes
cerebrales en niños, y la segunda medir el flujo de las grandes arterias intracraneales. Igualmente, la RMA
(Angiografía por RM) y la AngioTC permiten obtener imágenes tridimensionales del sistema vascular.

2.3.- Procedimientos computacionales


La simulación computacional, como recurso metodológico, resulta de difícil clasificación. Desde un
punto de vista epistemológico se ha equiparado a los modelos matemáticos; esto es, una teoría formalizada.
Pero, su utilidad para probar la posibilidad de ejecución de unos procesos de carácter simbólico, permite
admitirla también en este ámbito. Básicamente, la base teórica de la simulación radica en considerar que
comprender las operaciones de un software capaz de simular una forma determinada de conducta es lo mismo
Tema 1.- Histora y método de la Psicología moderna 31
que comprender la conducta misma, así, la simulación de una conducta está estrechamente relacionada con
la explicación de la misma (Fodor, 1968/1991).
La teoría de la computabilidad fue desarrollada desde el campo de la Lógica en la década de los años
30. Esta teoría muestra cómo puede utilizarse un conjunto elemental de unidades componentes para construir
una variedad ilimitada de procesos simbólicos complejos en diferentes dominios. Fue A. Turing quien primero
comprendió que la teoría de la computabilidad proporcionaba una excelente base para explicar cómo funciona
la mente (Hodges, 1983). En 1936 Turing supuso que si algo puede ser computado sería susceptible de
programarse en una máquina de estados finitos, provista de una cinta unidimensional, que acepte códigos
binarios y que contenga uno de éstos por casilla (Boden, 1977/1984).
El objetivo de explicar cómo funciona la mente desde la teoría de la computabilidad fue asumido por
la Ciencia Cognitiva. En este sentido Johnson-Laird (1988/1990) afirma: “Si una explicación es computable,
entonces, prima facie, es coherente y no da demasiadas cosas por supuestas. Si es o no una teoría apropiada
depende de si se ajusta a los hechos, pero por lo menos ha triunfado en la evitación de la vaguedad, la
confusión y los conjuros místicos de las fórmulas verbales vacías”(pág. 30). El substrato teórico subyacente
es que si las operaciones internas que realiza cualquier tipo de sistema (incluida la mente humana) se pueden
describir de forma lógica, y el soporte físico en el que se realicen éstas no resulta relevante (Santiago, et al.,
1999). La idea de la computación, supone que entre cerebro y mente se establece una relación similar a la que
se da entre el hardware y software del ordenador (sin entrar en lo que es la metáfora del ordenador), aunque
de una forma muy simplista, la mente es como un programa que ejecuta una máquina, que computa
información que se debe implementar en un sistema físico, el cerebro (Fernández Trespalacios, 2001). Para
Marr (1982/1985), la computación es un proceso que se desarrolla a tres niveles:
- Computacional: Se trataría de definir la función matemática a realizar para emparejar las entradas
(input) con las correspondientes salidas (output).
- Algorítmico: Diseñar un programa que realice una descripción algorítmica que especifique en términos
de operaciones cómo ha de ejecutarse, concretamente, la función matemática.
- Implementación: Pasar de lo simbólico a lo físico, de la mente al cerebro, es decir, cómo se ejecuta
el algoritmo dentro de un sistema físico, concreto, en términos de procesos físicos.
Cada avance de la Ciencia Cognitiva parece aportar mayor evidencia a la idea de que el
funcionamiento de la mente es, fundamentalmente, una actividad computacional del sistema nervioso. Una
actividad consistente en la realización de gran cantidad de cálculos que tiene por objeto transformar unas
descripciones explícitas de la información estimular (representaciones) en otras más elaboradas y significativas
para el Sistema Nervioso Central (SNC). Como señala Fernández Trespalacios (2001) “En la mente los
componentes de la computación (representaciones y procesos) son reales, aunque con una realidad psicofísica,
no con una realidad física material como el cerebro”(pág. 32).
Los procesos u operaciones de cálculo actúan sobre representaciones que deben de haber sido
construidas utilizando un sistema de símbolos, organizados, generalmente, en torno a tres componentes
esenciales (alfabeto, gramática y semántica):
- Un conjunto finito de símbolos primitivos: un alfabeto.
- Una serie numerable de reglas que determinen cómo transformar los símbolos primitivos en otros
símbolos más complejos. Una gramática del sistema que permita caracterizar las construcciones
correctas, estableciendo qué combinaciones son inadecuadas y que pueda proporcionarnos, además,
una descripción de la estructura de cada uno de los infinitos símbolos complejos que puedan ser
generados (sintaxis del sistema).
- Una serie de principios que permitan establecer una correspondencia entre los símbolos y lo
simbolizado y viceversa. Es decir, una semántica del sistema.
Una característica relevante de los sistemas simbólicos es su capacidad para representar (simbolizar)
una infinidad de dominios diferentes, como ha puesto de manifiesto la teoría de la computabilidad con el
tratamiento simbólico de los números, por ejemplo, en el sistema binario o hexadecimal, siendo ambos
sistemas diferentes del decimal tradicional. Si bien es cierto que hasta este momento ningún ordenador ha sido
capaz de interpretar los símbolos con los que opera, estas máquinas hacen gala de dos habilidades
“inteligentes”que han sugerido la analogía mente-ordenador:
- Ambos manipulan información simbólica a fin de transformar unos símbolos en otros más elaborados.
- Las operaciones o procesos que ejecutan están, a su vez, controladas por otros símbolos que
constituyen lo que podríamos denominar el “sistema operativo”y el “programa computacional”.
De la potencia explicativa de la teoría de la computabilidad da buena cuenta la afirmación de
Johnson-Laird (1988/1990): “Todo lo que hace un ordenador es manipular cifras binarias; sin embargo, en
cincuenta años de investigación, no se ha podido encontrar un proceso que no pueda modelarse a través de
estas manipulaciones” (pág. 39). El sistema cognitivo humano se halla particularmente especializado en la
manipulación de los símbolos de su propio sistema. Los símbolos primitivos de este sistema no deben ser otros
que los patrones de descarga neural, que son transmitidos en impulsos bioeléctricos, siendo la frecuencia de
la descarga, junto con la distribución temporal interdescargas, el código de la magnitud sensorial. Mientras que,
la localización de tales señales bioeléctricas en el cerebro, constituyen el código de la cualidad sensorial. La
percepción, en cuanto relaciona los símbolos internos que representan al mundo exterior con una experiencia
subjetiva que da lugar a una concepción de lo simbolizado (del mundo exterior), establece esta
correspondencia entre el símbolo y lo simbolizado.
En cuanto a los procedimientos de trabajo o herramientas de investigación hay que destacar los
siguientes:
- la elaboración de diagramas de flujo como modelo abreviado de la teoría,
32 Procesos Psicológicos Básicos: J.R. Alameda (Departamento de Psicología)
- los programas de simulación de procesos o teorías por ordenador, y...
- los algoritmos y heurísticos de los programas de Inteligencia Artificial (IA).
El diagrama de flujo es una herramienta útil para la elaboración de la estructura del programa. Su
planteamiento se divide en tres fases:
- El análisis del problema a resolver y de los datos disponibles: hay que examinar los posibles
resultados que se desean obtener, así como comprobar que se dispone de todos los datos necesarios
para lograrlo.
- Síntesis esquemática del problema: se preparan uno o varios esquemas mostrando las funciones de
cada módulo y las de cada proceso. Esto se realiza en tres bloques:
- Bloque de entrada de información: contiene la descripción de los distintos tipos de “inputs”.
- Bloque de procesamiento: contiene la descripción de los cálculos que deberán efectuarse en
cada caso.
- Bloque de salida: contiene la descripción de todos los “outputs”previstos.
- Diagramación: es la representación del programa mediante una serie de símbolos gráficos que
constituyen la carta de flujo del programa. En ésta, cada función que el ordenador puede realizar tiene
su correspondiente símbolo gráfico; por lo tanto, una vez que el diagrama de flujo haya sido
correctamente preparado, la escritura del programa se reduce a una tarea de traducción de su
contenido al lenguaje de programación elegido.
En síntesis, la metodología de análisis y la técnica de elaboración de diagramas de flujo permiten tomar
conciencia de la magnitud de la tarea y las dificultades inherentes al problema objeto de estudio. Así mismo,
proporciona un modelo teórico de investigación que deberá ser verificado.
Por otra parte, tanto la simulación computerizada como la IA tratan de emular, mediante programas
de ordenador, el comportamiento inteligente humano, aunque difieren en dónde ponen el acento, en el lado
humano o en el lado máquina. Así, cuando se realiza un programa de simulación se centra el interés en que
éste emule fielmente el sistema cognitivo humano, por lo que subyace una teoría en el programa; mientras que
los programas de IA se centran en la elaboración de algoritmos eficaces que resuelven con el mínimo coste
de recursos el procesamiento (de Vega, 1984).
El objetivo de los investigadores que trabajan dentro del campo de IA es el desarrollar una teoría
sistemática de los procesos cognitivos o intelectuales (Michie, 1974), asumiendo generalmente el estudio de
estos procesos como sistemas de computación. En este sentido, se ha definido la inteligencia artificial como
la ciencia de hacer máquinas que sean capaces de hacer cosas que si las hicieran los hombres requerirían
inteligencia, sin necesidad de imitar exactamente el proceder humano (Boden, 1977/1984), sería algo así como
la construcción de aviones para volar.
Como señala Boden (1977/1984), los términos psicológicos utilizados en la descripción de estos
programas no se han de entender literalmente sino analógicamente, estando justificado su uso siempre que
se elijan con cuidado y haciendo referencia a las propiedades funcionales específicas de cada programa.
En cuanto a la simulación, de Vega (1984) advierte que “el modelo de simulación es una representación
funcional estilizada de algunos parámetros de la realidad” (pág. 52). Por tanto, la simulación mediante un
programa de reconocimiento de patrones, por ejemplo, refleja ciertos parámetros funcionales del sistema visual
humano, sin embargo no se incorporan en el modelo otras propiedades esenciales de la mente humana. De
Vega (1984) sintetiza en cinco etapas el proceso de investigación mediante simulación, empleándose
instrumentalmente el ordenador en algunas, pero no en otras, son las siguientes:
- Experimentación con sujetos humanos a fin de determinar los patrones habituales de
comportamiento.
- A partir de estos datos se elabora una teoría psicológica más o menos detallada.
- Diseño de un programa de ordenador que simule el comportamiento humano. Se pretende así
reformular la teoría psicológica explícitamente en un programa análogo funcional (no literal) de aquella.
Este programa se realiza en un lenguaje (de programación) elegido arbitrariamente y la descripción
abstracta del programa es la que guarda similitud con la teoría.
- Ejecución del programa para someterlo a prueba, debiendo ajustarse éste al patrón de
comportamiento humano para considerarse válido. En otro caso, deberá reformularse la teoría, el
programa o ambos.
- Planteamiento de hipótesis y nuevas predicciones. En caso de obtener un grado aceptable de validez
el programa de simulación puede sugerir nuevas hipótesis y permitirá verificar otras predicciones
psicológicas, las cuales, deberían verificarse en sucesivos experimentos con sujetos humanos.
Aunque el coste experimental de esta técnica es elevado, las ventajas que pueden derivarse del nivel
de detalle y la función verificadora de predicciones sí pueden justificarlo.
A diferencia de la simulación, los modelos de IA, en principio, no pueden considerarse auténticas
teorías psicológicas aunque hayan sido fruto de concienzudas reflexiones e intuiciones acerca del
comportamiento inteligente humano. No obstante, no debemos menospreciar algunas contribuciones de interés,
si bien es preciso cierta cautela, ya que, como ha sugerido Anderson (1990) el mero hecho de que el programa
de IA y el comportamiento humano muestren cierta equivalencia funcional no excluye que pueda basarse cada
uno en estructuras y procesos (y representaciones) muy diferentes. Teniendo en cuenta lo anterior, los
algoritmos utilizados en estas simulaciones tendrán relevancia para la Psicología en la medida en que den lugar
a resultados convergentes con la investigación experimental.
En definitiva, los procedimientos computacionales-representacionales inspirados en el uso instrumental
del ordenador y la analogía funcional pueden permitirnos formular los problemas psicológicos, emular los
supuestos procesos y verificar las hipótesis y predicciones de las teorías psicológicas de los procesos
Tema 1.- Histora y método de la Psicología moderna 33

psicológicos (percepción, atención, lenguaje, etc.) con mayor claridad que antes. Y, del mismo modo que las
máquinas (amplificadoras de la fuerza humana) inspiraron ciertas metáforas en Psicología (hidráulica, filtro,
diapasón, telégrafo, teléfono, etc.) útiles en su momento, e impulsoras de la investigación, las máquinas
electrónicas, en cuanto amplificadores de ciertas características relevantes del sistema general de
procesamiento de información (memoria, rapidez, precisión, potencia, resistencia a la fatiga, etc.) constituyen
un irrenunciable instrumento de trabajo en la investigación científica, en general, y de la Psicología, en
particular.

2.4.- La Neuropsicología cognitiva como fuente de datos


Actualmente, desde la Neuropsicología Cognitiva, está cobrando interés el estudio de los procesos
psicológicos básicos trabajando con pacientes que han sufrido daño cerebral y en los que se ha comprobado
su competencia, previa al accidente, en la tarea o actividad que es objeto de estudio. La Neuropsicología
cognitiva se basa en un principio muy sencillo que establece que a partir de la observación y análisis de los
errores de un sistema en funcionamiento, podemos comprender su funcionamiento correcto (Parkin 1996/1999).
Así, estos trabajos con pacientes constituyen un potente medio para inferir o conocer el funcionamiento del
cerebro normal (v.g. Caramazza, 1984; 1986; Valle, 1991; Manning, 1992; Parkin, 1996/1999; Cuetos, 1998).
De forma muy esquemática y resumida se puede caracterizar a la neuropsicología cognitiva por dos intereses
fundamentales:
- Tratar de explicar las alteraciones o ejecuciones deficitarias de una persona con daño cerebral en
términos de alteración de uno o más componentes de sistema cognitivo, partiendo de una teoría o
modelo del sistema cognitivo normal (sano).
- Poder conocer el funcionamiento normal de los procesos cognitivos normales a partir de los trastornos
observados en los pacientes (Ellis, 1983; Ellis y Young, 1988/1992).
Detrás de la neuropsicología cognitiva está la idea de que los procesos psicológicos se pueden
investigar estudiando cómo distintos aspectos de los mismos se deterioran tras un daño cerebral (Parkin,
1996/1999). La lógica de base de la neuropsicología cognitiva es suponer que el sistema cognitivo es modular,
aunque más recientemente, también se han empleado redes conexionistas como modo de simulación, tanto
de la función normal, como deteriorada del cerebro. En todo caso, el supuesto fundamental es que los
pacientes utilizan los mismos mecanismos de procesamiento que los sujetos normales, con la diferencia de
que en los pacientes, uno o varios de esos mecanismos está dañado (Cuetos, 1998).
El objetivo de la investigación en neuropsicología cognitiva es especificar, mediante datos, la existencia
de los distintos módulos que componen el sistema. Así, los datos que se van obteniendo de los pacientes van
mostrando, mediante las funciones deterioradas y las intactas evidencias acerca de los distintos módulos,
incluso aportando demostraciones de que cada módulo funciona en ausencia de los otros (contrastando datos
procedentes de distintos pacientes). El método que se utiliza para demostrar la independencia de un módulo
es el de la disociación y especialmente, la doble disociación.
Para ilustrar el procedimiento de doble disociación Parkin (1996/1999) pone un ejemplo bastante
intuitivo, dos aparatos de TV, en uno se ve la imagen pero no se puede escuchar el sonido, y en el otro se
escucha el sonido pero no se ve ninguna imagen. La conclusión es evidente aunque no se sea ingeniero
electrónico, el sistema de imagen y de audio del aparato son independientes, para funcionar correctamente el
uno no necesita del otro, aunque si uno de los dos falla, no resultará satisfactorio ver la televisión. De forma
similar se puede explicar el proceso de doble disociación con nuestro sistema cognitivo. Así, si un modelo
teórico establece que un proceso implica al menos dos módulos, A y B, con unas determinadas funciones u
operaciones, se necesita obtener evidencia de que A y B operan con independencia el uno del otro, como el
caso del sistema de vídeo y de audio del TV. Trabajando con pacientes se procede igual, si encontramos un
paciente X con el modulo A dañado pero que conserva el B y otro paciente Y que conserva el módulo A y tiene
dañado el B, se podrá concluir, mediante las tareas adecuadas que los módulos A y B son independientes. Esta
situación sería un ejemplo de doble disociación clásica (Shallice, 1988), el rendimiento en una tarea es
deficiente (porque implica una función del módulo dañado), mientras que en la otra es normal (porque implica
una función del módulo conservado). Las disociaciones dobles, en neuropsicología cognitiva, pueden mostrar
grados de deterioro relativo. Así, los pacientes X e Y pueden tener problemas en las tareas de los módulos A
y B, pero mientras que X rinde mejor en las tareas del módulo A, Y rinde mejor en las del módulo B. En este
caso, se puede estar ante una disociación doble o ante diferencias no controladas entre pacientes.
Mediante la observación de patrones de disociación, se puede ir desarrollando la organización modular
de una capacidad cognitiva. Pero la lógica de la doble disociación, con el fin de ir realizando distinciones cada
vez más precisas entre módulos o elementos de procesamiento no es un objetivo suficiente para la
neuropsicología cognitiva. Roediger (1990) comenta que las disociaciones dobles no pueden establecerse en
ausencia de principios organizativos y pone como ejemplo las 114 leyes perceptivas que estableció la
Psicología de la Gestalt y cómo a medida que avanzaron sus conocimientos del fenómeno perceptivo, muchas
de estas leyes se agruparon en apartados más generales. Por tanto, no es suficiente la mera obtención de
datos, debe haber un marco teórico dentro del cual esos datos cobren sentido y puedan evaluarse las
implicaciones del modelo para el sistema cognitivo. Como señala Parkin (1996/1999) irónicamente, se puede
encontrar una persona con una lesión cerebral que produce una incapacidad selectiva para leer poesía, leyendo
sin ningún problema otros materiales escritos, y otra persona con el déficit inverso, por lo que podemos concluir
que hemos encontrado una disociación doble, entre la lectura de la poesía y la de otros materiales escritos,
incluso aunque todos los datos se redujesen a esos dos pacientes y no se volviera a observar ese patrón de
deterioro en otros pacientes. De esta forma, conviene que la generalización de las teorías provenga de dos
fuentes (Ellis y Young, 1988/1992):
34 Procesos Psicológicos Básicos: J.R. Alameda (Departamento de Psicología)

- Una teoría o un modelo de una función cognitiva se destina a explicar todos los casos que presentan
una alteración de dicha función, de modo que no es una teoría de un paciente único.
- Se trata de teorías del funcionamiento cognitivo normal que se usan para explicar alteraciones. De
manera que estas teorías deben explicar todos los datos disponibles tanto de la Psicología Cognitiva
experimental como de la Neuropsicología Cognitiva.
Por tanto, la Neuropsicología Cognitiva es un método complementario y/o alternativo a la aproximación
“experimental” clásica que permite someter a prueba los modelos “normales” de procesamiento en su triple
vertiente: comprobación, descubrimiento y falsación. Por ejemplo, si un modelo supone que el componente X
realiza las tareas a y b, y se encuentra un paciente que realiza con normalidad a, pero es incapaz de realizar
b (o su actuación en b es significativamente peor que en a) entonces se puede asegurar que X sólo es
responsable de b.
En este sentido, la Neuropsicología Cognitiva es una valiosa fuente de datos, constituyendo un método
experimental casi “puro”, ya que estudia casos que podrían ciertamente calificarse como experimentos de la
naturaleza. De esta forma nos proporciona información que no sería posible obtener de otra manera ya que
este tipo de experimentos, obviamente, no son viables por cuestiones éticas.
Además de las disociaciones también pueden darse asociaciones entre síntomas, es decir, un paciente
que presenta una actuación deficiente en la tarea 1, también presenta una ejecución deficitaria en las tareas
2 y 3, bien porque las tres tareas necesitan de un mismo proceso cognitivo, bien porque estas tres tareas
dependan de tres procesos distintos relacionados con áreas adyacentes del cerebro, por lo que una lesión
cerebral que afectara a una de las tres áreas afectaría también a las otras, de manera que los déficit de las
distintas áreas tienden a asociarse. Esto hace que las asociaciones entre síntomas no sean tan fiables como
las disociaciones (Ellis y Young, 1988/1992).
La Neuropsicología Cognitiva está interesada en trabajar con los pacientes, generalmente, desde un
punto de vista teórico, para probar los modelos teóricos. Esto ha fomentado un mayor interés por la evaluación
que por la rehabilitación de las funciones cognitivas deterioradas. Pero, actualmente también se ha
comprobado que la rehabilitación de las funciones cognitivas deterioradas también puede servir como elemento
de verificación de los modelos propuestos, así, si se ha establecido una correcta evaluación de las funciones
deterioradas en función de un modelo determinado, la rehabilitación de esas funciones puede proporcionar
validez convergente al modelo y si falla la rehabilitación se ha de replantear, bien la evaluación, bien el modelo
(Cuetos, 1998). De esta manera, no se puede realizar una rehabilitación cognitiva efectiva si no se dispone de
un modelo del funcionamiento de los procesos cognitivos afectados, un conocimiento preciso (según el modelo)
sobre la naturaleza y grado de deterioro de los procesos afectados y, en consecuencia, qué intervenciones
específicas, según el modelo, pueden rehabilitar el funcionamiento de los procesos dañados (Caramazza y
Hillis, 1993). Otro de los factores a tener en cuenta es comprobar que un programa de rehabilitación es
efectivo, ya que como señala Cuetos (1998), puede haber mejora debido a la recuperación espontánea, y a
la intervención de variables propias de la rehabilitación (interés del paciente, motivación, práctica, etc.) pero
ajenas al programa de intervención. Si se utiliza la rehabilitación como método de validación de un modelo
concreto, se ha de poner especial cuidado en separar las mejoras debidas a la rehabilitación de otro tipo de
factores.
La Neuropsicología humana presenta un problema serio en su campo de estudio que la hace estar en
clara desventaja, ya que las lesiones sufridas por los pacientes no son precisas (en términos de investigación),
no necesariamente se limitan a un área concreta del cerebro, sino, que afectan una región física del mismo con
independencia de las estructuras funcionales implicadas. Así, la Neuropsicología Cognitiva estudia una especie
de experimentos naturales, donde es la naturaleza (o las circunstancias) quien manipula la variable
independiente (la lesión cerebral) de forma nada sistemática, y el investigador quien observa los cambios en
la variable dependiente (la conducta y las capacidades cognitivas del paciente). Obviamente, por un sinfín de
razones (éticas, morales, culturales, etc.), la manipulación de la variable independiente no puede estar en
manos del investigador, lo que hace que el neuropsicólogo cognitivo (en cuanto investigador) espere
pacientemente a encontrar personas con las lesiones que le interesan o planificar sus trabajos en función de
los pacientes encontrados.
Los estudios con animales no están exentos de problemas éticos, pero, al menos, no tienen el mismo
inconveniente que la investigación con humanos, con animales sí es posible provocar lesiones precisas de
regiones cerebrales. El inconveniente de la investigación con animales es si los resultados obtenidos son
generalizables a la cognición humana. Los resultados obtenidos con animales ponen de manifiesto relaciones
relevantes con respecto a los procesos psicológicos básicos e irrelevantes con respecto a los procesos
superiores prácticamente desarrollos del cerebro únicos en humanos (lenguaje, pensamiento, función ejecutiva,
metacognición, conciencia).
Se han obtenidos datos coincidentes con animales y humanos en diversos estudios relacionados con
los procesos psicológicos básicos, relativos al sistema visual, reconocimiento de objetos o atención, (v.g.
Humphrey, 1970, con la chimpancé Helen y Weiskrantz, 1986, con el paciente DB), en memoria se han
mostrado datos convergentes del papel de los lóbulos frontales en primates y humanos (v.g. los estudios de
Montreal, citados por Parkin, 1996/1999), también se ha informado de sesgos a favor del hemisferio izquierdo
en el proceso de memorización en patos y palomas (Güntürkün, 1997) datos que encajan con los obtenidos en
varios trabajos donde se evidencia, con técnicas de neuroimagen en humanos, una diferenciación en el lóbulo
frontal, estando la parte del hemisferio izquierdo relacionada con la codificación de la información y la del
hemisferio derecho con la recuperación de la misma (Shallice, et al., 1994; Tulving et al., 1994). Otros trabajos,
sin embargo ponen de manifiesto las diferencias entre el sistema cognitivo animal y humano, así, O'Keefe y
Tema 1.- Histora y método de la Psicología moderna 35

Nadel (1978) proponen el hipocampo de la rata como un mapa cognitivo, Healey (1996) relaciona el hipocampo
con memoria (espacial) en aves almacenadoras, incluso con un incremento en éste durante el período de
almacenamiento de alimentos, posibilidades que no son generalizables a la función del hipocampo humano
(Parkin, 1996/1999).

2.4.1.- Los estudios clínicos de caso único


Cualquier estrategia experimental para obtener datos válidos y representativos pasa por la utilización
de un grupo relativamente amplio de sujetos, ya que éstos varían por naturaleza en sus capacidades ante
cualquier tarea experimental. Los estudios que utilizan una muestra o grupo de sujetos normales se basan en
la hipótesis de que los procesos psicológicos son homogéneos en todos los individuos (el supuesto de la
equivalencia), por ello, en los estudios con sujetos normales se debe controlar la variabilidad de los sujetos.
Así, por ejemplo es muy habitual que los psicólogos utilicen en sus experimentos alumnos universitarios que
son los sujetos experimentales más accesibles. Además, si se utilizan grupos reducidos de sujetos
experimentales se corre el riesgo de que cualquier diferencia detectada no sea representativa de la población,
y si además el número de sujetos experimentales es 1 (n=1) los errores en el muestreo son aún más peligrosos.
Además los métodos de la estadística inferencial paramétrica, para poder determinar de forma efectiva si los
resultados observados se deben a la manipulación de la variable independiente o al azar, precisan grupos de
sujetos experimentales relativamente amplios.
La lógica del procedimiento experimental es aplicable a cualquier campo de trabajo, incluso la
Neuropsicología Cognitiva, aunque, sin embargo, en este caso caben excepciones y varios autores plantean
que este procedimiento experimental no es del todo válido cuando se trabaja con sujetos con lesión cerebral
(v.g. Caramazza, 1984, 1986; Badecker y Caramazza, 1985; McCloskey y Caramazza, 1988; Caramazza y
Badecker, 1989, 1991; Sokol, McCloskey, Cohen y Alimnosa, 1991; McCloskey, 1993; Parkin, 1996/1999;
Cuetos, 1998). Las lesiones cerebrales son muy variadas, resultando prácticamente imposible encontrar dos
pacientes con las mismas lesiones, tanto a nivel físico como cognitivo, lo que hace muy difícil conseguir una
muestra de estudio. Además, si bien podemos hablar de la equivalencia del sistema cognitivo en sujetos
normales, en el caso de sujetos con lesiones cerebrales sólo es aplicable a niveles premórbidos (antes del
accidente que causó la lesión).
Pero esto no quiere decir que, necesariamente, sea imposible estudiar grupos de sujetos con lesiones
cerebrales similares, ya que se puede intentar confeccionar una muestra que agrupe a los pacientes en función
de los síndromes (conjunto de síntomas que suelen coincidir regularmente y que pueden sugerir un déficit
subyacente común) que manifiesten (v.g. Zurif, Gardner y Brownell, 1989; Zurif, Swinney y Fodor, 1991;
Robertson, Knight, Rafal y Shimamura, 1993), si bien existe el problema añadido de que los resultados
dependerán de los criterios de definición del síndrome, si estos son laxos o se agrupan pacientes con déficits
cualitativamente distintos, que pueden sesgar las conclusiones del estudio. Un problema añadido al concepto
de síndrome es que los sujetos clasificables en un mismo síndrome, no tienen porqué manifestar todos los
rasgos definitorios, por lo que pueden aparecer diferencias individuales, lo que hace difícil mantener la idea
de grupo (Parkin, 1996/1999).
Una última consideración sobre el empleo de grupos de sujetos desde la Neuropsicología Cognitiva
es el argumento de la especificidad neurológica, así, si partimos del principio de homogeneidad o equivalencia
en los pacientes (antes de la lesión), es válido suponer que aquellos que tengan el daño localizado en la misma
zona del cerebro presentaran problemas funcionales similares. Pero, la realidad de los datos muestra la
dificultad de ese planteamiento, ya que muchas de las disociaciones descritas surgen de lesiones localizadas
en la misma área del cerebro, incluso puede ocurrir que el supuesto de especificidad neurológica no siempre
sea uniforme, así, como señala Parkin (1996/1999) dos pacientes pueden haber sufrido daño en la misma
arteria cerebral y mostrar diferencias en el ámbito del sistema cognitivo. No obstante, los estudios con grupos
podrían mejorar utilizando protocolos de inclusión-exclusión de sujetos más estrictos, y con el uso de
procedimientos estadísticos más rigurosos se podría garantizar la selección de un grupo más homogéneo,
minimizando la inclusión de miembros atípicos en el grupo.
El estudio con grupos resulta bastante problemático, la alternativa a esto es el estudio de caso único,
que si bien puede superar los problemas relativos a la heterogeneidad de los pacientes ya que sólo se estudia
a un sujeto, sin embargo, tampoco, está exento de problemas, siendo el más obvio el de la generalización de
los datos obtenidos con un paciente a toda la población. La lógica de la utilización del caso único,
necesariamente, tiene que estar relacionada con el principio de equivalencia, así, siguiendo a McCloskey
(1993), los resultados en los estudios de caso único se utilizan para extraer conclusiones sobre los mecanismos
cognitivos “normales” previos al accidente y la detección y análisis del daño funcional causado a estos
mecanismos por el accidente. Así, dado el principio de equivalencia (que los mecanismos cognitivos son
compartidos por la población normal), las conclusiones que se alcanzan sobre los mecanismos cognitivos
premórbidos de los pacientes pueden ser generalizables a los sujetos sin daño cerebral (McCloskey, 1993),
obviamente siempre que se pueda establecer que las funciones cognitivas del paciente antes del accidente
eran equivalentes u homogéneas con respecto a la población normal.
Aunque de forma demasiado esquemática, los rasgos más destacables de un diseño de caso único
pueden resumirse en las siguientes (Castro, 1975; Bellack y Hersen, 1980; Hayes, 1981; Barlow y Hersen,
1984/1988):
- Se suele estudiar a una única persona durante un período de tiempo prolongado realizando réplicas
con la misma persona (intrasujeto) o con otras (intersujeto) para poder generalizar los resultados
obtenidos. Estos diseños permiten comparar al sujeto consigo mismo lo que implica minimizar la
necesidad de procedimientos estadísticos, de hecho Arnau (1980) define este tipo de diseños como
36 Procesos Psicológicos Básicos: J.R. Alameda (Departamento de Psicología)

experimentales no estadísticos.
- La variable o variables dependientes son medidas repetidas del mismo sujeto a lo largo de distintos
períodos de tiempo. Por ello, es necesario establecer una línea base donde se representan los datos
antes del tratamiento o intervención, para después registrar los resultados de la intervención y, por
último, la interpretación de los resultados para evaluar los cambios observados tras la aplicación del
tratamiento. En estos diseños, el tratamiento o intervención suelen ser la variable independiente a
manipular.
- Una vez aplicado el tratamiento, los cambios que se producen en la conducta del paciente revelan
la eficacia del mismo. Por otro lado, la evaluación es continua, el sujeto es tanto experimental como
control y se pueden medir diferentes variables dependientes utilizando para ello distintos tipos de
medidas. Por ello, es preciso realizar una descripción detallada de las variables independientes y
dependientes, la situación, el terapeuta y el paciente con el propósito de establecer una relación
funcional entre ambos tipos de variables.
- La replicación de los resultados como medida de control. Consiste en la repetición del experimento
por el mismo u otro investigador, bien intrasujeto, bien intersujeto.
La réplica intrasujeto trata de comprobar que los cambios producidos en la variable dependiente
pueden ser atribuidos al efecto de la variable independiente. La mayor dificultad que se encuentra en
esta réplica es la generalización de los resultados.
La réplica intersujeto trata de solucionar esta problemática y consiste en repetir los efectos de la
intervención sobre sujetos diferentes, así, se favorece la generalización de los resultados obtenidos
y, en consecuencia, la validez externa del experimento.
Con todo el problema de la generalización de los resultados en las metodologías de caso único con
pacientes, es especialmente relevante. Una de las justificaciones de la utilización de caso único es la
escasez de pacientes con patologías similares, lo que hace que la replica de los resultados sea difícil.
En ciencia, la réplica es un requisito importante, los resultados obtenidos en una investigación ganan
en consistencia si son replicados y una teoría tiene serios problemas de aceptación si no se pueden
replicar los datos que la generaron. Afortunadamente la Neuropsicología Cognitiva esta aportando
datos convergentes de pacientes, que han ayudado a comprender diferentes aspectos del
procesamiento, como la distinción entre dislexia fonológica y superficial y su relación con las rutas de
lectura.
En Neuropsicología Cognitiva, y precisamente como control de los problemas expuestos, se tiende a
utilizar una serie de medidas (Parkin, 1996/1999):
- Utilizar programas extensos de evaluación e intervención, que permitan aportar evidencia
convergente a partir de los resultados obtenidos en distintas tareas.
- Asegurar en la medida de lo posible el nivel premórvido del paciente. Puede resultar llamativo una
persona que tenga problemas con la lectura de palabras irregulares (por ejemplo los barbarismos o
neologismos), signo de una dislexia superficial, pero estos datos perderían su valor si se comprobase
que el paciente ya tenía problemas con esas palabras antes de la lesión cerebral. En el mismo sentido,
se ha de prescindir de los pacientes con un desarrollo cerebral “anormal”.
- La obtención de resultados discordantes con el modelo teórico de base, puede aconsejar
modificaciones en el modelo, pero, también pueden indicar que los datos son erróneos en algún
sentido. Obviamente, esto no quiere decir que la inclusión (o exclusión) de casos esté guiada por la
teoría, sino que siempre deber estar relacionada con los hechos objetivos.
Con estas condiciones se podría minimizar el riesgo de incorporar información segada o engañosa en
el modelo teórico o interpretar de forma incorrecta la información recogida en un paciente. Pero aunque éstas
estén garantizadas, conviene cotejar los datos de varios pacientes con déficit similares (réplica), y como
aconseja Parkin (1996/1999) sentirse incómodo con las disociaciones basadas en datos obtenidos de uno o dos
pacientes.
Cuando en una exploración neuropsicológica se combina evaluación y rehabilitación, el control ha de
ser preciso. Al trabajar con caso único, el control ha de ser el propio paciente, ya que no tiene sentido comparar
la ejecución de dos pacientes similares uno que recibe tratamiento y otro que no, serán los datos del propio
paciente, antes de iniciarse la rehabilitación, los que sirvan para establecer el control o línea base (Cuetos,
1998).
Los datos del paciente van a servir como control para evaluar la efectividad de la rehabilitación. Este
proceso puede llevarse a cabo sobre la base de distintos diseños de intervención, desde el más sencillo de
evaluación y rehabilitación a los diseños más complejos como los de tratamiento múltiple o los de tratamientos
alternativos (Arnau, 1994; Parkin, 1996/1999; Cuetos, 1998).
Aunque la palabra Diseño aplicada a los programas de rehabilitación de caso único puede hacer pensar
que la Neuropsicología Cognitiva está más próxima a los objetivos propios de la investigación que al día-día
de la práctica clínica, sin embargo, cuando se trabaja con pacientes uno de los objetivos importantes es el de
su rehabilitación efectiva y para ello, es necesario establecer los controles pertinentes para poder delimitar que
las mejoras del paciente se deben al plan de intervención y no a factores ajenos a él. Así, como señala Cuetos
(1998), “si no establecemos los controles necesarios y no analizamos de una manera objetiva los resultados,
difícilmente sabremos si lo que estamos haciendo sirve para algo o estamos perdiendo nuestro tiempo y el de
nuestros pacientes”(pág. 160).
Tema 1.- Histora y método de la Psicología moderna 37

Bibliografía recomendada:
El libro de Leahey (1998) supone un acercamiento a la Historia de la Psicología desde la Grecia
Clásica, hasta, prácticamente, nuestros días, concretamente hasta los primeros años de la década de los 90.
En el trabajo de García y Moya (1989) se presenta una historia de la Psicología científica mediante tablas,
recogiendo los aspectos más importantes de las escuelas psicológicas: representantes, método y técnica de
investigación y una síntesis doctrinal; además, presentan una cronología de los hitos importantes para la
Psicología desde 1800 hasta 1983.
Los conceptos básicos expuestos sobre metodología científica o experimental son estándar, por lo que
pueden encontrarse en multitud de fuentes (v.g. Ato, 1991; Bays, 1980; Rosel, 1987).
Para una primera aproximación a la mente humana como manipulador de símbolos o sistema de
procesamiento de la información, pueden consultarse los primeros capítulos de Johnson-Laird (1988) o el
capítulo inicial de Neisser (1967).

Bibliografía básica:
Ato, G.M. (1991). Investigación en Ciencias del Comportamiento I: fundamentos. Barcelona: PPU
Bays, R. (1980). Una introducción al método científico en psicología. Barcelona: Fontanella.
Blanco, F. (Ed.) (1997). Historia de la Psicología en española. Desde una perspectiva socio-institucional.
Madrid: Biblioteca Nueva.
Blanco, M.J. (1996). Psicofísica. Madrid: Universitas.
Boakes, R.A. (1989). Historia de la Psicología animal. De Darwin al Conductismo. Madrid: Alianza.
Boring, E.G. (1978). Historia de la Psicología Experimental. México: Trillas.
Caparrós, A. (1980). Los paradigmas en psicología. Sus alternativas y crisis. Barcelona: Horsini.
Caparrós. A. (1984). La psicología y sus perfiles. Introducción a la cultura psicológica. Barcelona: Barcanova.
Carpintero, H. (1994). Historia de la psicología en España. Madrid: Eudema.
Carpintero, H. y Peiró, J. M. (1981). La psicología contemporánea. Valencia: Alfaplús.
Fernández-Abascal, E.G., Martín, M.D. y Domínguez, J. (2001). Procesos Psicológicos. Madrid: Pirámide. Cap.
1, pp. 17-48.
Fodor, J. (1991). La explicación psicológica. Madrid: Cátedra.
García, L. y Moya, J. (1989). Tabla cronológica y cuadro sinóptico de la historia de la psicología científica. En
J. Arnáu y H. Carpintero, Historia, teoría y método. Madrid: Alhambra Universidad. Cap. 11, pp. 313-
228.
Gardner, H. (1987). La nueva ciencia de la mente. Historia de la revolución cognitiva. Buenos Aires: Paidós.
Gondra, J.M. (1997). Historia de la Psicología. Introducción al pensamiento psicológico moderno. Volumen I:
Nacimiento de la Psicología científica. Madrid: Síntesis.
Gondra, J.M. (1998). Historia de la Psicología. Introducción al pensamiento psicológico moderno. Volumen II:
Escuelas, teorías y sistemas contemporáneos. Madrid: Síntesis.
Hothersall, D. (1997). Historia de la Psicología. México: McGraw-Hill
Johnson-Laird, P. (1990). El ordenador y la mente. Introducción a la ciencia cognitiva. Barcelona: Paidós. Cap.
1, 2, 3, pp. 19-58.
Keller, F. S. (1984). La definición de la psicología. México: Trillas.
Leahey, T.H. (1998). Historia de la Psicología. Madrid: Pentice Hall.
Mayor, J. (1989). El método científico en Psicología. En J. Arnau y H. Carpintero (Eds.), Historia, teoría y
método. Madrid: Alhambra Universidad. Cap. 16, pp. 419-504.
Mayor, J. y Ríos, J. (1989). ¿Psicología o Psicologías? Un problema de identidad. En J. Arnau y H. Carpintero
(Eds.), Historia, teoría y método. Madrid: Alhambra Universidad. Cap. 1, pp. 3-70.
Muñiz, J. (1991). Introducción a los métodos psicofísicos. Barcelona: P.P.U.
Neisser, U. (1976). Psicología cognoscitiva. México: Trillas.
Reuchlin, M. (1982). Historia de la Psicología. Barcelona: Paidós.
Rosel, I. (1987). Metodología experimental en psicología. Barcelona: Alamex.
Saiz, M. y Saiz, D. (Eds.) (1996). Personajes para una Historia de la Psicología en España. Madrid: Pirámide.
Sánchez-Barranco, A. (1994). Historia de la Psicología. Sistemas, movimientos y escuelas. Madrid: Eudema.
Tortosa, F. (Ed.) (1998). Una Historia de la Psicología Moderna. Madrid: McGraw-Hill.
Vega, M. de (1984). Introducción a la Psicología Cognitiva. Madrid: Alianza. Cap. 1, pp. 23-55.
Yela, M. (1989). Unidad y diversidad de la Psicología. En J. Arnau y H. Carpintero (Eds.), Historia, teoría y
método. Madrid: Alhambra Universidad. Cap. 2, pp. 71-94.